0% encontró este documento útil (0 votos)
19 vistas14 páginas

Resumen Arquitectura Unidad 1,2,3

Cargado por

Facundo castelli
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
19 vistas14 páginas

Resumen Arquitectura Unidad 1,2,3

Cargado por

Facundo castelli
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 14

Resumen Arquitectura

Unidad 1]

1) Reseña Histórica:

Durante siglos, los seres humanos han buscado formas de simplificar y agilizar sus tareas
mediante el uso de diversas herramientas y fuerzas. Desde los primeros métodos de contar con
los dedos, piedras o semillas hasta la invención del ábaco, que combina principios de conteo y
posición para realizar cálculos aritméticos precisos con rapidez, la historia de los artefactos
calculadores se remonta a tiempos antiguos.

En el siglo XVII, en Occidente, la regla de cálculo fue una innovación significativa, basada en los
descubrimientos de John Napier, Edmund Gunter y William Bissaker. Napier desarrolló los
logaritmos, Gunter los marcó en una regla, y Bissaker los integró en un dispositivo de madera,
evolucionando con el tiempo hacia calculadoras de bolsillo muy versátiles.

Para el año 1700, tanto el ábaco como las calculadoras analógicas como la regla de cálculo eran
comunes en Europa. La siguiente gran innovación llegó con la Pascalina en el siglo XVII,
considerada la primera máquina de calcular mecánica, seguida por la máquina diferencial de
Charles Babbage en el siglo XIX, precursora de la computadora moderna.

El verdadero avance hacia las computadoras modernas ocurrió en el siglo XX, con la aparición
de la Mark I en 1944, seguida por ENIAC en 1946, la primera computadora electrónica. Estas
máquinas iniciales, aunque pesadas y lentas comparadas con las actuales, sentaron las bases
para los desarrollos futuros.

El advenimiento de los transistores y los circuitos integrados en las décadas de 1950 y 1960
marcó el comienzo de una nueva era. Los transistores permitieron la miniaturización de
componentes, aumentando la velocidad y la eficiencia energética de los sistemas
computacionales. Esto condujo a las generaciones sucesivas de computadoras, cada vez más
pequeñas, rápidas y capaces de realizar una amplia gama de tareas.

La introducción del microprocesador en la década de 1970 fue otro hito crucial, llevando la
computación a niveles de integración y capacidad sin precedentes. Esto facilitó el desarrollo de
la inteligencia artificial y la expansión de las aplicaciones informáticas en campos tan diversos
como la medicina, la industria, la educación y más allá.

En resumen, desde los humildes orígenes del ábaco hasta la sofisticación de las computadoras
modernas y la inteligencia artificial, la historia de la computación es una evolución continua de
innovación y avance tecnológico que ha transformado profundamente nuestras vidas y
sociedades.

2) Computación, Hardware y Software:

La computación es el campo de estudio dedicado a los sistemas computacionales,


particularmente a las computadoras que gestionan información de manera automatizada.
Incluye diversas áreas como la teoría de la computación, que clasifica problemas según
algoritmos y su eficiencia; la estructura de datos y algoritmos, donde se analizan para resolver
problemas específicos con un enfoque matemático; los sistemas operativos, que son
desarrollados para mejorar la calidad y adaptarse a nuevas necesidades; la arquitectura de
computadoras, que busca crear dispositivos más rápidos y capaces, centrándose en
componentes como memoria, CPU y periféricos; y el desarrollo de lenguajes de programación
para mejorar la eficacia y velocidad de los mismos.

El hardware comprende todas las partes físicas y tangibles de una computadora, como la placa
base, CPU, memoria RAM, discos duros, entre otros componentes electrónicos y mecánicos
que permiten el funcionamiento del sistema.

Por otro lado, el software se refiere al conjunto de componentes lógicos que hacen posible
realizar tareas específicas en una computadora. Incluye desde aplicaciones como procesadores
de texto hasta sistemas operativos que permiten la interacción entre el usuario, los programas
y el hardware físico, facilitando así el funcionamiento de las computadoras de manera eficiente
y efectiva.

3)A) Código BCD:

El Código BCD (Decimal Codificado en Binario) es una forma de representar números decimales
utilizando combinaciones de dígitos binarios de 4 bits. A diferencia de la conversión directa
entre números decimales y binarios estándar, donde no hay una relación directa entre cada
dígito decimal y binario, el BCD asigna un conjunto específico de bits para cada dígito decimal
del 0 al 9.

En el sistema BCD, cada dígito decimal se representa con exactamente cuatro bits, siguiendo un
sistema ponderado donde los pesos de cada bit son 8, 4, 2, y 1. Por ejemplo, el número
decimal 5 se representa en BCD como 0101, donde el primer bit corresponde al peso 8, el
segundo al peso 4, el tercero al peso 2, y el cuarto al peso 1. Esto permite una fácil conversión
de binario a decimal mediante la suma ponderada de los bits.

Es importante destacar que en el BCD natural, solo se utilizan combinaciones de 4 bits para
representar los dígitos del 0 al 9. Los valores binarios del 1010 al 1111 no tienen
representación válida en BCD porque no corresponden a dígitos decimales.

Este sistema es comúnmente utilizado en aplicaciones como displays de 7 segmentos, donde


cada dígito decimal se convierte a su representación BCD para ser mostrado de manera clara
en dispositivos electrónicos.

En resumen, el Código BCD facilita la representación de números decimales en formato binario,


manteniendo una relación directa entre cada dígito decimal y su contraparte binaria, mediante
una asignación fija de bits ponderados.

3)B) Sistemas numéricos de distintas bases, operaciones básicas, resta por complemento :

Los sistemas de numeración son métodos para representar números usando símbolos y reglas
específicas. El sistema decimal es el más común, compuesto por diez dígitos (0-9) que
adquieren valores según su posición en la cifra (unidades, decenas, centenas, etc.). Por
ejemplo, el número 528 se descompone en 5 centenas, 2 decenas y 8 unidades, representado
matemáticamente como 5⋅10^2+2⋅10^1+8⋅10^0=528

El sistema binario utiliza solo dos dígitos (0 y 1), donde cada posición representa una potencia
de base 2. Por ejemplo, el número binario 1011 se calcula como 1⋅2^3+0⋅2^2+1⋅2^1+1⋅2^0=11
en decimal.
Los sistemas octal (base 8) y hexadecimal (base 16) se utilizan para simplificar la representación
de números binarios largos. Octal utiliza 8 dígitos (0-7) y hexadecimal utiliza 16 dígitos (0-9 y A-
F), donde A-F representan valores del 10 al 15. La conversión entre estos sistemas se realiza
expandiendo o contrayendo los dígitos según corresponda.

La aritmética binaria incluye operaciones como suma, resta, multiplicación y división. La suma
binaria es simple (0+0=0, 0+1=1, 1+1=10), con acarreo cuando el resultado supera 1. La resta se
puede simplificar usando el complemento a dos del sustraendo. La multiplicación y división en
binario son igualmente directas debido a la limitada gama de dígitos (0 y 1).

En resumen, los sistemas de numeración son herramientas fundamentales en informática y


matemáticas, permitiendo representar y operar con números de manera eficiente y precisa
según reglas definidas por la base numérica y la posición de los dígitos.

3)C) Código Grey:

El Código Gray es un sistema de codificación binaria donde cada número se representa de


manera que dos números consecutivos difieren en solo un bit. Esto significa que la transición
entre dos números Gray implica cambiar solo un bit a la vez, lo que ayuda a evitar errores en la
transmisión de datos.

El código Gray también es cíclico, lo que significa que el primer y el último número están
conectados, diferenciándose también solo en un bit. Esto es útil en aplicaciones donde la
precisión y la confiabilidad en la transmisión de datos son críticas.

Para generar los números en Código Gray, se comienza con un bit y se van agregando más bits
conforme se necesitan para representar un rango mayor de números. A medida que aumenta
el número de bits, se sigue la regla específica de Gray para garantizar que la transición entre los
números sea correcta.

Aunque el Código Gray no es una representación matemática directa de los números, sino más
bien una técnica de codificación, es posible convertir entre valores en Código Gray y valores
binarios estándar cuando se requieren operaciones matemáticas sobre los números.

En resumen, el Código Gray ofrece una forma eficiente de representar números binarios donde
las transiciones entre valores adyacentes son mínimas, lo que lo hace útil en aplicaciones que
necesitan minimizar errores de transmisión y asegurar la integridad de los datos.

4) ELECTRONICA ANALOGICA Y DIGITAL:

La electrónica digital se enfoca en dispositivos, circuitos y sistemas que utilizan señales binarias
(1 y 0) en lugar de señales continuas de voltaje como en la electrónica analógica. Un bit
representa estos dos estados lógicos: alto (1) para presencia de voltaje y bajo (0) para ausencia
de voltaje. Los circuitos digitales son rápidos y están compuestos por interruptores que pueden
estar abiertos o cerrados, formando patrones de unos y ceros.

En contraste, la electrónica analógica maneja señales que varían continuamente en voltaje.


Ejemplos incluyen radios y televisores, que ajustan su salida de manera continua según las
variaciones en la señal.
Los circuitos digitales se utilizan en aplicaciones donde se requiere precisión y fiabilidad, como
en relojes, calculadoras y computadoras. Cada circuito digital maneja información en forma de
bits, que son la unidad básica de información. Estos circuitos pueden ser implementados con
componentes discretos (transistores, resistencias) o integrados en chips de silicio.

5) Circuitos Integrados:

Los circuitos integrados (CI) son componentes fundamentales en la electrónica moderna,


fabricados con todos sus elementos (transistores, diodos, etc.) sobre una pastilla de silicio. Esta
pastilla se encapsula luego en plástico o cerámica para protección y conexión a circuitos
externos.

Existen varios tipos de encapsulados, siendo el más común el DIP (Dual In-line Package). Los CI
varían en tamaño y complejidad, desde simples compuertas hasta microprocesadores
completos.

La fabricación de CI implica el uso de tecnologías como MOS (Metal-Oxide-Semiconductor) y


bipolares, con procesos que incluyen el dopado del silicio, fotolitografía para definir patrones, y
múltiples capas de metalización para conectar componentes.

La miniaturización, especialmente con la tecnología SMT (Surface-Mount Technology), ha


permitido dispositivos más pequeños y eficientes, como las calculadoras del tamaño de una
tarjeta de crédito.

Los CI se clasifican según la cantidad de compuertas en SSI, MSI, LSI y VLSI, afectando su
complejidad y tamaño.

La tecnología de fabricación requiere condiciones extremadamente limpias y precisas, con


salas libres de partículas para evitar defectos en los chips.

En resumen, los CI son esenciales para la electrónica moderna debido a su capacidad para
integrar múltiples funciones en un solo chip, gracias a procesos de fabricación avanzados y
precisos.

6) Estructura de un microcomputador:

En la estructura de un microcomputador, la flexibilidad radica en su capacidad para ejecutar


una amplia gama de aplicaciones mediante programas, independientemente de su
configuración electrónica. Un microcomputador consta de tres componentes principales:
unidad de entrada y salida, CPU (unidad central de procesamiento) y memoria.

La unidad de entrada recibe datos del entorno externo, como teclados, sensores o dispositivos
de grabación, y los transfiere a la memoria para su procesamiento. La unidad de salida entrega
los resultados procesados a dispositivos externos como impresoras o monitores.

La memoria almacena programas y datos en dos tipos principales: RAM, que permite la lectura
y escritura de datos durante la ejecución de programas, y ROM, que contiene instrucciones
permanentes que no pueden ser modificadas. Existe también la memoria caché para
almacenar datos usados frecuentemente y mejorar la velocidad de acceso.
La CPU, compuesta por la unidad de control y la unidad aritmético-lógica (ALU), interpreta y
ejecuta instrucciones del programa. La unidad de control coordina las operaciones del sistema
y la ALU realiza operaciones matemáticas y lógicas fundamentales.

Estos componentes se comunican a través de buses que transportan señales digitales entre
ellos, coordinados por la unidad de control. Así, el microcomputador procesa información
siguiendo un ciclo básico: entrada de datos, procesamiento por la CPU, y salida de resultados
mediante la unidad de salida, todo bajo la supervisión de la unidad de control.

En resumen, la estructura y operación de un microcomputador permiten su versatilidad y


poderío, adaptándose a diversas aplicaciones mediante la manipulación de programas que
controlan sus funciones básicas de entrada, procesamiento y salida de datos.

7) Concepto de BUSES:

El concepto de "bus" en sistemas digitales se refiere a un conjunto de líneas de comunicación


que conectan los diferentes componentes de un microcomputador, como la CPU, la memoria y
los dispositivos de entrada/salida. Estas líneas permiten la transferencia organizada y eficiente
de información, incluyendo datos, direcciones y señales de control.

Existen tres tipos principales de buses en un microcomputador:

 Bus de Datos: Transporta la información entre la CPU, la memoria y los dispositivos de


entrada/salida. Puede ser bidireccional para permitir la transferencia en ambas
direcciones.
 Bus de Direcciones: Unidireccional, utilizado por la CPU para señalar las ubicaciones de
memoria o los puertos de entrada/salida con los que desea comunicarse. La cantidad
de líneas en este bus determina la capacidad de direccionamiento del sistema.
 Bus de Control: Transporta señales de control desde la CPU hacia otros componentes
del sistema, como señales de escritura/lectura, sincronización, interrupciones, etc. La
cantidad y función de estas líneas varían según el diseño del sistema y el
microprocesador utilizado.

Además de estos tres buses principales, puede haber buses específicos para la entrada/salida,
que conectan dispositivos periféricos especiales como impresoras o módems al sistema.

La estructura de buses varía dependiendo del microprocesador utilizado. Por ejemplo, el bus
del sistema del microprocesador 6800 es diferente al del 8085, en términos de ancho y tipo de
señales manejadas. Esto puede dificultar la interoperabilidad entre diferentes
microcomputadores, por lo que existen estándares normalizados como IEEE-488 y RS-232 para
facilitar la comunicación entre sistemas y periféricos.

En resumen, los buses son esenciales para la comunicación interna de un microcomputador,


permitiendo la transferencia eficiente de datos, direcciones y señales de control entre la CPU,
la memoria y los dispositivos de entrada/salida, asegurando así el funcionamiento coordinado y
efectivo del sistema digital.
8) Concepto de Programa:

El concepto de programa en el contexto de los microprocesadores se refiere a un conjunto


organizado de instrucciones que guían al microprocesador para realizar tareas específicas. Sin
un programa, el microprocesador y su hardware asociado son inertes. Los programas están
compuestos por instrucciones almacenadas en la memoria del sistema en forma de patrones
binarios (1's y 0's). Este formato, conocido como lenguaje de máquina, es el único que el
microprocesador puede entender directamente.

Cada instrucción en el lenguaje de máquina es representada por un código binario


denominado código de operación (op-code), que indica al microprocesador qué acción realizar.
Los programas se ejecutan mediante ciclos de instrucción, donde el microprocesador busca,
decodifica y ejecuta secuencialmente las instrucciones almacenadas en la memoria.

Los microprocesadores tienen conjuntos específicos de instrucciones que definen sus


capacidades y funcionalidades. Estas instrucciones se agrupan en tres categorías principales:
transferencia de datos, procesamiento de datos y control de programa. Cada microprocesador
tiene su propio conjunto de instrucciones, dictado por su diseño y arquitectura.

Para escribir programas en lenguaje de máquina, se utilizan ensambladores para convertir las
instrucciones escritas en lenguaje ensamblador (más legible para los humanos) a lenguaje de
máquina. Aunque eficaz, escribir directamente en lenguaje de máquina puede ser tedioso y
propenso a errores, por lo que se desarrollaron lenguajes de alto nivel como Pascal, Cobol y
Basic, que son más comprensibles y menos propensos a errores.

En resumen, un programa para un microprocesador es un conjunto ordenado de instrucciones


en lenguaje de máquina que permiten al microprocesador realizar tareas específicas, como
operaciones aritméticas, transferencias de datos o control de flujos de ejecución, mediante la
interpretación de códigos de operación almacenados en la memoria del sistema.

Unidad 2]

1) Organización interna del microprocesador:

 Componentes Esenciales: Un microprocesador consta de varios componentes


fundamentales, como un reloj para sincronizar operaciones, una ALU (unidad
aritmético-lógica) para realizar operaciones matemáticas y lógicas, registros para
almacenar datos temporalmente, un contador de programa (PC) para seguir la
secuencia de las instrucciones, y un decodificador de instrucciones para interpretar las
órdenes del programa.
 Funciones y Categorías de Instrucciones: Las funciones del microprocesador se definen
por su conjunto de instrucciones, las cuales se dividen en tres categorías principales:
transferencia de datos (movimiento de información sin alterarla), procesamiento de
datos (operaciones aritméticas y lógicas), y control de programa (gestión de la
secuencia de ejecución del programa).
 Unidades de Procesamiento: Conceptualmente, la CPU está dividida en dos partes
principales: la unidad de instrucción (que interpreta las órdenes) y la unidad de
ejecución (que lleva a cabo las operaciones, incluyendo la ALU y los registros
auxiliares).
 Registros Importantes: Además del contador de programa y el registro de
instrucciones, hay otros registros cruciales como el acumulador (utilizado
frecuentemente para operaciones), y el registro de estado (que indica condiciones de
ejecución como sobreflujo o resultado cero).
 Organización y Selección de Microprocesadores: La arquitectura de un
microprocesador, incluyendo el número y tipo de registros internos, es vital al
momento de elegirlo para una aplicación específica. Aunque entender en detalle su
funcionamiento interno es útil, no siempre es necesario para utilizarlo eficazmente.

En resumen, la estructura interna de un microprocesador varía según el dispositivo, pero todos


comparten componentes básicos como registros, unidades de procesamiento y un conjunto
definido de instrucciones que determinan su funcionalidad y aplicación en sistemas
computacionales.

2) Arquitectura Von Newman y Harvard:

Arquitectura Von Neumann:

1) Características principales:
 La CPU está conectada a una única memoria principal (generalmente RAM) donde se
almacenan tanto las instrucciones del programa como los datos.
 Utiliza un único bus para control, direcciones y datos, lo que significa que la CPU
accede secuencialmente a instrucciones y datos.
 El tamaño de las instrucciones está limitado por el ancho del bus de datos, lo que
puede requerir múltiples accesos a memoria para instrucciones complejas.

2) Limitaciones:
 Debido al único bus, la CPU no puede buscar nuevas instrucciones mientras está
esperando la transferencia de datos, lo que ralentiza la respuesta del sistema.
 La velocidad de operación está limitada por el hecho de que no se pueden acceder
simultáneamente a datos e instrucciones.

Arquitectura Harvard:

1) Características principales:
 La CPU está conectada a dos memorias separadas: una para almacenar las
instrucciones del programa (Memoria de Programa) y otra para almacenar datos
(Memoria de Datos).
 Utiliza dos buses independientes para datos e instrucciones, lo que permite a la CPU
acceder de manera simultánea e independiente a ambos tipos de memoria.
 Las memorias de instrucciones y datos pueden tener diferentes contenidos y
longitudes, lo que optimiza el uso de la memoria.
2) Ventajas:
 Las instrucciones no están limitadas por el ancho del bus de datos, lo que permite
optimizar el tamaño y la velocidad de las instrucciones.
 La CPU puede superponer el acceso a instrucciones y datos, mejorando
significativamente la velocidad de operación.
 Es ideal para procesadores RISC, donde las instrucciones suelen ocupar una única
posición de memoria de programa, lo que acelera la ejecución y reduce la longitud del
programa.

En resumen, mientras que la arquitectura Von Neumann utiliza una memoria única y un bus
compartido para datos e instrucciones, lo que puede limitar la velocidad y eficiencia del
procesador, la arquitectura Harvard emplea dos buses separados que permiten acceso
simultáneo y optimización independiente de instrucciones y datos, resultando en un mejor
rendimiento y eficiencia para ciertos tipos de procesadores, como los RISC.

3) Arquitectura CISC Y RISC:

En el ámbito de la arquitectura de microprocesadores, la decisión inicial sobre el juego de


instrucciones, ya sea Complejas (CISC) o Reducidas (RISC), define aspectos fundamentales del
diseño físico y funcional del procesador. Los CISC se caracterizan por su conjunto amplio y
variado de instrucciones, permitiendo operaciones complejas que pueden involucrar tanto
memoria como registros internos. Sin embargo, esta complejidad dificulta el paralelismo entre
instrucciones y puede ralentizar el rendimiento del sistema, aunque facilita la tarea de los
compiladores y reduce costos de desarrollo de software.

Por otro lado, los procesadores RISC optan por un conjunto reducido de instrucciones más
simples y uniformes, diseñadas para ejecutarse rápidamente sin necesidad de
microprogramación adicional. Esto se traduce en ciclos de reloj más cortos y una ejecución más
eficiente, aunque requiere una tecnología de compilación más avanzada y un acceso más
directo a la memoria.

En cuanto a la evolución y aplicaciones actuales, aunque hubo una época en que los RISC eran
predominantes en redes y CISC en computadoras domésticas, las líneas entre ambas
arquitecturas se han difuminado. Actualmente, los avances tecnológicos han permitido que los
CISC incorporen características de los RISC, manteniendo competitividad en términos de
rendimiento y costos. A pesar de la creciente popularidad de los RISC, especialmente en
entornos que requieren alta velocidad de procesamiento, los CISC siguen siendo relevantes
debido a su amplio soporte de software establecido.

En resumen, la elección entre arquitecturas CISC y RISC depende de las necesidades específicas
de rendimiento, compatibilidad y costos del sistema en su conjunto, más que de las
características puramente técnicas de cada procesador.

4) Introducción al Microprocesador Pentium (Parte 1):

El Pentium fue un hito en la historia de los microprocesadores de Intel, lanzado el 22 de marzo


de 1993 como la quinta generación de CPUs compatibles x86. Reemplazó la nomenclatura
esperada de 586 y 80586 con el nombre Pentium para asegurar una marca registrada distintiva.
Ofreció velocidades iniciales de 60 y 66 MHz con tecnología de 0,8 micrones, introduciendo
significativas mejoras como una unidad de punto flotante optimizada, caché interno de 8 KB,
bus de datos de 64 bits, y la capacidad de ejecutar dos instrucciones simultáneamente.

Aunque se basó en el diseño del 486, el Pentium añadió nuevas instrucciones y mejoró
drásticamente la unidad de punto flotante, que hasta entonces había sido subdesarrollada en
los procesadores x86. Esta mejora permitió competir efectivamente con los procesadores RISC
en aplicaciones exigentes como Windows NT.

En marzo de 1994, Intel lanzó la segunda generación de Pentium con velocidades más altas y
mejor eficiencia energética, reduciendo significativamente el consumo eléctrico y el calor
generado. Esta versión también introdujo características adicionales como el controlador APIC
y soporte para procesamiento dual en las placas base.

En enero de 1997, llegó la tercera generación de Pentium, conocida como Pentium MMX, que
incorporó la tecnología MMX con 57 nuevas instrucciones. Estas mejoras se centraron en
aplicaciones multimedia, proporcionando un rendimiento significativamente mejorado para
gráficos, audio y video.

El diseño superescalar del Pentium permitió ejecutar múltiples instrucciones simultáneamente


a través de su estructura de doble vía de acceso. Esto mejoró la eficiencia al procesar
instrucciones complejas y paralelas, aunque también introdujo desafíos como la gestión de
dependencias de instrucciones y la predicción de saltos para optimizar el rendimiento.

En resumen, el Pentium marcó una evolución crucial en los microprocesadores de Intel,


mejorando sustancialmente el rendimiento de punto flotante y la capacidad para manejar
aplicaciones multimedia. Sus sucesivas generaciones continuaron esta tendencia con
innovaciones como la tecnología MMX y la arquitectura Dual Independent Bus del Pentium II,
estableciendo nuevos estándares en la industria de los microprocesadores.

Parte 2)

La ejecución dinámica es una técnica avanzada utilizada en procesadores para mejorar la


eficiencia manipulando datos. Fue introducida por primera vez en el Pentium Pro y combina
tres principales técnicas de procesamiento: predicción de ramificaciones múltiples, análisis del
flujo de datos y ejecución especulativa. Estas técnicas permiten al procesador anticipar y
ejecutar instrucciones de manera más eficiente, optimizando el flujo de trabajo y aumentando
el rendimiento del software.

 Predicción de Ramificaciones Múltiples: Esta técnica utiliza algoritmos para predecir la


dirección del flujo del programa, anticipando saltos condicionales en las instrucciones.
Esto permite al procesador buscar y traer instrucciones futuras con alta precisión (más
del 90%), optimizando el rendimiento al minimizar los retardos causados por
decisiones de ramificación.
 Análisis del Flujo de Datos: El procesador analiza las instrucciones decodificadas y
determina su dependencia y disponibilidad para ejecución. Esto permite reordenar las
instrucciones en una secuencia más eficiente para su procesamiento,
independientemente del orden original en el código, mejorando así la utilización de los
recursos del procesador.
 Ejecución Especulativa: Esta técnica aumenta la velocidad de ejecución al anticiparse a
las necesidades futuras del programa. El procesador ejecuta instrucciones
especulativas que pueden ser necesarias basándose en la posición actual del contador
del programa, aprovechando al máximo la capacidad de procesamiento superescalar.

La combinación de estas técnicas permite a los procesadores modernos como el Pentium II,
Pentium III y Pentium IV manejar de manera más eficiente las instrucciones del software,
reduciendo los tiempos de espera y aumentando el rendimiento general de las aplicaciones.
Esto se logra al alterar el orden y predecir la necesidad de instrucciones antes de que se hayan
completado otras, maximizando así la utilización de los recursos del procesador.

En resumen, la ejecución dinámica es esencialmente una estrategia avanzada de manejo de


instrucciones en la CPU que mejora significativamente la velocidad y eficiencia del
procesamiento de datos en comparación con los métodos más tradicionales basados en una
simple lista de instrucciones.

5) Algebra de BOOLE:

El Álgebra de Boole es un formalismo matemático utilizado en Electrónica Digital para


implementar funciones booleanas, las cuales manejan valores lógicos (1 y 0) con operadores
como AND, OR, y NOT. George Boole introdujo estas reglas en 1847, basándose en operaciones
conmutativas y distributivas sobre conjuntos.

En Electrónica Digital, las funciones booleanas se implementan usando operaciones como AND
(•), OR (+), y NOT, representadas por niveles de tensión (ALTO y BAJO). Las funciones pueden
simplificarse utilizando teoremas de Álgebra de Boole y métodos gráficos como los Mapas de
Karnaugh.

Los Mapas de Karnaugh facilitan la simplificación visual de funciones booleanas al agrupar


minterms (términos producto) según patrones de variables. Esto permite obtener formas
canónicas disyuntivas (suma de minterms) o conjuntivas (producto de maxterms) de una
función booleana, simplificándola para la implementación en circuitos lógicos.

En resumen, el Álgebra de Boole proporciona herramientas para el diseño eficiente de circuitos


digitales mediante la manipulación algebraica de expresiones booleanas, crucial para la
electrónica moderna y la computación digital.

Unidad 3]
1) Montaje de Componentes de Hardware y Software:

Preparación:

 Necesitas un disquete de arranque con archivos esenciales como command.com,


msdos.sys, y io.sys, así como otros archivos como autoexec.bat y config.sys.
 Asegúrate de tener todos los componentes y herramientas necesarias, incluyendo
destornilladores, alicates, y un lugar bien iluminado y seguro.

Montaje de la placa madre:

 Configura jumpers según el manual de la placa base, especialmente los del


microprocesador.
 Inserta el procesador en el ZIF Socket o Slot 1 según el tipo de procesador, y monta el
ventilador correctamente.
 Instala módulos de memoria DIMM o SIMM siguiendo la orientación adecuada.

Montaje en el gabinete:

 Prepara el gabinete eliminando las plaquitas metálicas necesarias y montando la placa


madre con los tornillos correspondientes.

Ensamblaje y configuración de unidades:

 Instala el CD-ROM y la disquetera en los huecos designados, fijándolos con tornillos.


 Asegura que los cables de alimentación y datos estén conectados correctamente a
cada unidad.

Configuración de unidades y conexiones:

 Configura unidades IDE como maestras o esclavas mediante jumpers.


 Conecta la fuente de alimentación a la placa madre y conecta LEDs, altavoz y botón de
encendido según la configuración de la placa base.

Conexiones externas:

 Conecta monitor, teclado, ratón, altavoces, impresora, módem, y cualquier otra unidad
externa según los puertos disponibles en la placa base y en el gabinete.

Primer encendido y configuración inicial:

 Verifica que todo esté correctamente conectado y enciende la computadora.


 Configura la BIOS si es necesario y procede con la instalación del sistema operativo
desde el disquete de arranque o CD-ROM.

2) UEFi vs BIOS y MBR vs GPT:

El BIOS (Basic Input/Output System) o UEFi (Unified Extensible Firmware Interface) es un


firmware que actúa como interfaz de arranque en las computadoras. Originalmente, el BIOS,
introducido en 1982, reside en un chip de la placa base y gestiona el inicio del PC reconociendo
los dispositivos necesarios para cargar el sistema operativo. A partir de 2012, UEFi ha
reemplazado al BIOS ofreciendo mejoras de seguridad y soporte para nuevas funcionalidades
en placas base modernas.
El término "interface del chip de arranque" podría considerarse más apropiado que
"BIOS/UEFi", reflejando su función como firmware que controla el hardware esencial del
sistema y configura opciones como la hora y la secuencia de arranque. La configuración se
guarda en una memoria CMOS, alimentada por una pila CR2032.

Ambos términos, "la BIOS" o "el BIOS", son utilizados en diferentes regiones para referirse al
mismo concepto. Acceder al BIOS/UEFi se logra pulsando una tecla específica al encender la
computadora, permitiendo ajustes de configuración como el idioma y el modo de arranque
(UEFi o Legacy).

El firmware puede ser ROM, EPROM, EEPROM o Flash, con esta última siendo la más común
debido a su capacidad de actualización sin requerir borrado previo. UEFi, por su parte, ofrece
un entorno más avanzado y puede incluso actuar como un sistema operativo básico para tareas
simples.

El particionado de discos puede ser MBR (Master Boot Record) o GPT (GUID Partition Table),
este último introducido con UEFi para superar las limitaciones de MBR en cuanto a número de
particiones y tamaño máximo de disco.

En resumen, BIOS/UEFi es esencial para el arranque y configuración inicial de las computadoras


modernas, evolucionando desde simples interfaces de texto hasta entornos gráficos y
funcionales más complejos con UEFi.

3) Acceso directo a Memoria:

DMA permite a dispositivos hardware acceder directamente a la memoria sin usar la CPU,
mejorando el rendimiento al liberarla para otras tareas. Puede causar problemas de coherencia
de caché cuando la CPU y el DMA acceden a los mismos datos. Esto se maneja con cachés
coherentes o mediante software para invalidar la caché antes y después de las operaciones
DMA.

4) Interrupciones de Hardware:

Las Interrupciones de Hardware (IRQ) son señales que el hardware de una computadora envía
al microprocesador mediante líneas físicas dedicadas en la placa base. Estas interrupciones son
prioritarias y permiten a dispositivos como impresoras, tarjetas de sonido o redes comunicarse
con la CPU. Cuando un dispositivo necesita atención, envía una solicitud de interrupción al
procesador, que puede decidir atenderla de inmediato o posponerla según su prioridad.

El controlador de interrupciones, como el PIC o APIC, gestiona estas solicitudes asignando


prioridades y asegurando que la CPU responda adecuadamente. Las IRQ tienen asignaciones
específicas (números IRQ) que se pueden ver en el sistema operativo mediante herramientas
como el Administrador de Dispositivos en Windows o comandos en Linux.

Históricamente, las IRQ han evolucionado desde sistemas con 8 líneas a sistemas más
complejos con hasta 16 líneas, permitiendo una gestión más flexible de dispositivos y
prioridades. Los conflictos de IRQ ocurren cuando varios dispositivos comparten la misma línea
de interrupción, lo que puede resultar en malfuncionamientos del hardware si no se manejan
adecuadamente.
Con la introducción de tecnologías como PCI y Plug and Play (PnP), la asignación automática de
IRQ ha mejorado, aunque los usuarios avanzados a menudo deben intervenir para resolver
conflictos. En resumen, las IRQ son fundamentales para la comunicación eficiente entre
dispositivos y la CPU en sistemas informáticos modernos.

5) Tipos de Memoria:

La memoria en un ordenador se refiere al almacenamiento interno de datos en forma de chips.


Existen diversos tipos de memoria:

 RAM (Memoria de Acceso Aleatorio): Es la memoria principal del ordenador, donde se


almacenan los datos y programas que el procesador está utilizando en ese momento.
Es una memoria volátil, es decir, pierde su contenido cuando se apaga el sistema.
 ROM (Memoria de Sólo Lectura): Es una memoria de sólo lectura que contiene
programas fundamentales para iniciar y diagnosticar el ordenador. No se puede escribir
en ella.
 PROM (Memoria Programable de Sólo Lectura): Es un tipo de ROM que puede ser
programada una sola vez por el usuario.
 EPROM (Memoria Programable Borrable y Reprogramable): Es un tipo de PROM que se
puede borrar exponiendo el chip a luz ultravioleta.
 EEPROM (Memoria Eléctricamente Programable y Borrable): Es un tipo de PROM que
se puede borrar y reprogramar eléctricamente.
 Memoria Flash: Es una memoria ROM reprogramable y borrable eléctricamente a gran
velocidad. Combina características de ROM y RAM.

La memoria RAM se divide en dos tipos básicos:

 RAM Dinámica (DRAM): Necesita ser refrescada constantemente para mantener su


contenido.
 RAM Estática (SRAM): No necesita ser refrescada, pero es más cara que la DRAM.
 La memoria ha evolucionado a lo largo del tiempo, pasando por tecnologías como
FPM, EDO, SDRAM, DDR SDRAM, etc. Cada una ofrece mejoras en velocidad y
rendimiento.

Finalmente, las memorias se organizan físicamente en módulos SIMM y DIMM, con distintos
números de contactos y capacidades. La cantidad de memoria RAM es crucial para el
rendimiento del sistema, especialmente con sistemas operativos modernos.

6) Memoria Cache:

La memoria caché es un tipo de memoria de acceso aleatorio (RAM) mucho más rápida que la
memoria principal (RAM). Su principio de funcionamiento es almacenar una copia de los datos
y/o instrucciones más frecuentemente utilizadas por la CPU, para que esta pueda acceder a
ellos de manera más rápida que si tuviera que obtenerlos directamente de la memoria
principal.
Los objetivos principales de la memoria caché son:

 Mantener el tiempo de acceso promedio a la memoria lo más pequeño posible.


 Reducir el ancho de banda de transferencia entre la memoria principal y el procesador.

La memoria caché contiene un subconjunto de los datos y/o instrucciones de la memoria


principal, organizados en bloques de tamaño fijo. Cuando la CPU necesita acceder a un dato,
primero busca en la memoria caché. Si el dato se encuentra allí (acierto de caché), se obtiene
rápidamente. Si no se encuentra (fallo de caché), se trae un bloque completo desde la memoria
principal a la caché.

Existen varios diseños y características de la memoria caché, como el tamaño de la caché, el


tamaño de los bloques, la política de reemplazo, la política de escritura, etc. Todos estos
aspectos afectan el rendimiento de la caché y deben ser cuidadosamente diseñados.

Además de la caché integrada en el procesador (caché L1), también existe una caché externa
(caché L2) que mejora aún más el rendimiento al proporcionar un nivel adicional de memoria
rápida entre la CPU y la memoria principal.

En resumen, la memoria caché es un elemento fundamental para mejorar el rendimiento de


los sistemas informáticos, al reducir el tiempo de acceso a la memoria y el tráfico entre el
procesador y la memoria principal.

7) Auto Test de Inicio:

Cuando se enciende una computadora, se activa el BIOS (Basic Input/Output System), que
realiza un autotest (POST o Power On Self Test) para verificar el buen funcionamiento de los
componentes clave como el procesador, la memoria, las interrupciones, el DMA, el reloj, la
ROM, el controlador de vídeo, el teclado y los discos.

El BIOS está compuesto por tres elementos: un programa de puesta en marcha con el autotest,
un programa para cargar el sistema operativo y un administrador de servicios.

Después del autotest, el BIOS carga el sistema operativo (DOS) en varias etapas: carga el
programa de inicio "boot", lee el archivo IO.SYS o IBMBIO.COM, carga el archivo DBLSPACE.BIN
(a partir de DOS 6) para leer discos comprimidos, carga el archivo MSDOS.SYS, ejecuta el
archivo CONFIG.SYS y finalmente carga el COMMAND.COM.

El COMMAND.COM es el "intérprete de comandos" del DOS y permite acceder a los comandos


internos como DIR, COPY, etc.

El BIOS también permite acceder al "Setup" para modificar la configuración del sistema, como
la fecha, hora, tipos de discos, parámetros de vídeo, etc. El Setup se activa al encender la
computadora, si se detecta un cambio de configuración o si el usuario lo solicita presionando
una tecla o combinación específica.

El Setup muestra pantallas divididas en secciones para modificar los parámetros básicos y
avanzados del sistema. Permite también cargar los valores por defecto del BIOS o de la
inicialización.

También podría gustarte