0% encontró este documento útil (0 votos)
151 vistas11 páginas

Representacion Interna de Los Datos y Aritmetica de La Computadora

El documento describe la representación interna de datos en una computadora. Las computadoras usan el sistema binario, que solo utiliza los dígitos 1 y 0. Esto permite que cualquier cantidad pueda ser expresada como una combinación de dígitos binarios. Para que un dato pueda ser procesado, debe ser digitalizado para convertirlo a números expresados en el sistema binario. La lógica digital y el álgebra booleana son las herramientas clave para trabajar con estos valores binarios y tomar decisiones lógicas.

Cargado por

Noel Fullbuster
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
151 vistas11 páginas

Representacion Interna de Los Datos y Aritmetica de La Computadora

El documento describe la representación interna de datos en una computadora. Las computadoras usan el sistema binario, que solo utiliza los dígitos 1 y 0. Esto permite que cualquier cantidad pueda ser expresada como una combinación de dígitos binarios. Para que un dato pueda ser procesado, debe ser digitalizado para convertirlo a números expresados en el sistema binario. La lógica digital y el álgebra booleana son las herramientas clave para trabajar con estos valores binarios y tomar decisiones lógicas.

Cargado por

Noel Fullbuster
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 11

Representacion Interna de los Datos en la

Computadora

Operaciones numéricas

Sistema binario.
Las computadoras internamente o sistema binario (sistema numérico posicional de base 2). La
característica más notable de este sistema numérico es la utilización exclusiva de los números "1" e
"0", los llamados "dígitos binarios". A través del sistema binario, todas las cuantidades y todos los
valores de cualquier variable podrán ser expresos usando una combinación de un determinado número
de dígitos binarios, o sea, usando apenas los números "1" e "0".
El uso del sistema binario por las  computadores decore del fato de estas máquinas se basaren en
circuitos eléctricos o electrónicos. Esto porque la gran mayoría de los componentes de circuitos
eléctricos pueden asumir apenas un de entre dos estados. Por ejemplo: interruptores pueden estar
cerrados o abiertos, capacitores cargados  o descargados, lámparas asesas o apagadas, circuitos
energizados o des energizados y así por delante. Esto facilita la representación de grandezas expresas
en el sistema binario usando estos componentes.
Para entender la razón de esto, imagine, por ejemplo, que se desee representar el número diez
mediante un conjunto de lámparas, donde una lámpara asesa representa el numero "1" y una lámpara
apagada el numero "0". En el sistema binario, el número diez asume la forma "1010" (para entender el
fenómeno basta saber que cualquier número puede ser expreso en la base dos usando apenas los
números "1" e "0"; por tanto, aun que no sepas hacer la conversión de números del sistema decimal
para el binario, acredite que "diez" en binario es "1010" y siga adelante; si desear una explicación más
detallada, consulte la literatura técnica y infórmese sobre sistemas numéricos y conversión de bases).
Por tanto, para representar el número diez bastan cuatro lámparas una al lado de la otra, la izquierda
asesa, su vecina apagada, la siguiente asesa y la última de la derecha apagada, en la configuración
"1010". Claro que esto puede ser hecho igualmente usando interruptores cerrados y abiertos, circuitos
energizados e des energizados o capacitores cargados y descargados (en realidad, algunos circuitos de
memoria usados en las computadoras enpregan capacitores microscópicos para almacenar valores
binarios). Todo dispositivo que pueda asumir un de entre dos estados posibles puede ser utilizado para
representar cantidades expresas en el sistema binario.
El uso exclusivo de los números "1" e "0" en los circuitos internos de las computadoras puede llevar a
creer que ellos apenas sirven para resolver problemas muy específicos, cuyas grandezas de entrada y
salida asuman apenas dos valores y que por lo tanto su utilización ha de ser extremamente limitada.
Esta conclusión es falsa. En realidad, toda y cualquier grandeza del mundo real, desde los colores y
posiciones de los puntos que forman el imagen de Mona Lisa, los compaseos, timbres y notas musicales
que componen la Aria de la Cuarta Cuerda, el conjunto de caracteres que consubstancian la Divina
Comedia hasta la sucesión ordenada de aminoácidos que forman el DNA de los seres vivos, en suma:
toda y cualquier creación humana o de la naturaleza, sea cual sea, puede ser codificada y representada
(con mayor o menor precisión) sobe la forma de un conjunto de números. Y estos números pueden ser
expresos el el sistema binario. Por eso que la computadora es una máquina tan versátil y se presta a
actividades tan disparatadas como calcular, escribir, dibujar, reproducir músicas o vídeo. Con un
computador é posible pintar y bordar.
Para que un dado o información pueda ser procesado por una computadora, basta que él sea
codificado de tal forma que pueda ser "modelado" a través de un conjunto de números. Estos números
serán expresos en el sistema binario y procesados por la computador.
El proceso de conversión de las grandezas del mundo real en cantidades expresas en el sistema binario
se denomina "digitalización" (por ejemplo: el dispositivo denominado "escáner" nada más es que un
digitalizador de imágenes, en cuanto el proceso de grabación de un CD de audio es la digitalización de
sonidos).
Pero la digitalización es apenas el paso inicial: transformar las grandezas del mundo real en números y
exprimirlas en el sistema binario. El siguiente paso es escoger una herramienta para trabajar con los
valores así expresos.
Esta herramienta es la lógica digital.

 Lógica digital
Todo el raciocinio lógico es basado en la toma de una decisión a partir del cumplimento de
determinadas condiciones. Inicialmente hay los datos de entrada y una condición (o una combinación
de condiciones). Aplicase la condición a los dados de entrada para decidir cuáles son los datos de
salida. Tal vez el ejemplo más célebre y mas sucinto de esto sea el conocido apotegma de Descartes:
"Pienso, luego existo".
La lógica digital no es diferente. Pero presenta una peculiaridad: trabaja apenas con variables cuyos
valores alternan exclusivamente entre dos estados y no admiten valores intermediarios. Estos estados
pueden ser representados por "un" y "cero", "si" y "no", "verdadero" y "falso" o cualesquier otras
grandezas cuyo valor pueda asumir apenas un entre dos estados posibles. Por lo tanto, la lógica digital
es la herramienta ideal para trabajar con grandezas cuyos valores son expresos en el sistema binario.
Para comprender la lógica digital usemos como ejemplo el estatuto del Club de Bolinha. Quien desear
informaciones más detalladas puede consultar la literatura especializada (recomendase la colección de
revistas que tratan del asunto), pero eso difícilmente será necesario, una vez que lo referido estatuto 
consiste de un único artigo: "Chica no entra". Esta es la condición.
E dato de entrada es la situación del pretendiente en relación a la condición de ser una Chica. El dato
de salida, o sea, la decisión sobre el fato del pretendiente poder o no entrar en el Club, es obtenido
mediante la aplicación de la condición al dato de entrada. Es una chica? Si o no? La decisión es "si" se el
pretendiente "no" es una Chica. y "no" se, "si", es una chica. Este es un ejemplo de las más simple de
las condiciones, en la cual hay apenas un dato de entrada y el dato de salida es exactamente el
contrario de ello: un "si" genera un "no" y un "no" genera un "si". Esta condición es representada por la
puerta lógica NOT (el adverbio "no" en inglés).
Ahora vamos dar un paso adelante. Imaginemos que el Sr. Bolinha decidió dar una fiesta para los
miembros del club, pero resolvió cobrar el ingreso para cubrir los costos del evento. Por lo tanto, para
entrar, hay que ser miembro, y que comprar un ingreso. En una situación como esta la condición es
más compleja. Los datos de entrada ahora son dos: la situación del pretendiente en relación al facto de
ser miembro del club (si o no) y la pose del ingreso (si o no). Para que el dado de salida sea "si", o sea,
para que el pretendiente ingrese en la fiesta, el tiene que cumplir AMBAS condiciones. No basta ser
miembro del club ("si" para la primera condición) si no posee el ingreso ("no" para la segunda). No
basta poseer el ingreso ("si" para la segunda condición) si no es miembro ("no" para la primera). La
decisión es tomada sometiendo los datos de entrada a la condición. Para una decisión "si" que garante
la entrada en la fiesta es necesaria, al mismo tiempo, "si", ser miembro del club y, "si", disponer del
ingreso. O sea, la salida solamente será "si" si ambos datos de entrada fuesen "si". Esta condición es
representada por la puerta lógica AND (la conjunción aditiva "e" en inglés).
Tomemos otro ejemplo. Imaginemos que los miembros del club tengan llevado al Presidente un
reclamo: siendo ellos miembros, y siendo la fiesta en el club, porque razón tenían que pagar ingreso? El
Sr. Bolinha consideró el pleito justo, pero alego que todavía precisaría de recursos para cubrir los
costos. Decidió abrir el evento para toda la comunidad y no apenas a los miembros del club, cobrando
el ingreso apenas dos que no fuesen miembros. Entonces, para entrar, seria necesario o ser miembro
del club o comprar un ingreso. Cumplida cualquier una de las dos condiciones, sea cual sea, el
pretendiente podría entrar, independientemente de la otra. Examinemos la primera condición. Compró
ingreso? Si o no? Se "si", la primera condición está cumplida y la decisión es "si", el pretendiente pude
entrar. Pero imaginemos que, "no", el no compró el ingreso. Examinemos entonces la segunda
condición. Es miembro del club? Si o no? Se "si", la segunda condición fue cumplida y "si", el puede
entrar mismo sin ingreso. En un caso como este, para que el dato de salida sea "si" basta que uno de
los datos de entrada sea "si". Esta condición es representada por la porta lógica OR (la conjunción
alternativa "o" en inglés).
En una computadora, todas las operaciones son hechas a partir de tomadas de decisiones que, por mas
complejas que sean, nada mas son que combinaciones de las tres operaciones lógicas correspondientes
a las condiciones arriba descritas: NOT, AND y OR. Para tomadas de decisiones más complejas, todo lo
necesario es combinar estas operaciones. Y para eso es necesario un conjunto de herramientas capaz
de manejar variables lógicas.
Ese conjunto de herramientas es la llamada "Álgebra Booleana"

 Algebra booleana.
La algebra booleana recebe el nombre su nombre en homenaje la matemático
ingle George Boole, que publico sus bases en 1845, en un trabajo titulado "An
Investigation of the Laws of Thought on Which to Found the Mathematical Theories
of Logic and Probabilities". El trabajo evidentemente, nada tiene q ver con las
computadoras digitales, ya que fue publicado casi un siglo antes de la invención
de las computadoras. Uno de los mucho ejemplos en que los matemáticos se
adelantan al tiempo y crean con décadas de avanzo las bases abstractas para una
tecnología de punta. Fue en 1938 que Claude Shanon, un pesquisidor de MIT, se 
dio cuenta que la lógica booleana era una herramienta ideal para analizar circuitos
eléctricos basados en relés, los antecesores de los computadores electrónicos
digitales con válvulas, que por vez originaron los modernos computadores que
emplean la electrónica en el estado sólido.
La algebra booleana casi igual a la algebra convencional que conocemos en el
curso secundario, el ramo de matemática que estudia las relaciones entre
grandezas examinando las leyes que regula las operaciones y procesos formales
independientes los valores de las grandezas, representadas por  letras o símbolos
abstractos. La particularidad de la algebra booleana es que  ella estudia relaciones
entre variables lógicas que pueden asumir apenas uno de los dos estados,
verdadero o falso, no admitiendo ningún valor intermedio.
De la misma forma que la algebra convencional, a la algebra booleana utiliza
operaciones que son ejecutadas con sus variables. La diferencia es que esas
operaciones solamente pueden interactuar sobre variables lógicas, por lo tanto
son operaciones lógicas.
Las razones por las cuales la algebra booleana sea una herramienta ideal para
analizar problemas de lógica digital tornaron evidentes así que se toman
conocimiento de sus operaciones.
De la misma forma que apenas  cuatro operaciones fundamentales en aritmética,
también hay tres operaciones en la algebra booleana. Estas operaciones son
AND, OR, y NOT.
La operaciones AND, cuyo operador es representado por ”.” puede ser aplicada a
dos o mas variables (que pueden asumir apenas los valores verdaderos o falsos).
La operación AND aplicada a las variables A e B es expresada por:
A AND B =A.B
La operación resulta verdadero se apenas los valores de ambas variables son
verdaderos.
Operaciones OR, cuyo operador es “+” y que también puede ser aplicada a las
dos variables (que pueden asumir apenas los valores verdaderos o falsos). Las
operaciones  OR pueden ser aplicadas a variables A e B expresadas por:
A OR B = A+B
La operación resulta verdadera si uno de los valores de las variables es
verdadero.
Operaciones NOT, cuyo operador puede ser una barra horizontal sobre la variable,
es aplicable a una sola variable.
NOT A
La operación NOT invierte el valor de la variable, resulta verdadero si la variable
asume un valor falso y viceversa.
De esas tres operaciones fundamentales  pueden ser derivadas más tres
operaciones adicionales, que son las NAND; NOR e XOR.
La operación NAND se obtiene  a partir  de la combinación de las operaciones
NOT y AND usando a relación:
ANANDB = NOT(A AND B)
La operación NAND resulta "falso" si apenas los valores de ambas las variables A e B asumieren el valor
"verdadero".
La operación NOR es obtenida a partir da la combinación de las operaciones NOT e OR usando a
relación:
A NOR B = NOT (A OR B);
La operación NOR resulta "verdadero" si apenas los valores de ambas las variables A e B asumieren el
valor "falso".
La operación, XOR o "OR exclusivo" es un caso particular da función OR. Ella es expresada por:
A XOR B
La operación XOR resulta "verdadero" si apenas una de las variables A o B asumir un valor "verdadero"
(una otra forma, tal vez más simples, de exprimir la misma idea es: la operación XOR resulta
"verdadero" cuando los valores de las variables A e B son diferentes entre sí e resulta "falso" cuando
son iguales).
Una forma más simples de analizar (y de entender) las operaciones da lógica booleana es a través de la
llamada "tabla de verdad". Una tabla verdad es nada más que una lista de todos los posibles resultados
de las  operaciones, obtenidas a través de todas las combinaciones posibles de los valores de los
operando. Como los operando solamente pueden asumir los valores "verdadero" e "falso", a
confección de una tabla de verdad es mui simple. Para ejemplificar, vamos ver  las tablas de verdad:

Semejantemente que en  la algebra convencional, también en la álgebra booleana es posible combinar
variables y operadores para generar complejas expresiones algebraicas que pueden ser evaluadas. El
valor de la expresión es obtenido dando valores a las variables e efectuando las operaciones  indicadas
(como en la álgebra convencional, en la álgebra booleana los paréntesis indican la orden de
precedencia de evaluación de los términos).
Por ejemplo, la expresión algebraica:
(A / B)+C
Vale 5 cuando A=9, B=3, e C=2.
Las expresiones de álgebra booleana pueden ser evaluadas de forma semejante. La diferencia básica es
que sus operaciones son las operaciones lógicas previamente definidas e los valores que serán
atribuidos (tanto à expresión cuanto a las variables) alternan solamente entre "verdadero" (o 1) y
"falso" (o 0).
Tomemos como ejemplo unas expresiones simples, como:
(A OR B) AND (NOT C)
Y vamos a determinar el valor de la expresión cuando a las variables valen:
A=0
B=1
C=1
Por lo tanto, efectuemos inicialmente la evaluación del primero término entre paréntesis. Trata-se de
una operaciones OR ejecutada entre dos variables cuyos valores son A = 0 e B = 1. Una revisión en la
tabla verdad de las operaciones lógicas indica que
0 OR 1 = 1
En seguida se ejecuta la operación NOT en la variable C, e todavía conforme la misma tabla:
NOT 1 = 0
Finalmente se ejecuta la operación AND involucrando los dos resultados parciles.
1 AND 0 = 0
Este es un valor de la expresión para estés valores de las variables.
Considerando que en la álgebra booleana las variables apenas pueden asumir los valores 1 e 0, dada
una expresión es relativamente simples construir una tabla listando los valores asumidos pela
expresión para todas las combinaciones de los valores de sus variables. Esta tabla se denomina tabla
verdad de la expresión. Para la expresión del ejemplo, la tabla de verdad seria:

Las reglas básicas de la algebra booleana son simples. Las operaciones son apenas seis (NOT, AND, OR,
NAND, NOR E XOR). Los valores posibles, tanto para las variables como para las expresiones, son
apenas dos (1 o 0). Las, expresiones obtenidas combinando operaciones que involucren un gran
número de variables pueden atingir un grado de complejidad notable. No obstante, de su avaluación es
siempre hecha descomponiéndose la expresión en operaciones elementares respetándose la orden de
precedencia indicada por los paréntesis, evaluando las operaciones elementares e combinando su
resultado. La evaluación puede ser costosa, pero no difícil.
Así como el álgebra convencional, el álgebra booleana también tiene sus postulados (que independen
la demostración) e sus identidades (que pueden ser derivadas de los anteriores). Los postulados
definen la forma pela cual las expresiones son interpretadas. Los principales postulados e entidades del
álgebra booleana pueden ser resumidos en cuadro abajo, teniendo  columnas para evidenciar la
naturaleza complementar las operaciones OR e AND.

REPRESENTACIÓN DE LAS INSTRUCCIONES.


Una instrucción es un conjunto de símbolos que la computadora es capaz de interpretar con objeto de
realizar las operaciones de las que consta un programa. Las instrucciones utilizadas por los
ordenadores pueden tener diferentes formatos.  Todas las instrucciones tienen una parte que las
diferencia, el código de operación que indica la operación a ejecutar.  Según el tipo de operación,
pueden contener uno o varios operandos.
Campos de una instrucción:
- Código de operación: este campo es necesario que esté presente en todas las instrucciones, este
campo, es el campo que diferencia una instrucción de otra.  Indica la operación a realizar. No hay dos
operaciones diferentes con el mismo código de operación.
El código de operación suele ocupar los bits más significativos de una instrucción (la parte de la izq.). Si
una instrucción ocupa más de una palabra, el código de operación estará en la primera palabra que lea
la CPU.
- Campo operandos: este campo no está presente en todas las instrucciones ya que algunas
instrucciones no emplean datos y otras en que la localización de los mismos está implícita en el propio
código de operación.
La longitud de este campo es normalmente variable,  dependiendo del número de operandos que
utilice la instrucción y de forma que se indique a la CPU el acceso a los mismos.
REPRESENTACIÓN DE LOS DATOS.
REPRESENTACIÓN ALFANUMÉRICA.
La representación de la información de tipo texto escrito se hace codificando, en un octeto, cada uno
de los caracteres que componen dicha información.
 Código Baudot: Data de finales del S. XIX. Lo desarrolló Jean-Maurice-Émile Baudot. Utilizaba 5 bits por
carácter y se usaba en telegrafía.
 Alfabeto Internacional Nº 2: 1901. Donald Murray añadió nuevos caracteres y códigos de
desplazamiento al anterior. Cada carácter 5 bits. Existen algunos caracteres de control. Inicialmente se
utilizó en los teletipos. (Teleimpresores o TTY).
Codificación FIELDATA: Proyecto de Estados Unidos a finales de los 50.
Pretendía crear un estándar para recoger y distribución en el campo de batalla.
Utiliza bloques de 6 dígitos para representar los caracteres. Sólo se pueden representar 2 exponentes 6
datos, es decir 64 caracteres.
Codificación EBCDIC (Extended Binary Coded Decimal  Interchange Code): Usado en mainframes de
IBM inicialmente. Utiliza 8 bits para cada carácter por lo que se pueden representar 256 caracteres.
Cada octeto se divide en 2 partes (bits de zona, bits de dígito).
Código ASCII (American Standard Code for Information Interchange). El más difundido hoy en día para
su uso en los ordenadores. Se publicó en 1963 por ASA (que posteriormente pasó a ser ANSI) Dispone
de 8 bits aunque sólo utiliza los 7 primeros para el uso de letras, números y caracteres especiales. 
Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden representar todos los números,
letras mayúsculas, minúsculas, caracteres especiales y de control. 
El resto de las combinaciones de la 128 a la 255 se usan para representar caracteres de tipo gráfico.
Los 32 primeros caracteres son de control.
UNICODE. Es un estándar internacional establecido por el Consorcio Unicote (formado por empresas
como Apple Computer, Microsoft, IBM, HP, …). Su objetivo es representar cualquier carácter jamás
escrito. Windows NT y sus sucesores lo usan. También sistemas operativos como Linux, Mac OS X y
lenguajes de programación como Java, Perl y C#.
- REPRESENTACIÓN NUMÉRICA.
Como se sabe, los números se pueden clasificar en:
- Naturales.
- Enteros.
- Racionales.
- Irracionales.
Cualquiera de estos conjuntos de números es infinito, mientras que el espacio material de 
representación de los computadores es finito, por lo tanto, no es posible representar todos los valores.
En informática, se asigna un número fijo de n bits  para representar un número. Teniendo en cuenta
que n bits permiten 2n  números distintos existirán dos valores.
Se llama rango de representación al intervalo comprendido entre el mayor y el menor número
representable. La  resolución de representación se refiere a la diferencia que existe entre un número
representable y el inmediato siguiente:
Los factores a tener en cuenta para representar números son:
- El tipo de los números a representar: enteros, reales …
- El rango de números representables.
- La posición de dato numérico: nº de números para un rango dado.
- El coste hardware requerido para almacenar y procesar los números a
representar.
Los sistemas de representación más empleados son los siguientes:
ENTEROS.
- Posicionales: un número se representa como una secuencia de dígitos, donde cada uno tiene un peso
de acuerdo con la posición que ocupa. 
Con este tipo de representación, el problema es que leer y escribir largas cadenas de 1’s o 0’s es
engorroso y una tarea que predispone a cometer errores. Como solución, se suele utilizar la base octal
(b=8) y la base hexadecimal (b=16).
 Dentro de los números enteros tendremos que distinguir entre los números positivos y los números
negativos:
Si sólo representamos números enteros positivo, con n bits representaremos desde el 0 a 2n
 -1.Para codificar los  números enteros negativos, hemos de tener en cuenta algunas consideraciones:
A) El  intervalo de números positivos debería de ser igual al intervalo de números negativos para un n
dado.
 B) Sea fácil detectar el signo por un simple test hardware.
 C) Sea fácil detectar el 0.
 D) El código resultante de la codificación ha de dar lugar a una implementación sencilla a la hora de
realizar las operaciones aritméticas básicas.
Para dar respuesta a estas consideraciones, aparecen tres sistemas de numeración posicionales que
permiten la represtación de números negativos.
o Signo y magnitud: consiste en reservar un bit para el signo. Con n bits disponibles, uno indica el signo
y los n-1 restantes indican la magnitud. Normalmente, el bit de la izquierda se reserva para el signo. El
bit de signo a 0 indica que el nº es positivo, mientras que si es 1, indica que el número es negativo.
Ventajas: cumple A) y B).
Inconvenientes: Representación dual del 0 y no verifica D), por que la suma no es tan evidente.
Esta representación ampliamente utilizada en los computadores de la tercera generación, en la
actualidad no se utiliza.
o Complemento a 1: se representa un número de n bits en complemento a uno de la siguiente forma:
Para un nº positivo, se representa el número en binario. (Sin reservar ningún bit para el signo como en
el caso anterior).
Para un nº negativo, se representa igual que un número positivo pero se complementa cada uno de los
bits. (se cambian 0’s por 1’s y 1’s por 0’s). 
Ventajas: cumple A) puesto que el número de positivos es igual que el número de negativos. Cumple B)
y D).
Inconvenientes: no cumple C) representación dual del 0.
o Complemento a 2: se representa un número de n bits en complemento a dos de la siguiente forma:
Para un nº positivo, se representa igual que un número positivo en             complemento a uno.
Para un nº negativo, se representa igual que un número negativo en complemento a uno pero se le
suma 1 al resultado obtenido.
Ventajas: 
Cumple A) puesto que el número de positivos es igual al de los negativos. 
Cumple B) porque es fácil detectar el signo. 
Cumple C) porque no tiene representación dual del 0 y 
Cumple D).
Inconvenientes: es más costoso de implementar ya que hay que realizar una suma adicional.
Se puede decir que es la representación más utilizada a la hora de representar números enteros
negativos.
No posicionales: los sistemas de numeración no posicionales se basan en el código BCD o Decimal
Codificado en Binario que consiste en que cada dígito decimal se codifica por 4 bits binarios (16 valores
posibles). Ello da lugar a muchos códigos posibles, los más importantes son:
o BCD Natural: la codificación de cada dígito es equivalente a la codificación binaria. Se puede decir que
cada dígito se expresa mediante un nibble (4 bits) se utilizan los pesos 8, 4, 2, 1, pero la posición del
nibble está pesada según potencias de 10.
o Exceso a 3: es otro código construido a partir del BCD natural al que se le suma 3 en cada dígito.
o Aiken: es un código BCD en el que los pesos dentro de cada nibble son 2, 4, 2, 1 en vez de 8, 4, 2, 1. Es
autocomplementario.
o Gray: no es un código BCD. Entre dos códigos consecutivos sólo hay un bit de diferencia.
o JOHNSON 5 bits: va aumentando el número de unos desde la derecha, y posteriormente disminuye
por la izquierda (no es ponderado).

REALES.
-  Punto Fijo: consiste en colocar un punto en algún lugar de la cadena de unos y ceros que va a
representar nuestro número real.
Una vez colocado el punto en una determinada posición, ya no se puede modificar ya que esa decisión
se toma durante el diseño de la máquina. 
A la derecha del punto las potencias de la base son negativas. 
-  Punto flotante: consiste en representar el número mediante una mantisa, una base y un exponente.
o Para el exponente se reservan q bits.
o Para la mantisa p bits.
- IEEE 754: es un formato estándar para los números flotantes de 32 y 64 bits:
32 bits (simple precisión).
El primer bit es el bit de signo (S),  [1] 0 para los positivos, 1 negativos.
Los 8 siguientes son los bits del exponente (E) [1] en exceso 127.
E = C – 127.  C = E+127
El resto (23) son la mantisa (M)  se expresa normalizada(0,xxxxx)
   
     S EEEEEEEE MMMMMMMMMMMMMMMMMMMMMMM
64 bits (doble precisión). 
Cambia sólo los bits reservados para cada campo. El primer bit es el bit de signo (S), 11 son los
bits del exponente (E) y 52 son la mantisa (M):
  S EEEEEEEEEEE
MMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMMM
MMM
  0 1        11 12                                                63
REPRESENTACIÓN DE IMÁGENES.
Las imágenes analógicas presentan  una variación continua de sombra y tonos. Para poder
representarlas es necesario realizar una conversión analógico / digital. Se hace a través de un muestreo
y una cuantificación.
- El Muestreo divide la imagen analógica en subdivisiones cuadradas cuyo valor depende de la escala
(color) y de la intensidad de la luz.
Si el valor es un vector de tres componentes (R,G,B) se obtiene una escala de color.
- La Cuantificación es la discretización de cada una de las muestras. A cada valor obtenido se le llama
píxel.
REPRESENTACIÓN DE SONIDOS.
El sonido es una onda analógica que presenta variaciones de amplitud a intervalos regulares de
tiempo. 
La amplitud determina su volumen, mientras que la frecuencia determina la escala. Al igual que con las
imágenes es necesario realizar una digitalización (conversión A/D). El número de bits de la
cuantificación influye en la calidad del sonido. El muestreo debe ser realizado a 22 KHz.
COMPRESIÓN DE DATOS.
En muchas aplicaciones se requiere la utilización de archivos de gran capacidad. Así ocurre con los
archivos de imágenes y sonido en aplicaciones multimedia. En estos casos el tiempo de transmisión de
una imagen por una red, o el volumen requerido para su almacenamiento en disco pueden llegar a ser
muy elevados. 
Este problema se presenta de forma notable en las aplicaciones multimedia, donde es
Frecuente utilizar combinadamente textos, sonidos, e imágenes tanto estáticas como dinámicas
(vídeo). 
Existe un conjunto de técnicas para reducir el tamaño de la información que ocupan estos archivos
multimedia, denominadas compresión de datos. El archivo antes de ser almacenado o transmitido se
comprime mediante un algoritmo de compresión, y cuando se recupera para procesarlo o visualizarlo
se aplica la técnica inversa para descomprimirlo.
Entre los algoritmos se distinguen aquellos que realizan: 
• Compresión sin pérdidas,  esto ocurre cuando la información original se comprime sin perder nada de
la información inicial de forma tal que se puede recuperar exactamente la información de partida, sin
pérdida de calidad. 
• Compresión con pérdidas,  para conseguir una mayor compresión, se toleran pérdidas de calidad, no
pudiéndose en la descompresión recuperar exactamente la información original. 
A continuación se describen los fundamentos de algunas técnicas de compresión: 
- Codificación por longitud de secuencias (o RLE, Run Length Encoged).  Recuérdese que la información
está representada internamente por ceros y unos. Una forma sencilla de comprimir los datos, en el
caso de que en el archivo se repitan largas secuencias de ceros y unos, es sustituir cada una de éstas
por el símbolo de la secuencia seguido por el número de veces que se repiten en ella. Este tipo de
compresión resulta útil en archivos en los que se repiten largas secuencias, por ejemplo, el fondo de en
una imagen de un espacio interior (la pared de una habitación es muy continuo y queda, por tanto,
representada por grandes secuencias de símbolos iguales. 
- Codificación relativa o incremental. Con frecuencia en imágenes y señales de sonido, los valores de
dos píxeles consecutivos o de dos muestras de voz consecutivas en el tiempo difieren en una cantidad
pequeña, en comparación con sus valores absolutos. Por ejemplo las, variaciones de color y de textura
dentro de los objetos de una imagen suelen ser muy  pequeñas, teniéndose sólo grandes variaciones
en los contornos de dichos objetos. En este caso se logra una reducción considerable de
almacenamiento si en lugar de almacenar los valores absolutos, se almacenan los incrementos
respecto al valor anterior. Esta técnica de compresión también se utiliza para imágenes en movimiento,
cuando la variación entre imágenes sucesivas es muy pequeña Este es el caso, por ejemplo, de
imágenes de videoconferencias una vez que se  transmite completamente la imagen primera,
sucesivamente solo se transmiten las diferencias con respecto a la imagen anterior.
- Codificación dependiente de la frecuencia. Consiste en representar cada símbolo con un código
binario cuya longitud sea inversamente proporcional a la frecuencia con la que aparecen; de esta
manera los símbolos que se repiten más en un archivo se representarán con menos bits que los
símbolos que aparecen con menos frecuencia.
- Codificación con diccionario adaptativo.  La idea básica consiste en realizar un diccionario con
secuencias de bits, y sustituir en el archivo a comprimir dichas secuencias por su índice (número de
orden) dentro del diccionario. El diccionario es adaptativo en el sentido de que según se va procesando
la información, para comprimirla se va creando el diccionario: dada una secuencia determinada,
primero se consulta si ya está en el diccionario; si es así, se sustituye por el índice correspondiente, si
no la nueva secuencia se incluye en el diccionario y se sustituye en el archivo por el nuevo índice. La
compresión se obtiene debido a que siempre ocuparan menos los índices que las secuencias que
representan. 
- Codificación Lempel-Ziv LZ77.  Es un caso particular de diccionario adaptativo donde se busca si los
siguientes caracteres a comprimir han aparecido previamente en una secuencia anterior, caso de ser
así esa cadena de caracteres se codifican con 3 números (m, n, s), donde m representa el lugar hacia
atrás donde se inicia la secuencia previa encontrada, n es la longitud de la secuencia y s es el siguiente
carácter de la cadena comprimida. Se observa que en este caso realmente no se crea un diccionario de
cadenas. Según aumenta el tamaño del archivo mayor probabilidad existe de encontrar secuencias
previas mas largas. En definitiva, la técnica consiste en encontrar la mayor secuencia previa que
concuerde con los siguientes símbolos a comprimir del resto del archivo. Los conocidos programas zip y
unzip para comprensión y decomprensión de datos utilizan procedimientos de este tipo.
ARITMETICA DE LA COMPUTADORA
El usuario se comunica con la computadora en sistema decimal, es decir, introduce en ella y
extrae de ella números en base decimal. Al recibir los datos, para poder trabajar con ellos, la
computadora los convierte al sistema binario, su lenguaje natural de operación. Todas las
operaciones se efectúan en binario y los resultados obtenidos, antes de ser entregados al
usuario, la máquina los convierte al sistema decimal. Claro está que la computadora realiza
estos procesos a enormes velocidades, de manera que el usuario ni se entera de lo que
sucede ahí dentro.

Sin embargo, al efectuar las conversiones y realizar los cálculos se suscitan pequeños errores
que, si no se prevén, pueden propagarse y arrojar resultados muy inexactos o totalmente
absurdos. Por eso es tan importante el entender la aritmética de las computadoras e
identificar las situaciones en que pueden ocurrir errores severos.

La operación interna de una computadora se basa en la aritmética binaria, en la que la base


es el 2 y sólo hay dos símbolos: 0 y 1, pues la memoria de la máquina consiste en un vasto
número de dispositivos de registro magnético y electrónico, cada uno de los cuales sólo puede
presentar uno de dos posibles estados: magnetizado en un sentido, representando al cero, o
magnetizado en el otro sentido, representando al uno. Cada dispositivo magnético es un
dígito binario, denominado bit (abreviatura de "binary digit").

Los bits se agrupan en unidades llamadas palabras, las cuales pueden contener 8, 16, 32 o
64 bits, dependiendo de la computadora de que se trate (los tamaños de palabra más usuales
son los de 16 o de 32 bits). También se utilizan otras unidades denominadas bytes,
constituidos generalmente por 8 bits, y utilizados como particiones de palabras, para
representar caracteres. Así, por ejemplo, una palabra de 32 bits consta de 4 bytes.

La manera en que se usan los bits para registrar los números enteros y los números
fraccionarios, varía en función del diseño de la computadora

También podría gustarte