Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Indice:
1. Introducción
2. Los sistemas de numeración
2.1. Sistemas de numeración posicionales
2.2. Sistema Binario
2.3. Sistema Octal
2.4. Sistema Hexadecimal
3. Operaciones sobre números binarios
3.1. Suma
3.2. Resta
3.3. Producto
3.4. División
4. Representación de enteros.
4.1. BCD
4.2. Signo y magnitud
4.3. Complemento a 1 y a 2
4.4. Exceso Z
5. Representación de Reales.
6. Representación de Alfanuméricos
6.1. ASCII
6.2. EBCDIC
7. Redundancia en las codificaciones.
7.1. Detección de errores de transmisión
8. Comunicación de la información.
9. Compresión de la información
10. Conclusión
1 Introducción.
Los sistemas informáticos manejan información. Ya sea como entrada, como proceso o
como salida. Hay dos tipos de sistema en función del tratamiento que hagan de la
información: Los sistemas de flujo de información en los que la información de entrada
y salida es la misma y los sistemas de tratamiento de la información, donde la
información es tratada y ofrecen una información de salida distinta a la de entrada.
2. Sistemas de numeración.
En contraposición, sistema no posicional más famoso son los números romanos, donde
los símbolos tienen el mismo valor independientemente de donde estén posicionados.
El sistema binario es el que utilizan los ordenadores desde sus comienzos. La razón de
usarlo es porque los ordenadores utilizaban interruptores que podían estar encendidos 1
o apagados 0. Con esos dos símbolos se representa toda la información que pueden
almacenar y procesar los ordenadores.
Sistema binario significa que está en base 2, es decir, que utiliza los símbolos 0 y 1 para
representar los números.
Al ser un sistema posicional, el valor de un un símbolo depende de su posición. Por lo
que para pasar de binario a decimal hay que multiplicar el dígito por 2 elevado a su
posición. Por ejemplo el número 1101 es igual a 1*2^3 + 1*2^2 + 0*2^1 + 1*2^1 = 13
Para pasar de Decimal a Binario (o a cualquier base) hay que dividir el número entre 2 y
el resultado otra vez entre dos hasta que el resultado sea menor que 2 y quedarse con el
resultado y los restos de derecha a izquierda.
Por ejemplo el número 13 en base 10 los dividimos entre 2 y tenemos de resto 1 y de
cociente 6 que dividido entre dos da de resto 0 y de cociente 3 que dividido entre dos da
de resto 1 y de cociente 1 por lo que el número resultante en base 2 es 1101
Si hay decimales, para pasar de binario a decimal hay que multiplicar el símbolo por 2
elevado a su posición negativa y sumarlo. Y para pasar de decimal a binario hay que
separar los enteros de los fraccionarios; los enteros se hacen como siempre y los
fraccionarios se multiplican sucesivamente por 2 y cogiendo la parte entera:
Cada una de la cifras del sistema binario cuando hablamos en términos informáticos se
conoce como Bit, los grupos de 8 bits se llaman Bytes. Los múltiplos de bytes se
denominan con los prefijos: kilo, mega. Giga, tera… Al ser en binario, en vez de por
mil se multiplica por 1024.
El sistema octal es un sistema en base 8, por lo que los símbolos que usa son:
0,1,2,3,4,5,6,7
Mientras que el método para pasar del sistema octal al decimal es el mismo que el
binario, el método para pasar a binario es bastante más sencillo.
Puesto que 8 es potencia de 2, para pasar de octal a binario tan sólo hay que sustituir
cada cifra por su equivalente en binario con 3 dígitos.
Por ejemplo:
En caso de que tenga decimales se usar el mismo sistema sin problemas, pero los ceros
se añaden a la derecha en caso de que falten.
Puesto que las computadoras trabajan con binario es necesario mencionar las
operaciones que se pueden hacer sobre números binarios, las lógicas y las aritméticas.
Existen 4 operaciones lógicas que se pueden realizar con números binarios: AND, OR,
NOT, XOR. Estas operaciones se realizan bit a bit.
La operación AND tiene resultado 1 sólo si los dos operandos tienen como valor 1
La operación OR tiene resultado 0 sólo si los dos operandos tienen como valor 0
La operación XOR tiene resultado 1 si los dos operandos son distintintos uno del otro.
La operación NOT invierte el bit, si vale 1 es 0 y si vale 0 es 1
Para sumar en binario es igual que en decimal, si los sumandos dan más que 1
“llevamos”, esto se llama arrastre o carry.
1110101
- 11001
-----------
1011100
La división se realiza de la misma manera que en decimal, hay que decir que las restas
en la división se hacen en binario.
4. Representación de enteros
4.1 BCD
Sirve para codificar números decimales en binario (Binary Coded Decimal) Se utilizan
cuatro bits para cada cifra en decimal del número.
Por ejemplo:
1982 =
Para representar enteros es necesario usar un bit para el signo. La forma más simple es
usar el sistema de signo y magnitud en el que el bit más significativo es el signo. El
inconveniente de este sistema es que tiene dos representaciones para el 0 y es difícil
hacer sumas y restas.
4.2. Complemento a 1 y a 2
El complemento a 1 se puede definir como la reversión de todos los bits o como aplicar
NOT a todos los bits. Se puede calcular como 2^n – x -1
El complemento a 2 es 2^n – x o complemento a 1 + 1
La utilidad del Ca2 es para representar enteros, ya que se puede usar el número en
binario normal y su equivalente negativo como su Ca2. Esta operación simplifica la
representación de números enteros negativos y las operaciones con los mismos.
Al hacer el Ca2 a un entero positivo, el bit más significativo pasa a valer 1, por lo que el
primer bit de un número entero representado mediante Ca2 es el que indica el signo.
4.3. Exceso Z
Es una forma de representar sin signo números enteros. Se obtiene sumando al número
en cuestión Z y no usando el bit de signo. Las operaciones son más complicadas. Z
puede ser 2^n-1 -1 para que el rango sea simétrico (que tenga los mismos números
negativos que positivos)
5. Representación de Reales
Para representar reales se usa el sistema de coma flotante. Este sistema permite
representar números con decimales y números muy grandes y muy pequeños. Las
operaciones con números en coma flotante son más complejas y para ellas existen
circuitos específicos llamados coprocesadores matemáticos.
Un número R se representa de la siguiente manera:
R = M x B^E
Donde:
M es la mantisa, tiene signo y suele ser un número fraccionario
B es la base del exponente que suele ser 2
E es el exponente.
En los computadores de 32 bits para el signo se usa 1 bit, para el exponente 8 para el
exponente y 23 para la mantisa.
En los de 64 bits se usa 1 para el signo, 11 para el exponente y 52 para la mantisa.
Puesto que el primer bit de la mantisa siempre sería 1, este se puede obviar usando la
técnia del bit implícito.
El exponente está en exceso 127 para 32 bits y 1023 para 64 bits.
6. Representación de Alfanuméricos.
Los códigos alfanuméricos sirven para almacenar caracteres en formato binario. Tienen
las siguientes características:
- Un conjunto de caracteres que suelen ser la cifras decimales, las letras del
alfabeto en mayúsculas y minúsculas; los signos de puntuación, caracteres
especiales y caracteres de control.
- Una longitud del código binario que es el número de bits usados para codificar
un carácter
- Un máximo de caracteres determinado por el código binario.
La longitud del código binario ha ido aumentando. En principio eran 6 bits, lo que
limitaba el conjuto de caracteres a 64. Más tarde se usaron 7 bits en códigos como el
ASCII (American Estándar Code for Information Interchange) en la actualidad se usan
códigos de 8 bits como el ASCII extendido que puede representar 256 caracteres.
Existen tablas distintas de caracteres según el idioma que se use. Pero si es necesario
usar varios idiomas se deben usar códigos de dos bytes como el estandar UNICODE
que permite 65536 símbolos distintos.
La codificación BCD, por ejemplo, es redundante. Esto quiere decir que se utilizan más
bits de los estrictamente necesarios para representar la información.
BCD usa 4 bits para representar 10 dígitos distintos, cuando con 4 se pueden representar
16 dígitos distintos.
Para calcular la redundancia dividimos lo que se puede representar entre las
posibilidades totales: 10/16 = 0,625, es decir, un 37,5% de redundancia.
Podemos pensar que un código redundante es ineficiente, pero puede que no sea
exactamente así, ya que si bien se usan más bits para representar lo mismo, esta
redundancia permite una mejor organización de la información y una mejor detección
de errores de transmisión.
Para comprobar la corrección de una transmisión podemos usar lo que llamamos bit de
paridad.
El codificador de la fuente recibe los mensajes del emisor y los codifica según las
necesidades del receptor. Estos mensajes pueden ser comprimidos para optimizar la
transmisión. Para evitar errores de transmisión, el codificador del canal vuelve a
codificar la información adaptándola al canal de forma que se puedan detectar y corregir
posibles errores. La recepción es el proceso inverso.
9. Compresión
Para que la transmisión de datos sea más rápida se pueden usar métodos de compresión
que reducen el número de bits necesarios para representar una información.
Hay dos tipos de compresión, la Lossless (sin pérdida de información) y la Lossly (con
pérdidas a menudo inperceptibles).
Dentro de la compresión lossles encontramos los compresores estadísticos que son los
que se basan en la probabilidad de aparición de un mensaje. Necesitan conocer con
anterioridad la frecuencia de aparición. Otros compresores lossles son los basados en
diccionarios o sustitucionales que se basan en la construcción de un diccionario con los
mensajes enviados hasta el momento. Si el siguiente está en el diccionario, la
información será mucho menor.
La compresión lossly es aquella que pierde información. Se usa en imágenes, sonidos y
vídeos. Puesto que suele ser necesario comprimir solamente una vez, el algoritmo de
compresión puede ser más lento que el de descompresión. Se basan en la redundancia
que suele haber por ejemplo en una imagen entre los píxeles próximos. Los
compresores obvian las pequeñas diferencias entre ellos. En el caso del sonido se
eliminan frecuencias imperceptibles al oído humano. O en el caso del vídeo no guardan
de cada fotograma toda su información, sino lo que cambia con respecto al anterior.
Conclusión:
La información es un conjunto de datos. Cada uno de esos datos pueden ser palabras o
números. Para poder tratar con los datos en un ordenador, estos deben ser codificados en
un sistema que este entienda.
Para que la comunicación con el ordenador sea en lenguaje natural, es necesario que
haya un sistema de codificación que transformará los datos introducidos con un alfabeto
de entrada en información codificada.
Los sistemas usados por los computadores son sistemas binarios como hemos visto. Así,
para representar números podemos usar el sistema BCD natural, para enteros se puede
usar el signo magnitud, Ca2 o exceso a 2^n-1 -1 y para los reales el sistema de coma
flotante. Para representar caracteres alfanuméricos se pueden codificar con algún
sistema como el ASCII extendido.
Para que la información pueda ser transmitida se ha de tener en cuenta los posibles
errores de transmisión y aplicar métodos que permitan detectarlos y corregirlos.
Además, es necesario codificar la información para adaptarla al canal de transmisión.
Por último, hemos comentado los diferentes tipos de compresión que existen que nos
permitirán enviar la información de una forma más rápida y eficiente.
Bibliografía: