Está en la página 1de 9

Tema 1

Representación y comunicación de la información

Indice:

1. Introducción
2. Los sistemas de numeración
2.1. Sistemas de numeración posicionales
2.2. Sistema Binario
2.3. Sistema Octal
2.4. Sistema Hexadecimal
3. Operaciones sobre números binarios
3.1. Suma
3.2. Resta
3.3. Producto
3.4. División
4. Representación de enteros.
4.1. BCD
4.2. Signo y magnitud
4.3. Complemento a 1 y a 2
4.4. Exceso Z
5. Representación de Reales.
6. Representación de Alfanuméricos
6.1. ASCII
6.2. EBCDIC
7. Redundancia en las codificaciones.
7.1. Detección de errores de transmisión
8. Comunicación de la información.
9. Compresión de la información
10. Conclusión

1 Introducción.

Los sistemas informáticos manejan información. Ya sea como entrada, como proceso o
como salida. Hay dos tipos de sistema en función del tratamiento que hagan de la
información: Los sistemas de flujo de información en los que la información de entrada
y salida es la misma y los sistemas de tratamiento de la información, donde la
información es tratada y ofrecen una información de salida distinta a la de entrada.

La información en un sistema informático debe estar representada por unos símbolos


que el sistema pueda almacenar o procesar. La información está compuesta de datos,
estos datos pueden clasificarse como:
• Datos Numéricos.
• Datos Alfabéticos.
• Datos alfanuméricos.
Para que pueda ser almacenada o procesada la información, es necesaria una
correspondencia entre los símbolos y los que utiliza el ordenador. Esto se llama
codificación y lo contrario decodificación. Para los caracteres alfanuméricos podemos
usar codificaciones como el ASCII o el EDBCDIC y para los números, codificaciones
basadas en el sistema de numeración binario.

2. Sistemas de numeración.

Los sistemas de numeración son la forma de representar un número. Estos sistemas


permiten identificar de forma única un número y realizar operaciones. El sistema de
numeración más usado es el Decimal.

2.1 Los sistemas posicionales


El sistema decimal es un sistema posicional. Un sistema posicional es aquel en el que el
valor de un símbolo depende de la base y de la posición en la que está. En el sistema
decimal la base es 10 y el valor de un símbolo es igual a ese número por 10 elevado a la
posición del mismo.
Así, el número 23 es igual a 2*10^1 + 3*10^0
Según la posición, los símbolos tienen un orden: Se llama orden 1 a los que están en la
posición 0 y se llaman unidades; orden 2 los que están en la posición 1 y se llaman
decenas, orden 3 los de la posición 3 y se llaman centenas y así sucesivamente.
Cuando un número tiene cifras decimales estas tienen la posición -1 para las décimas, -2
para las centésimas etc…

Los sistemas posicionales tienen estas propiedades:


- Si multiplicamos un número n por su base elevada un exponente sólo hay que
añadir tantos ceros a la derecha como indique el exponente.
- Si un número N en base b tiene p cifras, el número está comprendido entre b^p y
b^(p-1)
Los sistemas posicionales más usados son: Decimal (base 10), Binario (base 2), Octal
(base 8) y Hexadecimal (base 16).

En contraposición, sistema no posicional más famoso son los números romanos, donde
los símbolos tienen el mismo valor independientemente de donde estén posicionados.

2.2 El sistema Binario:

El sistema binario es el que utilizan los ordenadores desde sus comienzos. La razón de
usarlo es porque los ordenadores utilizaban interruptores que podían estar encendidos 1
o apagados 0. Con esos dos símbolos se representa toda la información que pueden
almacenar y procesar los ordenadores.
Sistema binario significa que está en base 2, es decir, que utiliza los símbolos 0 y 1 para
representar los números.
Al ser un sistema posicional, el valor de un un símbolo depende de su posición. Por lo
que para pasar de binario a decimal hay que multiplicar el dígito por 2 elevado a su
posición. Por ejemplo el número 1101 es igual a 1*2^3 + 1*2^2 + 0*2^1 + 1*2^1 = 13
Para pasar de Decimal a Binario (o a cualquier base) hay que dividir el número entre 2 y
el resultado otra vez entre dos hasta que el resultado sea menor que 2 y quedarse con el
resultado y los restos de derecha a izquierda.
Por ejemplo el número 13 en base 10 los dividimos entre 2 y tenemos de resto 1 y de
cociente 6 que dividido entre dos da de resto 0 y de cociente 3 que dividido entre dos da
de resto 1 y de cociente 1 por lo que el número resultante en base 2 es 1101

Si hay decimales, para pasar de binario a decimal hay que multiplicar el símbolo por 2
elevado a su posición negativa y sumarlo. Y para pasar de decimal a binario hay que
separar los enteros de los fraccionarios; los enteros se hacen como siempre y los
fraccionarios se multiplican sucesivamente por 2 y cogiendo la parte entera:

0,35 * 2 = 0,70 ----------------- 0


0,70 * 2 = 1,40 ----------------- 1
0,40 * 2 = 0,80 ----------------- 0
0,80 * 2 = 1,60 ----------------- 1
0,60 * 2 = 1,20 ----------------- 1

Así que 0.35 = 0,01011


Como vemos, un número decimal con cifras decimales finitas puede convertirse en un
número binario con decimales infinitos. Esto puede producir algunos problemas con los
redondeos en cálculos hechos con ordenador.

Esta forma de pasar de decimal a binario y de binario a decimal es extrapolable a todas


las bases. Normalmente para pasar de una base distinta a 10 a otra distinta a 10 es
necesario pasarla a base 10 y luego a la otra base. Pero más adelante veremos que
existen métodos más sencillos para determinadas bases.

Cada una de la cifras del sistema binario cuando hablamos en términos informáticos se
conoce como Bit, los grupos de 8 bits se llaman Bytes. Los múltiplos de bytes se
denominan con los prefijos: kilo, mega. Giga, tera… Al ser en binario, en vez de por
mil se multiplica por 1024.

Dependiendo de la cantidad de Bits que usemos se puede representar un rango de


números naturales, igual a (2^n)-1. Es posible que al intentar representarlo necesitemos
más bits de los disponibles, a eso se le llama desbordamiento.

2.3 El sistema Octal

El sistema octal es un sistema en base 8, por lo que los símbolos que usa son:
0,1,2,3,4,5,6,7
Mientras que el método para pasar del sistema octal al decimal es el mismo que el
binario, el método para pasar a binario es bastante más sencillo.
Puesto que 8 es potencia de 2, para pasar de octal a binario tan sólo hay que sustituir
cada cifra por su equivalente en binario con 3 dígitos.
Por ejemplo:

234 base 8 es igual a 010 011 100 = 10011100 en binario


Para pasar de binario a octal sólo hay que agrupar en grupos de 3 cifras el número en
binario empezando por la derecha y sustituirlo por su valor en octal:

1100110101101 ->001 100 110 101 101 = 14655 en octal

Si faltan cifras se sustituyen por ceros a la izquierda.

En caso de que tenga decimales se usar el mismo sistema sin problemas, pero los ceros
se añaden a la derecha en caso de que falten.

2.4 El sistema Hexadecimal

El sistema Hexadecimal es en base 16, los símbolos que usa son:


0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F
El hexadecimal es un sistema muy usado para representar número binarios sin tener que
escribir tantos números. Y puesto que es potencia de 2 como el octal, el paso de
Hexadecimal a Binario es igual de sencillo. En este caso los grupos son de 4 cifras.

3. Operaciones sobre números binarios

Puesto que las computadoras trabajan con binario es necesario mencionar las
operaciones que se pueden hacer sobre números binarios, las lógicas y las aritméticas.
Existen 4 operaciones lógicas que se pueden realizar con números binarios: AND, OR,
NOT, XOR. Estas operaciones se realizan bit a bit.

La operación AND tiene resultado 1 sólo si los dos operandos tienen como valor 1
La operación OR tiene resultado 0 sólo si los dos operandos tienen como valor 0
La operación XOR tiene resultado 1 si los dos operandos son distintintos uno del otro.
La operación NOT invierte el bit, si vale 1 es 0 y si vale 0 es 1

Para sumar en binario es igual que en decimal, si los sumandos dan más que 1
“llevamos”, esto se llama arrastre o carry.

Para restar es igual que en el sistema decimal, en el caso de 0 -1 lo que hacemos es


tomar una unidad prestada de la posición siguiente que será devuelta sumada.
Por ejemplo:

1110101
- 11001
-----------
1011100

El producto es muy sencillo en binario porque el 0 multiplicado por cualquiera es 0 y el


1 es el neutro de la multiplicación.
El método es el mismo que en decimal.

La división se realiza de la misma manera que en decimal, hay que decir que las restas
en la división se hacen en binario.
4. Representación de enteros

4.1 BCD

Sirve para codificar números decimales en binario (Binary Coded Decimal) Se utilizan
cuatro bits para cada cifra en decimal del número.

Por ejemplo:
1982 =

0001 1001 1000 0010

Hay varios tipos de BCD:


Natural: En el que cada cifra corresponde con su código en binario.
Aiken: En el que cada cifra es el complemento a 9 de su simétrica. Esto hace que las
operaciones de resta y división se puadan hacer con mayor facilidad.
Exceso a 3: Se obtiene sumando 3 a la cifra en binario también es complemento a 9 de
su simétrico.

4.1. Signo y magnitud

Para representar enteros es necesario usar un bit para el signo. La forma más simple es
usar el sistema de signo y magnitud en el que el bit más significativo es el signo. El
inconveniente de este sistema es que tiene dos representaciones para el 0 y es difícil
hacer sumas y restas.

4.2. Complemento a 1 y a 2
El complemento a 1 se puede definir como la reversión de todos los bits o como aplicar
NOT a todos los bits. Se puede calcular como 2^n – x -1
El complemento a 2 es 2^n – x o complemento a 1 + 1
La utilidad del Ca2 es para representar enteros, ya que se puede usar el número en
binario normal y su equivalente negativo como su Ca2. Esta operación simplifica la
representación de números enteros negativos y las operaciones con los mismos.
Al hacer el Ca2 a un entero positivo, el bit más significativo pasa a valer 1, por lo que el
primer bit de un número entero representado mediante Ca2 es el que indica el signo.

4.3. Exceso Z
Es una forma de representar sin signo números enteros. Se obtiene sumando al número
en cuestión Z y no usando el bit de signo. Las operaciones son más complicadas. Z
puede ser 2^n-1 -1 para que el rango sea simétrico (que tenga los mismos números
negativos que positivos)

5. Representación de Reales

Para representar reales se usa el sistema de coma flotante. Este sistema permite
representar números con decimales y números muy grandes y muy pequeños. Las
operaciones con números en coma flotante son más complejas y para ellas existen
circuitos específicos llamados coprocesadores matemáticos.
Un número R se representa de la siguiente manera:
R = M x B^E
Donde:
M es la mantisa, tiene signo y suele ser un número fraccionario
B es la base del exponente que suele ser 2
E es el exponente.

El sistema es igual a la notación científica normalizada en el que la mantisa no tiene


parte entera y la primera cifra después de la coma es distinta de 0.
En la memoria del ordenador este es el orden de los campos:

signo exponente mantisa

En los computadores de 32 bits para el signo se usa 1 bit, para el exponente 8 para el
exponente y 23 para la mantisa.
En los de 64 bits se usa 1 para el signo, 11 para el exponente y 52 para la mantisa.
Puesto que el primer bit de la mantisa siempre sería 1, este se puede obviar usando la
técnia del bit implícito.
El exponente está en exceso 127 para 32 bits y 1023 para 64 bits.

Existe desbordamiento si:


El número en valor absoluto es tan grande que no puede ser representado. Overflow
El número en valor absoluto está tan cerca del cero que que no se puede representar.
Underflow.

6. Representación de Alfanuméricos.

Los códigos alfanuméricos sirven para almacenar caracteres en formato binario. Tienen
las siguientes características:
- Un conjunto de caracteres que suelen ser la cifras decimales, las letras del
alfabeto en mayúsculas y minúsculas; los signos de puntuación, caracteres
especiales y caracteres de control.
- Una longitud del código binario que es el número de bits usados para codificar
un carácter
- Un máximo de caracteres determinado por el código binario.

La longitud del código binario ha ido aumentando. En principio eran 6 bits, lo que
limitaba el conjuto de caracteres a 64. Más tarde se usaron 7 bits en códigos como el
ASCII (American Estándar Code for Information Interchange) en la actualidad se usan
códigos de 8 bits como el ASCII extendido que puede representar 256 caracteres.
Existen tablas distintas de caracteres según el idioma que se use. Pero si es necesario
usar varios idiomas se deben usar códigos de dos bytes como el estandar UNICODE
que permite 65536 símbolos distintos.

6.1 Código ASCII


El código ASCII es uno de los más comúnmente usados. Utiliza 7 bits para representar
la información, aunque suele usar un octavo como bit de paridad.
Los siete bits están repartidos en 3 de zona y 4 de posición.
6.2 Código EBCDIC
Utiliza 8 bits, los 4 primeros se llaman de zona y los 4 segundos de posición. Los dos
primeros bits pueden tener estos valores:
11 para mayúsculas y números
10 para minusculas
01 para caracteres especiales
00 para información de control.
Los dos siguientes:
00 de A a I
01 de J a R
10 S a Z
11 para los números

7. Redundancia en las codificaciones

La codificación BCD, por ejemplo, es redundante. Esto quiere decir que se utilizan más
bits de los estrictamente necesarios para representar la información.
BCD usa 4 bits para representar 10 dígitos distintos, cuando con 4 se pueden representar
16 dígitos distintos.
Para calcular la redundancia dividimos lo que se puede representar entre las
posibilidades totales: 10/16 = 0,625, es decir, un 37,5% de redundancia.
Podemos pensar que un código redundante es ineficiente, pero puede que no sea
exactamente así, ya que si bien se usan más bits para representar lo mismo, esta
redundancia permite una mejor organización de la información y una mejor detección
de errores de transmisión.
Para comprobar la corrección de una transmisión podemos usar lo que llamamos bit de
paridad.

7.1 Bit de paridad

Esta técnica añade un bit al principio de la transmisión


que valdrá 1 o 0 dependiendo de si la cantidad de unos
es par o impar. Añadir este bit convierte el código en
redundante, ya que no se usa para transmitir
información, sino para comprobar que esta información
sea correcta.
El bit de paridad indica si una transmisión tiene fallos,
pero no donde, ya que cualquier bit de los que la
compongan podría ser el incorrecto. Una forma de
solucionarlo es enviar, aparte del bit de paridad, un
Byte de paridad cada ocho bytes que se envien, llamado
byte de paridad vertical. De esta forma, aquel byte que
tenga la fila y la columna incorrectas tendrá que ser
invertido.

(Aquí faltan los códigos polinomiales o de redundacia cíclica, huffman y Hamming)


8. Comunicación de la información

La comunicación es el intercambio de información. Para ello es necesario un emisor, un


canal y un receptor. Aparte es necesario que la información se codifique según lo que
llamamos un protocolo de comunicación.

La comunicación entre computadoras se puede clasificar según el canal en dos grandes


grupos: por línea o cable y por radio.
Según la direccionalidad en simplex (un solo sentido), semi-duplex (en los dos pero no
simultáneamente) o full-duplex en los dos sentidos de manera simultanea.
Según la sincronización en Asincrona (emisor y receptor se sincronizan para recibir un
caracter, para ello es necesario enviar un bit de arranque y otro de parada con el fin de
sincronizar) o Síncrona (están sincronizados, para ello es necesario mantener la
sincronización con otro canal o alguna codificación autosincronizada de forma que
incluyera alguna señal de temporización )
Según la naturaleza de la señal en analógico (valores continuos en el tiempo) o digital
(valores discretos, como el código binario)

Para la comunicación digital son necesarios estos elementos:

El codificador de la fuente recibe los mensajes del emisor y los codifica según las
necesidades del receptor. Estos mensajes pueden ser comprimidos para optimizar la
transmisión. Para evitar errores de transmisión, el codificador del canal vuelve a
codificar la información adaptándola al canal de forma que se puedan detectar y corregir
posibles errores. La recepción es el proceso inverso.

9. Compresión

Para que la transmisión de datos sea más rápida se pueden usar métodos de compresión
que reducen el número de bits necesarios para representar una información.
Hay dos tipos de compresión, la Lossless (sin pérdida de información) y la Lossly (con
pérdidas a menudo inperceptibles).
Dentro de la compresión lossles encontramos los compresores estadísticos que son los
que se basan en la probabilidad de aparición de un mensaje. Necesitan conocer con
anterioridad la frecuencia de aparición. Otros compresores lossles son los basados en
diccionarios o sustitucionales que se basan en la construcción de un diccionario con los
mensajes enviados hasta el momento. Si el siguiente está en el diccionario, la
información será mucho menor.
La compresión lossly es aquella que pierde información. Se usa en imágenes, sonidos y
vídeos. Puesto que suele ser necesario comprimir solamente una vez, el algoritmo de
compresión puede ser más lento que el de descompresión. Se basan en la redundancia
que suele haber por ejemplo en una imagen entre los píxeles próximos. Los
compresores obvian las pequeñas diferencias entre ellos. En el caso del sonido se
eliminan frecuencias imperceptibles al oído humano. O en el caso del vídeo no guardan
de cada fotograma toda su información, sino lo que cambia con respecto al anterior.

Conclusión:

La información es un conjunto de datos. Cada uno de esos datos pueden ser palabras o
números. Para poder tratar con los datos en un ordenador, estos deben ser codificados en
un sistema que este entienda.
Para que la comunicación con el ordenador sea en lenguaje natural, es necesario que
haya un sistema de codificación que transformará los datos introducidos con un alfabeto
de entrada en información codificada.
Los sistemas usados por los computadores son sistemas binarios como hemos visto. Así,
para representar números podemos usar el sistema BCD natural, para enteros se puede
usar el signo magnitud, Ca2 o exceso a 2^n-1 -1 y para los reales el sistema de coma
flotante. Para representar caracteres alfanuméricos se pueden codificar con algún
sistema como el ASCII extendido.
Para que la información pueda ser transmitida se ha de tener en cuenta los posibles
errores de transmisión y aplicar métodos que permitan detectarlos y corregirlos.
Además, es necesario codificar la información para adaptarla al canal de transmisión.
Por último, hemos comentado los diferentes tipos de compresión que existen que nos
permitirán enviar la información de una forma más rápida y eficiente.

Bibliografía:

Apuntes de “Fundamentos de Computadores” de la Universidad Politécnica de Valencia


www.wikipedia.org

También podría gustarte