Documentos de Académico
Documentos de Profesional
Documentos de Cultura
referencias
J. Glenn Brookshear, Introduccin a las ciencias de la computacin, Addison-Wesley Iberoamericana, 1995. (algunas de las figuras mostradas han sido obtenidas del sitio web de Pearson)
Hay 10 tipos de personas las que saben contar en binario y las que no
bit y byte
bit: binary digit - digito binario (0 1) byte: agrupacin de 8 bits
Codificacin binaria
binario 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 decimal 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 octal 0 1 2 3 4 5 6 7 10 11 12 13 14 15 16 17 20 patron de bit del octal 000 001 010 011 100 101 110 111 hexa 0 1 2 3 4 5 6 7 8 9 A B C D E F 10
Representacin de smbolos
ASCII: American Standard Code for Information Interchange EBCDIC: Extended BCD for Interchange Code (BCD: Binary Coded Decimal)
Tabla ascii
Extensin ascii
Decimal a binario
Suma binaria
Propiedades de la suma
0 +0 0 1 +0 1 0 +1 1 1 +1 10
ejemplo
00110101 +00010110 01001011
Desborde u overflow
Cantidad limitada de bits de cada patrn Ejemplo:
Patrn de 3 dgitos base 10 625 +465 ------1090 090 Patrn de 4 dgitos base 2 1010 +1101 ------10111 0111
Fracciones en binario
1 0 0 1 0 1 1 x un octavo = 1/8 0 x un cuarto = 0 1 x un medio = 1/2 0 x uno = 0 x dos = 0 0 1 x 2-3 0 x 2-2 1 x 2-1 0 x 20 0 x 21 1 x 22
i= n 1 i= m i a x 2 i
Almacenamiento de fracciones
Notacin de punto flotante
Fracciones ejemplo 1
00101011
0 => positivo
2 3/4
Fracciones ejemplo 2
11111100
Errores en el redondeo
Resultado 2
rangos
enteros largo short 2 bytes signo Sin signo Con signo long 4 bytes sin signo con signo menor 0 -32.768 0 -2.147.483.648 mayor 65.535 +32.767 4.294.967.295 +2.147.483.647
rangos
flotante
mantisa 4 bytes = 32 bits 24 bits 1 bit signo 1 bit signo 23 bits valor 7 bits valor exponente 8 bits
Rango, depende del exponente : 2-128 = 2.9385 10-39 y 2127 = 1.7014 1038
rangos
Double float mantisa exponente 8 byte = 64 bits 53 bits 11 bits 1 para el signo y 52 para el valor 1 para el signo y 10 para el valor
Errores en la comunicacin
bit de paridad
Paridad ajustada a impar
Errores en la comunicacin
Cdigos cclicos (1/3)
Errores en la comunicacin
Cdigos cclicos (2/3)
Errores en la comunicacin
Cdigos cclicos (3/3)
Teora de la informacin
INFORMACIN: "lo que produce la fuente para ser transferido al destinatario"
Slo puede ser recibida cuando hay DUDA. DUDA implica la existencia de ALTERNATIVAS. El conjunto de ALTERNATIVAS es un conjunto de SIGNOS que se denominan ALFABETO. El mismo ALFABETO "debe" estar tanto en la FUENTE como en el DESTINO.
Medida de la informacin
Un mensaje largo no tiene ms informacin por ser largo. Cuanto menor es la informacin contenida en un mensaje, ms rpido podemos transmitirlo. Cuanto ms probable es el mensaje, menor es la informacin que transmite. La medida de la informacin es una indicacin de la libertad de eleccin que tiene la fuente al seleccionar un mensaje. El concepto de informacin est relacionado con el concepto de prediccin: mayor libertad de eleccin de mensaje en la fuente => mayor incertidumbre en el receptor.
Conclusin:
Medida de la informacin
Sea el smbolo o mensaje: A La probabilidad de ser elegido para transmisin: La informacin mutua entregada por A: Intuitivamente:
PA
I A = f ( PA )
f ( PA ) 0
0 PA 1
para
PA 1
lim f ( PA ) = 0
f ( PA ) > f ( PB )
PA < PB
Informacin mutua
Si se recibe A y luego B, la informacin total recibida es:
I A + IB
PC = PA * PB
=>
I C = f ( PA * PB )
=>
I C = I A + I B = f ( PA ) + f ( PB )
f ( PA ) + f ( PB ) = f ( PA * PB )
f ( x) = log b ( x)
Se define:
1 I A = log b ( ) PA
Informacin mutua de A
Unidades
Si la base del logaritmo es: 2 la medida es bit e la medida es nat 10 la medida es Hartley Ejemplo:
1 I A = log 2 ( ) [ bits ] PA
Si:
PA = PB = 1/ 2
I j = log
1 [ bits ] Pj
N * Pj
veces
j =1
Definicin:
L = pi * li [ binits / simbolo ]
i =1
H ( p) L H ( p) + 1 H ( p) = L
_
Verificar si el cdigo obtenido es ptimo usando el teorema de codificacin de fuentes Asignar los cdigos en forma invertida y verificar.