Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teoría de la información
Temas a cubrir
➢Teoría de la Información Básica:
▪ Entropía, entropía efectiva, y entropía condicional
▪ Codificación de fuente
o Codificación y decodificación
▪ Canal discreto sin memoria
o Canal binario
o Capacidad del canal
Teoría de la Información
Determina:
➢Cuál es la mejor tasa de compresión.
▪ El número mínimo de bits para representar información.
o La ENTROPÍA de la fuente
➢Cuál es la mejor tasa de transmisión (velocidad).
▪ La cantidad máxima de información que se puede transmitir en un canal de
manera confiable a través de un enlace de comunicación.
o CAPACIDAD DEL CANAL
➢La Entropía y la Capacidad del Canal están relacionadas.
▪ Si la entropía es menor a la capacidad del canal entonces se podrá realizar
una comunicación sin errores.
Predictibilidad e información
➢El contenido de información de un mensaje está
relacionado con la predictibilidad del mensaje.
▪Lo más predecible (probable) que es un mensaje, la
menor cantidad de información que suministrará.
➢Es decir, si la probabilidad de un mensaje es alta
entonces no lleva mucha información. Pero si es
baja, entonces lleva bastante información.
Contenido de información
➢El contenido de información Im se define como:
o Es decir, la probabilidad de que el símbolo i fue transmitido dado que j fue recibido.
o Para el caso de un canal sin ruido es claro que
▪ Asumiendo siempre que los símbolos son independientes e igualmente probables, n estaría dado por:
➢Determine:
i) La entropía de la fuente.
ii) La longitud promedio de una pasada (en pixeles).
iii) La tasa efectiva de información correspondiente para esta fuente cuando el escáner trabaja
a 1000 pixeles por segundo.
Solución
i) La entropía de la fuente se encuentra usando la ecuación de entropía para K=6.
ii) Para encontrar la longitud promedio, usamos el número consecutivos de símbolos que serían lk
iii) A una tasa de 1000 pixeles por pasada, encontramos que la tasa de símbolo, Rs, es =1000/2.69=372
símbolos. Entonces, usando la ecuación para tasa de información de la fuente, Ri, tenemos:
Códigos de Longitud Fija
➢La manera más simple de codificar símbolos es mapear
cada símbolo en una secuencia binaria de L bits.
➢Para un alfabeto de tamaño K se requieren:
2L ≥ K
➢Para evitar desperdiciar bits se escoge L como el entero
más pequeño que satisfaga la ecuación de arriba. Es decir,
L = log2 K
Ejemplo de Código de Longitud Fija
➢Suponiendo que tenemos el siguiente alfabeto:
{a, b, c, T, $}
➢Como hay 5 símbolos en el alfabeto, K=5, para usar un código de longitud fija necesitamos:
L = log2 K = log2 5 = 3 bits
➢Ahora podemos asignar una secuencia de bits de cualquier manera a los símbolos.
a → 000
b → 001
c → 101
T → 011
$ → 100
➢Un ejemplo práctico es el código ASCII que hace un mapeo de letras, números, símbolos,
etc., en una secuencia de 8-bits.
Códigos de Longitud Variable: Códigos de Prefijo
➢Un código de prefijo se define como un código en el que ninguna
palabra-código es el prefijo de otra palabra-código.
▪ Veamos al tabla siguiente:
➢La característica de prefijo asegura que cada una de las palabras código
sean diferentes y por tanto únicamente decodificables.
Códigos de Prefijo y decodificación
➢Realizando el proceso de decodificación para el Código 1 (no prefijo) y el código 2
(prefijo):
▪ Para el caso del código 1, supongamos que se recibió la palabra 0011. En ese caso el
decodificador no sabría cuál fue la palabra que recibió, si s0s0s1s1 o s0s0s3 o s2s1s1 o s2s3.
Todas estas combinaciones producen la misma salida, por lo tanto el código no es
únicamente decodificable.
▪ En el caso del código 2, como es un código de prefijo, ninguna palabra completa es el prefijo
de otra más larga, y puede ser decodificada usando un árbol de decisiones.
➢Otra manera de representar este tipo de canal es con una matriz de canal (o
matriz de transición), P, como la siguiente:
Canal Simétrico Binario (BSC)
➢Es el caso especial del canal discreto sin memoria en el que j=k=2.
➢El canal tiene dos entradas, x0 = 0 y x1 = 1, y dos salidas y0 = 0 y y1 = 1.
▪ Es simétrico porque la probabilidad de recibir un 0 dado que se transmitió un 1 es igual a la
de recibir un 1 y haber transmitido un 0.
▪ Este canal se presenta cuando el transmisor transmite una forma de onda binaria y el
receptor emplea un dispositivo de decisión dura para estimar los símbolos.
▪ Se asume que el ruido en este canal causa errores estadísticamente independientes.
▪ La probabilidad de error condicional viene dada por:
Canal de Entrada Discreta y Salida Continua
➢Es parecido al DMC excepto que aquí el receptor no emplea un mecanismo de
decisión dura y por lo tanto el detector puede asumir cualquier valor.
▪ El más común de este tipo de canales es el canal aditivo de ruido blanco gaussiano:
Y=X+G
▪ Donde G es una variable aleatoria de media cero con varianza 𝜎2 y X = xk, k=0,1,… , K-1
▪ Para una X dada, Y es también gaussiana con media xk y varianza 𝜎2. Es decir:
Ejemplo
➢Considere el canal binario entrada-salida mostrada en la figura. La
matriz de transición viene dada por:
➢Se relaciona con las entropías conjuntas de entrada y salida del canal
con la siguiente expresión: