Documentos de Académico
Documentos de Profesional
Documentos de Cultura
seguridad.
comunicación.
error sea mínima? Cómo puede darse cuenta de que hay un error y cómo
lograr corregirlo?
autorizados.
de la infromación.
2
• El estudio de la teoria de la información debe permitir: conocer las técnicas de
3
CONCEPTOS BÁSICOS DE LA TEORÍA DE LA INFORMACIÓN
Medida de la Información:
Una fuente discreta está formada por un conjunto finito de símbolos. Las
sin memoria. Una fuente sin memoria pude especificarse por: la lista de
probabilidad de ocurrencia.
I ( x i ) = Log2 1
P ( x1 ) bits 1
4
Si existe un mensaje x1, con una probabilidad de ocurrencia P(x1), el contenido
expresión:
m m
H ( X ) = E [ I ( x i ) ] = ∑ P( x i ) I ( x i ) = −∑ P ( x i ) log 2 P ( x i )bit / simbolo
i =1 i =1
5
Por lo anterior podemos decir que el contenido de información de cualquier
EL CANAL DE COMUNICACIÓN
Es la trayectoria o medio a través del que fluyen los símbolos del origen al destino.
Un canal discreto sin memoría, (DMC), es un modelo estadístico, con una entrada
X, y una salida Y. Durante cada unidad de tiempo, o intervalo de señalización, el
canal acepta un símbolo de entrada de X, y en respuesta genera un símbolo de
salida de Y. El canal es discreto, cundo los alfabetos X, Y, son finitos. Es “sin
memoria” , cuando el símbolo de salida corriente, depende solamente del símbolo
corriente a la entrada, y no de ningún símbolo previo. La figura muestra un canal
DMC, con m entradas y n salidas.
x1 y1
x2
y2
x3
P( yj/xi ) y3
yj
xi
xm yn
X y
La entrada X, consiste de los símbolos de entrada x1, x2, xi,... xm. Sus
probabilidades a priori se conocen: P(xi). La salida Y, consiste de los símbolos y 1,
y2, yj,....yn. Cada posible trayectoria de entrada – salida, se expresa con una
probabilidad condicional P(yi/xj), donde P (xi/yj) P( y1/x1 ) P( y1/x1 ), es la
6
probabilidad condicional de obtener la salida yj, dada la entrada xi, y es llamada la
probabilidad de transcición del canal.
j =n
∑ P( yj / xi ) = 1para − todo − i
j =1
7
Es un parámetro que nos indica cual es la cantidad máxima de bits, que un
Así por ejemplo para un canal perturbado por ruido Gaussiano, la capacidad de
S bit
C = Bw.Log 2 1 +
N seg
segundo.
S
= Es la relación de potencia de señal a potencia de ruido
N
que soporta el canal.
CODIFICACIÓN DE LA FUENTE .
una secuencia binaria. El elemento que realiza éste proceso se conoce como
Fuente de Codificador
Información Fuente
8
procura en aproximar la longitud promedio de las palabras de código (número
promedio de dígitos binarios ), a la entropía de la fuente.
Fuente de Codificador
Información de Canal
9
TEOREMA: Dada una fuente discreta, sin memoria, [X], con una entropía H(x), y
un canal con capacidad C, si H(X) < / = C, existe un esquema de codificación,
para el que la salida de la fuente, pude transmitirse por el canal, con una
arbitrariamente pequeña probabilidad de error. Igualmente, si H(x) > C, no es
posible la transmisión libre de errores. Es posible el Código, pero no se nos dice
cuál es.
10
0). Hay memoria, porque la secuencia de salida depende de un numero definido
de entradas previas
Forward Error Correction (FEC), es útil en canales simples, en canales con altos
retardos de transmisión, y permite altas velocidades en la comunicación.
COMPRESIÓN DE DATOS.
11
Compresión sin pérdidas. ( Lossless Compresión). Implica no pérdida de
información. Los datos originales se recuperan exactamente del modelo
comprimido. Es usado para textos, datos de computadoras y otros formatos que
exigen integridad de la información. Los índices de compresión son aún bajos.
Ej.: si envías: ‘ Do not send money “ , y recibes “Do now send money “, pude ser
fatal.
En manejo de cantidades numéricas, imágenes radiológicas, imágenes satelitales.
Ej. Secuencia 9, 11, 11, 11, 14, 13, 13, 15, 17, 16, 17, 20, 21
12
Ω = n+8 . en = xn - Ω n= 1, 2, 3, ....
Sólo se necesitarán dos bits por carácter, para codificar la nueva secuencia:
00 = 0; 01 a –1; 10 a –1.
13