Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRANSMISIÓN DE DATOS
SESION 3:
Presentación del Docente:
Incertidumbre
Información
La medida de Hartley
Datos/Observaciones
Logro de la Sesión:
Datos/Observaciones
INCERTIDUMBRE E INFORMACIÓN
Datos/Observaciones
Nº MEDIO DE BITS Y ENTROPÍA
N m4 0,1 1101
N medio p k N k 1 0,4 2 0,3 4 0,3 2,2 bits m5 0,1 1110
k 1
N
H p k log 2 p k -[0.4*log2(0.4)+0.3*log2(0.3)+3*0.1*log2(0.1)] = -2.0464
k 1
H N Huffman H 1
FACULTAD DE INGENIERÍA
Datos/Observaciones
HISTOGRAMA Y ENTROPÍA
SI MEDIANTE UNA TRANSFORMADA DE LA SEÑAL LOS MENSAJES MUESTRAN DIFERENCIAS DE PROBABILIDAD CONSIDERABLES, SE
PUEDE REDUCIR LA CANTIDAD DE INFORMACIÓN CON LA QUE PODEMOS CODIFICAR LA FUENTE. CONVIENE OBTENER GRÁFICOS
CON PICOS FUERTEMENTE MARCADOS QUE INDIQUEN LA EXISTENCIA DE MENSAJES MUY PROBABLES
La imagen original ha sido codificada con 8 bits, Horiginal = 7,5, Hdiferencia= 5,8
Datos/Observaciones
Incertidumbre
P(Y|X)={P(Yj|Xi)}
LA ECUACIÓN INDICA CUÁL ES LA PROBABILIDAD DE QUE A LA SALIDA DEL CANAL HAYA EL SÍMBOLO
Y HABIENDO TRANSMITIDO X. EN ESTE EFECTO, EL RECEPTOR DEBE ADIVINAR CUÁL HA SIDO X (EL
VALOR REALMENTE ENVIADO POR LA FUENTE) HABIENDO RECIBIDO EL SÍMBOLO Y.
Datos/Observaciones
Información
Datos/Observaciones
BOLTZMANN DEFINIÓ A LA ENTROPÍA COMO UNA MEDIDA DEL AUMENTO DEL
DESORDEN EN UN SISTEMA DURANTE SU CAMINO DEBIDO A LA DESORGANIZACIÓN
DEBIDO A LA DISIPACIÓN TÉRMICA.
Datos/Observaciones
En un sistema de espectro disperso (SS):
• La información es modulada por un portador,
• El ancho de banda es ensanchado deliberadamente mediante un procedimiento bien determinado que
involucra una señal de código SS, la cual incluso puede estar contenida en el procedimiento de
ensanchamiento.
Para mantener una capacidad constante, al aumentar el ruido, la razón señal-entre-ruido ha de disminuir, por lo que el ancho de
banda de señal debe aumentar, mediante un efecto de espectro disperso (SS) (el ancho de banda de señal se ensancha a un
ancho de banda mayor en varios órdenes de magnitud inyectando una señal de mayor frecuencia). Ejm. Sistemas de
frecuencia modulada a pulsos
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
LA MEDIDA DE HARTLEY
Datos/Observaciones
La medida de Hartley
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
La información mutua I(X;Y) es una medida de la información proveída por los pares de
símbolos (x,y), la relación entre I(X;Y) y la entropía es:
H (Y)
H (X)
H (Y/X)
H (X/Y)
I (X;Y)
Datos/Observaciones
EN EL CÁLCULO DE LA ENTROPIA E INFORMACIÓN EN
EL CASO DISCRETO, SE TRATA DE LLEGAR A
DETERMINAR LA FORMA MÁS ECONÓMICA, RÁPIDA
Y SEGURA DE CODIFICAR UN MENSAJE, SIN QUE LA
PRESENCIA DE ALGÚN RUIDO COMPLIQUE SU
TRANSMISIÓN
Datos/Observaciones
EL CANAL DE COMUNICACIÓN:
ES LA TRAYECTORIA O MEDIO A TRAVÉS DEL QUE FLUYEN LOS SÍMBOLOS DEL ORIGEN AL
DESTINO.
Datos/Observaciones
P( X = 1) = p11+p12+p13+p14= 4/16 = 1/4
P( Y = 2) = p12+p22+p32+p42= 5/16
X/Y 1 2 3 4
1 2/16 1/16 1/16 0/16 4/16
Datos/Observaciones
Cierre:
Conclusiones Generales
Datos/Observaciones