Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRANSMISIÓN DE DATOS
SESION 3:
Presentación del Docente:
Datos/Observaciones
Utilidad
Datos/Observaciones
Logro de la Sesión:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema
durante la sesión de clases?
Datos/Observaciones
Exposición por el Docente, de la Utilidad del tema:
Datos/Observaciones
INFORMACIÓN MUTUA
Datos/Observaciones
Entropía
Datos/Observaciones
Para medir la información de una fuente es necesario medir la información de
cada posible valor de la v.a. (Autoinformación: 𝐼 𝑎𝑖 y ponderarlo con su
probabilidad 𝑝𝑖 , de tal forma que H 𝑥 = σ 𝑝𝑖 𝐼 𝑎𝑖
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
La información mutua I(X;Y) es una medida de la información proveída por los pares de
símbolos (x,y), la relación entre I(X;Y) y la entropía es:
H (Y)
H (X)
H (Y/X)
H (X/Y)
I (X;Y)
Datos/Observaciones
EN EL CÁLCULO DE LA ENTROPIA E INFORMACIÓN EN
EL CASO DISCRETO, SE TRATA DE LLEGAR A
DETERMINAR LA FORMA MÁS ECONÓMICA, RÁPIDA
Y SEGURA DE CODIFICAR UN MENSAJE, SIN QUE LA
PRESENCIA DE ALGÚN RUIDO COMPLIQUE SU
TRANSMISIÓN
Datos/Observaciones
EL CANAL DE COMUNICACIÓN:
▪ ES LA TRAYECTORIA O MEDIO A TRAVÉS DEL QUE FLUYEN LOS SÍMBOLOS DEL ORIGEN AL
DESTINO.
Datos/Observaciones
Empleo de la Probabilidad para
expresar la situación de una fuente
P(Y|X)={P(Yj|Xi)}
LA ECUACIÓN INDICA CUÁL ES LA PROBABILIDAD DE QUE A LA SALIDA DEL CANAL HAYA EL SÍMBOLO
Y HABIENDO TRANSMITIDO X. EN ESTE EFECTO, EL RECEPTOR DEBE ADIVINAR CUÁL HA SIDO X (EL
VALOR REALMENTE ENVIADO POR LA FUENTE) HABIENDO RECIBIDO EL SÍMBOLO Y.
Datos/Observaciones
OTRAS DEFINICIONES QUE TAMBIÉN SE EMPLEAN SON:
P(X=xi)=P(xi)
P(X=xi,Y=yj)=P(xi|yj)P(yj)=P(yj|xi)P(xi)
Datos/Observaciones
P(Xi) ES LA PROBABILIDAD DE QUE LA FUENTE SELECCIONE EL SÍMBOLO Xi PARA TRANSMITIR.
(PROBABILIDAD A PRIORI)
P(Yj) ES LA PROBABILIDAD DE QUE EL SÍMBOLO Yj HAYA SIDO RECIBIDO EN EL DESTINO (AL OTRO LADO
DEL CANAL)
P(Xi|Yj) ES LA PROBABILIDAD CONDICIONAL DE QUE Xi SEA TRANSMITIDO DADO QUE Yj HAYA SIDO
RECIBIDO. (PROBABILIDAD A POSTERIORI)
P(Yj|Xi) ES LA PROBABILIDAD CONDICIONAL DE QUE YJ SEA RECIBIDO DADO QUE Xi HAYA SIDO
TRANSMITIDO. ESTA PROBABILIDAD INCLUYE LAS PROBABILIDADES DE ERROR DE SÍMBOLO. (FUNCIÓN
DE VEROSIMILITUD)
Datos/Observaciones
Datos/Observaciones
CAPACIDAD DEL CANAL:
ES UN PARÁMETRO QUE NOS INDICA CUAL ES LA CANTIDAD MÁXIMA DE BITS, QUE UN CANAL PUEDE SOPORTAR. ASÍ POR
EJEMPLO PARA UN CANAL PERTURBADO POR RUIDO GAUSSIANO, LA CAPACIDAD DE CANAL PUEDE CALCULARSE COMO:
S
C = Bw.Log 2 1 + bit
N seg
Datos/Observaciones
La capacidad de un canal definida por Shannon es C = max I (X;Y),
Max I (X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es cero o cuando la
incertidumbre de recibir Y dado X es cero:
Datos/Observaciones
MATRIZ DEL CANAL:
…………
…..
…………
[ P ( Y/X ) ] = …..
…………
…..
…………
…..
Datos/Observaciones
EN LA MATRIZ DE CANAL:
Y=
1 2 3 4
Datos/Observaciones
P( X = 1) = p11+p12+p13+p14= 4/16 = 1/4
P( Y = 2) = p12+p22+p32+p42= 5/16
X/Y 1 2 3 4
1 2/16 1/16 1/16 0/16 4/16
Datos/Observaciones
Ejemplo:
Un sistema con input (X) y output (Y). Cual es la Prob{ 3 ≤ X ≤ 5, 2 ≤ Y ≤ 3 } y las probabilidades marginales de X
e Y?
Datos/Observaciones
▪ SI SE QUIEREN COMPARAR FUENTES Y CANALES DE DATOS, SE PUEDEN
USAR MEDIDAS DE LAS DIFERENCIAS ENTRE ELLOS.
▪ ESTAS MEDIDAS NOS PUEDEN DAR UN REFLEJO DEL TIPO DE FUENTE Y
DEL TIPO DE CANAL QUE SE ESTA ESTUDIANDO
X Y
SISTEMA DE
COMUNICACIONES
Ejemplo:
Binary Symmetric Channel (BSC), un modelo de un canal simple pero que incluye gran parte
de la complejidad del problema de comunicaciones en general. Se requiere determinar
P{Y|X}:
Datos/Observaciones
P{0|0} = P{1|1} = p, P{1|0} = P{0|1} = q
x p y
0 0
q q
1 1
p
Ejemplo:
Binary Erasure Channel (BEC). Para el BEC P{0|0} = P{1|1} = p, P{z|0} = P{z|1} = q
x p y
0 0
q
q z
1 1
p
Datos/Observaciones
Datos/Observaciones
Cierre:
Conclusiones Generales
Datos/Observaciones