Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Febrero de 2022
Ingeniería de Sistemas
1. Suponga que las calificaciones para teoría de la información están dadas por las siguientes
letras, A, B, C, D, F.
4
P [ ≠ F ] = =0,80∗100 %=80 %
5
l x =log 2 ( p1 )
x
1
P [ T ] =P [ A ] + P [ B ] + P [ C ] + P [ D ] = =0,25∗100 %=25 %
4
a) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un
corazón.
13
P [C ]= =0,25∗100 %=25 %
52
de información es de 2 bits cuando se sabe que una carta escogida al azar tiene un corazón.
b) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un
rostro.
12
P [C ]= =0,23∗100 %=23 %
52
c) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un
corazón y un rostro.
3
P [C ]= =0,057∗100 %=5,7 %
52
l x =log 2 ( 0,057
1
)=4,13
La probabilidad que salga una carta que tiene un rostro y un corazón es del 5,7%, ya que hay 3
d) Si se escoge una carta que ya se sabe que es una carta de corazones y que tiene un rostro,
1
P [ T ] =P [ J ] + P [ Q ] + P [ K ]= =0,33∗100 %=33 %
3
1 1 1
P A = P B= PC = PD =P 1 1
2 4 8 E=¿ P
20 F =
40
¿
1 1 1 1 1 1
H x =P ( A ) log 2 + P ( B ) log 2 + P ( C ) log 2 + P ( D ) log 2 + P ( E ) log 2 + P ( F ) log 2
P( A) P ( B) P (C ) P ( D) P ( E) P( F )
() () () ( ) ( ) ( )
1 1 1 1 1 1 1 1 1 1 1 1
¿ log 2 + log 2 + log 2 + log 2 + log 2 + log 2
2 1 4 1 8 1 20 1 20 1 40 1
2 4 8 20 20 40
1 1 1 1 1 1
¿ log 2 ( 2 )+ log 2 ( 4 ) + log 2 ( 8 )+ log 2 ( 20 )+ log 2 ( 20 )+ log 2 ( 40 )
2 4 8 20 20 40
1 1 1 1 1 1
¿ ( 1 )+ (2 )+ ( 3 ) + ( 4,32 ) + ( 4,32 )+ ( 5,32 )
2 4 8 20 20 40
¿ 0,5+0,5+ 0,38+0,22+0,22+0,13=1, 95
() () () () () ()
1 1 1 1 1 1
lm1=log 2 +log 2 + log 2 + log 2 + log 2 + log 2
1 1 1 1 1 1
2 4 2 4 4 2
lm1=1+2+1+2+2+1=9
lm1=log 2
( P1 )+ log ( P1 )+ log ( P1 )+ log ( P1 )+log ( P1 )+ log ( P1 )
F
2
D
2
D
2
F
2
D
2
F
( ) ( ) ( ) ( ) ( ) ( )
1 1 1 1 1 1
lm1=log 2 + log 2 +log 2 + log 2 +log 2 + log 2
1 1 1 1 1 1
40 20 20 40 20 40
lm1=5 , 32+4,32+ 4,32+ 5,32+ 4,32+5,32=28 , 9 2
4. Calcule la tasa de información de un telégrafo que emite dos símbolos, punto y línea. La
duración del punto es de 0.2 segundos mientras que la línea dura el doble de tiempo. La
S= { p , 2 l }
1 1
H [ s ] =P ( p ) l o g2 + P ( 2l ) log 2
P(p) P ( 2l )
1 1
H [ s ] = log 2 +2
2
log 2 ()1
2 1
2
2
2
2
2 ()
1 1
H [ s ] = log 2 (2)+ 2 log 2
2 2
1
H [ s ] = +2∗−1
2
1
H [ s ] = −2
2
H [ s ] =−1,5
H [ s ] −1,5
R= = =−7,5
t 0,2
La tasa de información de un telégrafo que emite dos símbolos punto y línea es de 7,5
bits/segundo.
De A hasta A: 1/3
De A hasta B: 2/3
De B hasta A: 2/3
De B hasta B: 1/3
[ ]
1 2
A 3 3
M =Origen
B 2 1
3 3
El estado estacionario de la fuente de Márkov se halla con la formula Q(M-I) = 0, como solo hay
( [ ])
−2 2
Q= [ P ( A ) P( B) ] 3 3 =0
2 −2
3 3
Q=
[ −2
3
2
P ( A )+ P( B) =0
3 ]
Q= [ 2
3
2
P ( A )− P(B) =0
3 ]
De la ecuación se puede ver que P(A)=P(B), y como la probabilidad debe sumar 1, entonces:
P(A) = 1/2
P(B) = 1/2
H [ x ] =− ( 12 log 12 + 12 log 12 )
2 2
H [ x ] =− (−1 )=1
La entropía es de 1 Bits.
Para la entropía conjunta de la fuente cuando se envían dos símbolos, se usa la matriz que
usamos y la formula:
[ ]
1 2
A 3 3
M =Origen
B 2 1
3 3
H { X n X n−1 }=−
'
( 1
3
1 2 2 2 2 1
log 2 + log 2 + log 2 + log 2
3 3 3 3 3 3
1
3 )
H { X n X n−1 }=−
'
( 13∗(−1,59) + 23∗(−0,59 )+ 23∗(−0,59) + 13 ∗(−1,59))
H { X n X n−1 }=−(−0,53−0 , 3 9−0 ,3 9−0,53)
'
Para la entropía condicional de la fuente, usamos la formula anterior, pero se multiplica con la
H { X n X n−1 }=−
'
[(
1 1
2 3
1 2 2 1 2
log 2 + log 2 +
3 3 3 2 3
2 1
log 2 + log 2
3 3 ) (
1
3 )]
H { X n X n−1 }=−
'
[(
1 1
2 3
2
∗(−1,59 )+ ∗(−0,59 ) +
3
1 2
2 3
1
) (
∗(−0,59 ) + ∗(−1,59 )
3 )]
H { X n X n−1 }=−
'
[ 1
2
1
(−0,53−0,39 ) + (−0,39−0,53 )
2 ]
H { X n X n−1 }=−
'
[ 1
2
1
(−0 , 92 ) + (−0 , 92 )
2 ]
H { X n X n−1 }=−[−0,46−0,46 ]
'
6. Una fuente binaria tiene las siguientes probabilidades de transmisión de cero o uno,
1
P0=P1 = . Además las probabilidades de recibir un valor dado que se envió otro son:
2
3
P ( 0|1 )=( 1|0 )= . Calcule la entropía condicional de la fuente.
4
( ( ))
x 1
H ( X|Y )=P log 2
y x
p
y
(( ))
2 1
H (X ∨Y )= log 2
3 1
4 2
3
4
H ( X|Y )=0,6∗0,58