Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Taller 2
Taller 2
Suponga que las calificaciones para teoría de la información están dadas por las siguientes letras, A,
B, C, D, F. ¿Cuanta información hay si el profesor le dice que su nota no fue F? Con base en lo
anterior, ¿cuánta información se necesita para saber su nota?
El total de calificaciones es de 5 calificaciones, pero si el profesor indica que la nota no fue F, la probabilidad
es de 4/5Para hallar la cantidad de información debemos realizar lo siguiente: Debemos saber cuál es el
logaritmo en base dos de uno sobre la probabilidad.
1
log 2 = log 2 1,25 = 0,32
0,8
a) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un
corazón.
La probabilidad de que exista una carta de corazones de es de 0,23 ya que son 52 cartas en total y
12 de ellas tienen corazón
1
log 2 = log 2 4,35 = 2,12
0,23
b) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un rostro.
La probabilidad de que exista una carta de rostro de es de 0,23 ya que son 52 cartas en total y 12
de ellas tienen rostro
1
log 2 = log 2 4,35 = 2,12
0,23
c) Calcule la cantidad de información cuando se sabe que una carta escogida al azar tiene un
corazón y un rostro.
1
log 2 = log 2 4,35 = 2,12
0,23
d) Si se escoge una carta que ya se sabe que es una carta de corazones y que tiene un rostro,
¿cuánta información se necesita para saber exactamente el tipo de carta?
1
log 2 = log 2 4,35 = 2,12
0,23
3. Calcule H(x) para la siguiente fuente de memoria nula que tiene seis símbolos PA=1/2 PB=1/4 PC=1/8
PD= PE=1/20 PF=1/40. Encuentre la cantidad de información contenida en los mensajes ABABBA y
FDDFDF, compare con la cantidad de información obtenida para un mensaje cualquiera de 6
símbolos.
A= 0,5; B= 0,25; C= 0,125; D= 0,05; E= 0,05; F= 0,025
1
𝐻(𝑥) = ∑ 𝑃(𝑆𝑖 ) log 2
𝑃(𝑆𝑖 )
ABABBA
𝐻(𝑥) = 0,5 log 2 2 + 0,25 log 2 4 + 0,5 log 2 2 + 0,25 log 2 4 + 0,25 log 2 4 + 0,5 log 2 2
𝐻(𝑥) = 0,5 ∗ 1 + 0,25 ∗ 2 +0,5 ∗ 1 + 0,25 ∗ 2 +0,25 ∗ 2 +0,5 ∗ 1
𝐻(𝑥) = 0,5 + 0,5 + 0,5 + 0,5 + 0,5 + 0,5
𝐻(𝑥) = 3
FDDFDF
Dp=0,2
Dl=0,4
Pp=
Pl=
6. Una fuente binaria tiene las siguientes probabilidades de transmisión de cero o uno, P0=P1= 1/2. A
demás las probabilidades de recibir un valor dado que se envió otro son: P(0|1) = (1|0) = 3/4. Calcule
la entropía condicional de la fuente.
𝑋0 = 0,5
𝑋1 = 0,5
𝑌0 = 0,75
𝑌1 = 0,75
𝐻(𝑥, 𝑦) = − 0,75 [0,5 |0,75 log 2(0,5|0,75) + 0,5| 0,75log 2(0,5|0,75) ] − 0,75[0,5|0,75log_2(0,5|0,75)
+ 0,5|0,75log_2(0,5|0,75) ]