Está en la página 1de 7

ACTIVIDAD EVALUATIVA EJE 2

NICOL MAREAM NOPE JUNCO

YASCEL CÓRDOBA MARTINEZ

CARLOS ANDRES NUÑEZ ARENAS

FUNDACIÓN UNIVERSITARIA DEL AREA ANDINA

INGENIERA DE SISTEMAS

TEORÍA DE LA INFORMACIÓN

BOGOTA D.C

2023
ACTIVIDAD EVALUATIVA EJE 2

1. Hallar la extensión de una fuente de memoria nula, Partiendo de siguiente alfabeto: S={M1,
M2, M3}, con P{M1}=P{M2}= ⅕ P{M3}= ⅓
2. Hallar la probabilidad de secuencia de cada símbolo.
3. hallar la entropía binaria aplicando la fórmula.

SOLUCIÓN

Solución planteada por Nicol Nope

partiendo del siguiente alfabeto:

S ={M1,M2,M3} con

P{M1}=⅕

P{M2}=⅕

P{M3}=⅓

2. Halla la probabilidad de secuencia de cada símbolo.

● M1M1= ⅕ *⅕ =1/25 = 0,04 = 25%

● M1M3= ⅕*⅓ = 1/15 = 0,06 = 16,6%

● M2M1 = ⅕ *⅕ = 1/15 = 0,04 = 25%

● M2M3 = ⅕ * ⅓ = 1/!5 = 0.06 = 16,6%

● M1M2 = ⅕ * ⅕ = 1/25 = 0.04 = 25%


● M2M2 = ⅕ * ⅕ = 1/25 = 0,04 = 25%

● M3M1 = ⅓ * ⅕ = 1/25 = 0,06 = 16,6%

● M3M2 = ⅓ * ⅕ = 1/15 = 0,06 =16,6%

● M3M3 = ⅓ * ⅓ = 1/9 = 0,11 = 9%

1/0,04=25

1/0,06=16,6

1/0.11=9

3. Hallar la entropía binaria aplicando la fórmula.

= 1/9 log 9 + 4 * 1/25 log 25 + 4 * 1/15 log 15

= 1,5 bits/símbolo

● Solución Planteada por Carlos Nuñez

Hallar la extensión de una fuente de memoria nula.

Partiendo del siguiente alfabeto: S = {M1, M2, M3}, con P{M1} = P{M2} = 1/5 y P{M3} =
1/3

Hallar la probabilidad de secuencia de cada símbolo.


Hallar la Entropía Binaria aplicando la fórmula.
● SOLUCIÓN POR YASCEL

S ={M1,M2,M3} con

P{M1}=⅕

P{M2}=⅕

P{M3}=⅓

EL SÍMBOLO M= Ꝺ
DONDE EL NÚMERO DE SIMBOLO M = N ²

M1M1 = (⅕)(⅕) =1/25 = 0,04


M1M3 = (⅕)(⅓) = 1/15 = 0.06
M2M1 = (⅕)(⅕) = 1/25 = 0,04
M2M3 = (⅕)(⅓) = 1/15 = 0.06
M1M2 = (⅕)(⅕) = 1/25 = 0,04
M2M2 = (⅕)(⅕) = 1/25 = 0,04
M3M1 = (⅓)(⅕) = 1/15 = 0,06
M3M2 = (⅓)(⅕) = 1/15 = 0,06
M3M3 = (⅓)(⅓) = 1/9 = 0,11

HALLAR LA ENTROPÍA BINARIA

1/15 log2 15 + (4 ) 1/9 log2 9 + (4 ) 1/25 log2 25


=0,260459 + 1,40886 + 0743017
=2,412336 bits/ símbolo
CONCLUSIONES

1. Partiendo desde el alfabeto S={M1, M2, M3}, con P{M1}= P{M2}= 1/5 y P{M3}=
⅓, con la cual se halla la probabilidad de secuencia de cada símbolo la cual se hace la
multiplicación de secuencia de símbolos y la división hallando la probabilidad de cada
símbolo m y hallando el porcentaje de cada una de la probabilidad hallar la entropía
binaria con 1,5 bits.

2. El presente ejercicio permitió hallar la medida media de la variable aleatoria donde su


magnitud física está dada en bits de información.

3. La cantidad de información es proporcional a la probabilidad de un suceso, es decir si


la entropía es igual a 3, esto quiere decir que se necesitan de 3 bits para codificar cada
símbolo. (Universidad Nacional del Nordeste, s.f). Para el caso del ejercicio realizado
quiere decir que requerimos de 1.5 bits para codificar cada símbolo en la secuencia
según el resultado obtenido de la entropía binaria.
REFERENCIAS

● Universidad Nacional del Nordeste. (s.f). Teoría de la información y la codificación.


Argentina. Recuperado de:
http://exa.unne.edu.ar/depar/areas/informatica/teleproc/Comunicaciones/Practicos/

También podría gustarte