Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Codificación típica
Para realizar la codificación típica primero sacamos la lista de caracteres del mensaje y
asignamos un código para cada uno de ellos, donde el número de bits n, se determina mediante:
𝒏 = 𝐥𝐨𝐠𝟐 (𝒏ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒄𝒂𝒓𝒂𝒄𝒕𝒆𝒓𝒆𝒔 𝒖𝒕𝒊𝒍𝒊𝒛𝒂𝒅𝒐𝒔)
𝑛 = log 2 (4) = 2
Caracteres Código
C 00
O 01
M 10
L 11
C O M O M O C O L O C O
00 01 10 01 10 01 00 01 11 01 00 01
C O M O C O C O
00 01 10 01 00 01 00 01
Para realizar la codificación de Huffman procedemos a listar los caracteres que se utilizan en el
mensaje, luego contamos la frecuencia 𝑓𝑖 y calculamos la 𝑝𝑖 de cada letra en el mensaje
Caracteres 𝒇𝒊 𝒑𝒊
6
C 6
20
10
O 10
20
3
M 3
20
1
L 1
20
Total 20 1
Por consiguiente, generamos un árbol binario que tenga cada carácter como una hoja y cada
nodo interno como la suma de las probabilidades de sus hijos.
Para ello se siguieron los siguientes pasos:
Ahora generamos el código de cada letra, donde el código de cada letra corresponde el camino
para llegar a su nodo.
Caracteres Código
O 0
C 10
L 110
M 111
C O M O M O C O L O C O
10 0 111 0 111 0 10 0 110 0 10 0
C O M O C O C O
10 0 111 0 10 0 10 0
Como se puede observar en el cuadro comparativo hubo una reducción de 6 bits en el mensaje
utilizando la codificación de Huffman esto se debe a la alta frecuencia de algunos caracteres en
el mensaje, además se puede constatar que el número de bits por letras paso de 3 a 1,7 bits.
3. Cantidad de información
Para calcular la cantidad de información de cada carácter dentro del mensaje utilizaremos la
siguiente fórmula matemática:
𝑐 = − log 2 (𝑝𝑖 )
Como podemos observar el cuadro nos indica que entre menor sea la frecuencia y probabilidad
de un carácter obtendremos mayor cantidad de información.
4. Entropía
Para calcular la Entropía de cada carácter dentro del mensaje utilizaremos la siguiente fórmula
matemática:
Caracteres 𝒇𝒊 𝒑𝒊 Entropía
6 6 6
C 6 −( ) ∗ log 2 ( ) = 𝟎. 𝟓𝟐 …
20 20 20
10 10 10
O 10 − ( ) ∗ log 2 ( ) = 𝟎. 𝟓𝟎 …
20 20 20
3 3 3
M 3 −( ) ∗ log 2 ( ) = 𝟎. 𝟒𝟏 …
20 20 20
1 1 1
L 1 − ( ) ∗ log 2 ( ) = 𝟎. 𝟐𝟏 …
20 20 20
Total 20 1 𝐸(𝑥) = 1.64…
Como podemos observar el cuadro nos indica que la entropía de todo el mensaje es de 1.64.
En conclusión, podemos determinar que el mensaje con la codificación de Huffman obtuvo una
reducción de 6 bits en comparación a la codificación típica, debido a la alta frecuencia de
algunos caracteres en el mensaje, además que entre menor sea la frecuencia y probabilidad de
ocurrencia de un carácter obtendremos mayor cantidad de información. Por último, la entropía
del mensaje obtuvo un valor (1.64) muy cercano al número de bits por letra (1.7) de la
codificación optima.