Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Integrantes:
Báez Licona Rogelio Jesús
Montoya Santiago Abraham
Nava Sánchez Jorge
Equipo número:
Fecha de entrega:
01-12-2022
3. INTRODUCCIÓN
El concepto básico de entropía en teoría de la información tiene mucho que ver con la
incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la
cantidad de «ruido» o «desorden» que contiene o libera un sistema. De esta forma,
podremos hablar de la cantidad de información que lleva una señal.
Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena
de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres).
Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, «w»),
mientras otros sí lo son (como la «a»), la cadena de caracteres no será tan "aleatoria"
como podría llegar a ser. Obviamente, no podemos predecir con exactitud cuál será el
siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero la entropía
es la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon
en su artículo de 1948, A Mathematical Theory of Communication.
Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:
-La medida de información debe ser proporcional (lineal continua). Es decir, el cambio
pequeño en una de las probabilidades de aparición de uno de los elementos de la señal
debe cambiar poco la entropía.
-Si todos los elementos de la señal son equiprobables (igual de probables) a la hora de
aparecer, entonces la entropía será máxima
4. DESARROLLO Y RESULTADOS
4.1 Entropía de textos con caso particular de fuentes discretas con memoria
El programa deberá obtener el número de veces que se presenta cada letra del alfabeto español
en el texto analizado, la probabilidad de cada letra, la cantidad de información propia que lleva
cada símbolo xi emitido por la fuente de información así como el valor de la entropía.
Para determinar la información propia promedio o entropía del texto, el programa debe calcular:
1 1 1
H ( X ) P( A) log2 P(B) log 2 P(Z ) log2 bits / (4.2)
P( A) P(B) P(Z ) letra
De acuerdo con los resultados obtenidos para el texto en Español ¿Cuál letra ocurre con mayor
frecuencia y cual letra ocurre con menor frecuencia?
La letra "A" es la que aparece mas veces mientras que la w es la que aparece menos
de acuerdo a la tabla se puede ver que la letra mas frecuente en este caso la "A" aporta poca
información, mientras que la letra "W" que es menos frecuente aportan más información.
5. PREGUNTAS
Discreta
Su objetivo es remover información redundante o redundancias y con esto se logra
comprimir la fuente.
Este agrega redundancia estructurada para realizar el control de los errores
Toma el mensaje y lo acomoda sobre una onda o señal portadora para enviarla por
el canal
Este es el medio por el cual se transfiere el mensaje y este va a encontrarse ruido
o interferencia
Hace lo contrario a la modulación y está diseñada para minimizar la taza de error
Este detecta si el mensaje es un cero o uno y su vienen errores se encarga de
corregirlos.
Recupera el mensaje original a través del flujo bits.
∑ P ( Xi )=1
i=1
10.- ¿Cuál es el significado de estacionariedad estadística para una fuente
discreta con memoria?
Una fuente discreta es una memoria estacionaria si las probabilidades conjuntas de 2
secuencias de longitud “n”
11. De qué depende la cantidad de información de un evento y como se
determina. Explicar.
La cantidad de información sola en un evento o su acontecimiento está relacionada con su
probabilidad de que ocurra dicho evento, por ejemplo eventos con alta probabilidad de
ocurrir revelan más información
12.- ¿Qué es la información mutua entre un par de eventos?
La información mutua S(y,v) es media de su incertidumbre mide la información cada que
es transferida y recibida
P ( Xi⃓ Yj) 1
I ( Xi ,Yi )=log ₂ =log ₂ =I (Xi)
P ( Xi ) P ( Xi )
13.- Explicar por qué en comunicaciones nos interesa conocer la información
promedio que produce una fuente de información en lugar de conocer la
información de un solo símbolo
Por qué determina la cantidad de información útil de ciertos datos y transmitidos de
forma eficiente.
14.- ¿Cuál es el significado de la entropía de una fuente de información?
La entropía tiene mucho que ver con la incertidumbre que existe en cualquier proceso y
también es la cantidad de ruido o desorden que contiene o libera un sistema.
15.- ¿Cuál es el significado de la entropía condicional?
Se constituye a partir de dos probabilidades condicionales entre 2 variables (comúnmente
X y Y) aleatorias.
También no permite determinar qué tan seguro es un sistema criptográfico.
Entre más incertidumbre tenga más difícil será de descifrar
6. CONCLUSIONES
Al terminar con el desarrollo de esta práctica puedo concluir que se cumplió con el objetivo
ya que logramos determinar el valor promedio de la información propia de un texto. en este
caso fue del texto llamado texto español, el valor promedio se obtuvo por medio de un
programa desarrollado en Matlab y también se obtuvo de forma teórica con ayuda de los
apuntes vistos en clase, los resultados teóricos y prácticos variaron muy poco pero esto lo
atribuyo a que teóricamente dejamos fuera decimales a la hora de hacer el cálculo, pero en
general se concluyó de forma satisfactoria ya que se cumplió con el objetivo, se obtuvo un
aprendizaje que en resumen fue que Los símbolos con menor probabilidad son los que
aportan mayor información y viceversa.
probabilidad que puede tener cada uno de los simbolos en el mensaje emitido.
Gracias a esta práctica pudimos ver cómo se desarrolla el programa para obtener la
información propia. Nos basamos en la fórmula de entropia para obtener estos valores y así
compararlos con lo visto en clase de manera práctica. Es Interesante ver cómo en este caso,
la entropia nos ayuda en el tema de fuentes discretas con memoria, como en la información
que lleva cada símbolo en un texto así como la información propia promedio.
En conclusión está práctica se llevó a cabo de manera exitosa ya que los valores obtenidos en
MATLAB, coinciden con los requerimientos de la práctica , además de esto pudimos observar
de manera práctica el tema de entropia en un texto y cómpralos con los conocimientos
teóricos de clase.
7. BIBLIOGRAFÍA
[1].- Haykin, Simon. Sistemas de Comunicación , Limusa, México, 2002, 685 págs.
[2].- Sklar, Bernard, Digital Communications Fundamental and Applications,2ª ediciòn, Prentice Hall, USA,
2001 450 págs.
[3]. John G. Proakis, Digital Communications,. 3rd Edition, Mc Graw-Hill, Inc. International Editions 1995,
928 págs.
[4]. Jayant N.S. Noll, Digital Coding of Waveforms, Prentice Hall, Englewood Cliffs, NJ, 1984.
[5]. MATLAB, Manual del usuario