Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teoría de La Información
Teoría de La Información
Contenidos:
1.Símbolos y Datos
2.Información
3.Diferencia entre Datos e Información
4.Conceptos de Teoría de la Información
5.Información y Certidumbre
6.Medida de la Información
7.Cantidad de Información
8.Información Mutua
9. Binit y Bit
10.Entropía
11.Tasa de Información
12.Obtención de la Información
13.Fuentes Continuas
14.Máxima capacidad de transferencia de
un Canal
15.Dígitos binarios en la transmisión de
información
16.Ley de Shannon - Hartley
Cualidades de la información
(Repaso)
Precisión
Exactitud
Oportunidad
Integridad
Significativa
Teoría de la Información
Concepto:
es una rama de la Teoría de la Matemática, de las probabilidades y de la
estadística que estudia todo lo relacionado con ellas.
La Teoría de la Información es una teoría matemática creada por Claude
Shannon en el año 1948 y que forma la piedra angular sobre la que se ha
desarrollado toda la teoría actual de la comunicación y la codificación.
Esta teoría establece los límites de cuánto se puede comprimir la
información y de cuál es la máxima velocidad a la que se puede transmitir
información. La Teoría de la Información es, por tanto una teoría de límites
alcanzables: máxima compresión de datos y máxima tasa de transmisión de
información transmitida sin errores.
Las aplicaciones de esta teoría son enormes y abarcan desde las ciencias
de la computación (criptografía, aprendizaje), la ingeniería eléctrica (Teoría
de la comunicación y teoría de la codificación), la estadística o la biología
(secuencias de ADN, código genético).
Esta teoría fue formulada en 1940 por el ingeniero Claude E.
Shannon, y aparece publicada por primera vez en octubre de
1948. Posteriormente el sociólogo Warren Weaver redactó un
ensayo destinado a enfatizar las bondades de esta propuesta, el
cual fue publicado en 1949.
TÉCNICO
SEMÁNTICO
PRAGMÁTICO
Nº Documento Persona
Atributos
Valor: Identificación
Especificación cuantitativa o
cualitativa de un atributo
Atributos conocidos como entes y sucesos
Representaciones simbólicas de propiedades o
cualidades de entes y sucesos, necesarios para
brindar antecedentes en la decisión ante una
acción concreta.
Características - Transmisión
- Almacenamiento
- Transformación
Representaciones simbólicas que por el
significado asignado (receptor),
contribuyen a disminuir la incertidumbre;
para decidir que acción tomar entre
varios caminos posibles.
Ej.: Información Descriptiva:
Paso a seguir para alcanzar el
objetivo.
Información de control:
Verificar se el accionar ha sido el
correcto.
Represtación simbólica
La información disminuye la
incertidumbre porque aporta
mayor conocimiento sobre un
tema.
Probabilidad:
se encarga de evaluar todas aquellas
actividades en donde se tiene “incertidumbre”, acerca de
los resultados que se puede esperar.
¿Por qué?
Conclusión:
Objetivo:
Hacer lo mas eficiente posible la transmisión de información,
con un número mínimo de errores.
U Y F E L I C E
S E N C L A S
E
.
Podemos observar como cada letra o carácter ocupa un cuadro y que inclusive
los espacios en blanco entre palabras y los signos de puntuación como el punto
también ocupan uno de los cuadros. Se han ocupado 29 cuadritos lo que nos
deja como resultado un espacio disponible en la hoja de 52 cuadros. Si una
frase de 5 palabras utilizó 29 espacios, entonces no es posible que una página
de un libro quepa en los 52 cuadros restantes. Podemos decir que cada carácter
equivale en medida de información a un byte. Es importante saber que un byte
está compuesto de 8 bits;
MÚLTIPLOS Y SUBMÚLTIPLOS DE LA UNIDAD BYTE
Unidad Múltiplos
B KB MB GB TB
Unidad
Byte KiloByte Megabyte Gigabyte Terabyte
Ruido
T CANAL R
n = Elementos codificado en
Ver anexo binarios
“ El número mínimo ‘n’ de elementos
codificados en binario necesarios para
identificar el mensaje entre un total de ‘N’
mensajes posibles”.
Si P = 1/ N (relación inversa
proporcional de ocurrencia del
mensaje)
N = 1/P
I = log2 N UNIDAD = bit
I = Log2 1/P
I = Log2 P-1
I = -1 Log2 P
Para eventos igualmente probables la
probabilidad:
P = NE Cantidad de elementos
Cantidad de variables
I = Log2 NE [ bit ]
Ejemplo:
Moneda: E = 1 (moneda)
N = 2 (cara/seca)
I = Log2 21 = 1 [ bit ]
Loga X
1
= . Logb X (uso Log10)
Log b a
Ej.: * Pantalla de 500 filas x 600 columnas
Puntos = 300.000
* C/Punto 10 tonos de grises
Imágenes distintas = NE = 10300.000
* Cantidad de información
I = Log2 NE = Log2 10300.000
I = E Log2 N = 300.000 . Log2 10
1
I= . Log10 10 . 300.000
Log10 2
I = 3.32 x 300.000 =10 6 bit
Informació Vs Cantidad de
n Información
Nº de símbolos necesarios
Significado de para codificar un mensaje
un conjunto en donde P es igual a la
de símbolos. probabilidad de ocurrencia
del mensaje.
Ej: Codificar:
A = 00001
B = 00010
C
.
W = 11000
P = 1/27 “Todas la letras tienen la misma
probabilidad de aparición”
I = Log2 1/P
I = Log2 (1/(1/27)) = Log2 27
I= 1
. Log10 27
Log10 2
I = 4, 7549 [ bit]
Mensajes a codificar Bit necesarios
Si Necesito despejar n N = 2n
Log N = Log 2n
Log2 N
=n
Log2 2
Log2 N
n= n = Log2 N
1
Volver
INFORMACION MUTUA
A A,B,C,D
B
Fuente Mensajes
C
D
Probabilidad de que un mensaje sea elegido para su
transmisión.
P(A) P(B) P(C) P(D)
IA = f(PA)
Información
mutua de A
Log b X
IA = logb 1
PA
Si b = 2 y Pa= Pb = 1 IA = 1 bit
2
Binit y Bit
E Pj log 1/pj
J=1 Ij
m = Cantidades de símbolos del alfabeto del mensaje.
0 < H < log m H = 0 No hay
incertidumbre,no
entrega información
Cuando H = logm = máxima incertidumbre.
máxima libertad de elección.
H = (p.log(1/p)+q.log(1/q))
Si q = 1- p Si m= 2
y H es la probabilidad de uno de los símbolos.
H = p log 1/p + (1 - p) log ( 1/(1-p))
OBTENCION DE INFORMACION
1- Percepción de Fenómenos Naturales.
2- Decodificación de lenguajes creados por el hombre.
3- Procesos de Datos.
símbolos a símbolos
Proceso
procesar requeridos
de datos
(Input) (output)
FUENTES CONTINUAS
2º Modelo:
a) Idem.
b) Cada símbolo tiene una probabilidad asociada de aparición.
P (espacio) = 0,1858 P (B) = 0,0127 H = 4,03 bits/símbolo
P (A) = 0,0642 P (Z) = 0,0005
3º Modelo:
a) Cada letra depende solamente del ultimo símbolo
transmitido.
b) Probabilidades reales
H = 3,32 bit/símbolo
4º Modelo:
a) Cada letra depende de las 2 anteriores.
b) Probabilidades reales.
H = 3,10 bits/símbolo
5º Modelo:
a) Conozca todo el texto anterior (recordar letras
anteriores)
b) Probabilidades anteriores.
H = 1bits/símbolo
Nota:
El 1º modelo necesita 5 bit para codificar, mientras que el 5º
solo 1 bit. Esté es más eficiente y rápido.
(5 veces más)