Está en la página 1de 1

La teoría de la información es una rama de la matemática aplicada que utiliza el

cálculo de la probabili-dad. Se originó en 1920, con los trabajos de Leo Szilar y


H. Nyquist, y se desarrolló con las contribuciones de Hartley, Claude Shannon,
Kolmogorov, Norbert Wierner

La teoría de la información surgió con las investigaciones de Claude E. Shannon y


Warren Weaver" para la Bell Telephone Company, en el campo de la telegrafía y
telefonía, en 1949. Ambos formulan una teoría general de la información,
desarrollando un método para medir y calcular la cantidad de información, con base
en resultados de la física estadística.

Su teoría sobre comunicaciones difería de las anteriores en dos aspectos:!™ por


introducir nociones de estadística y por ser su teoría macroscópica y no mi-
croscópica, pues visualizaba los aspectos amplios y generales de los dispositivos
de comunicaciones.
El sistema de comunicación tratado por la teoría de las informaciones consiste en
seis componentes: fuen-te, transmisor, canal, receptor, destino y ruido.
1. Fuente significa persona, cosa o proceso que emite o provee los
mensajes,
2. Transmisor significa el proceso o equipo que opera el mensaje,
transmitiéndolo de la fuente al canal
3. Canal significa el equipo o espacio intermedio entre el transmisor y el
receptor.
4. Receptor significa el proceso o equipo que recibe el mensaje en el
canal. El receptor decodifica el mensaje para colocarlo a disposición del destino.
5. Destino significa la persona, cosa o proceso al que se destina el
mensaje en el punto final del sistema de comunicación.

También podría gustarte