0 calificaciones0% encontró este documento útil (0 votos)
8 vistas1 página
La teoría de la información se originó en los años 20 y se desarrolló con contribuciones de varios científicos. Claude Shannon formuló una teoría general de la información en 1949 para medir y calcular la cantidad de información en sistemas de comunicación, introduciendo nociones estadísticas. Su teoría visualizaba aspectos amplios de los dispositivos de comunicación y consiste en seis componentes: fuente, transmisor, canal, receptor, destino y ruido.
La teoría de la información se originó en los años 20 y se desarrolló con contribuciones de varios científicos. Claude Shannon formuló una teoría general de la información en 1949 para medir y calcular la cantidad de información en sistemas de comunicación, introduciendo nociones estadísticas. Su teoría visualizaba aspectos amplios de los dispositivos de comunicación y consiste en seis componentes: fuente, transmisor, canal, receptor, destino y ruido.
La teoría de la información se originó en los años 20 y se desarrolló con contribuciones de varios científicos. Claude Shannon formuló una teoría general de la información en 1949 para medir y calcular la cantidad de información en sistemas de comunicación, introduciendo nociones estadísticas. Su teoría visualizaba aspectos amplios de los dispositivos de comunicación y consiste en seis componentes: fuente, transmisor, canal, receptor, destino y ruido.
La teoría de la información es una rama de la matemática aplicada que utiliza el
cálculo de la probabili-dad. Se originó en 1920, con los trabajos de Leo Szilar y
H. Nyquist, y se desarrolló con las contribuciones de Hartley, Claude Shannon, Kolmogorov, Norbert Wierner
La teoría de la información surgió con las investigaciones de Claude E. Shannon y
Warren Weaver" para la Bell Telephone Company, en el campo de la telegrafía y telefonía, en 1949. Ambos formulan una teoría general de la información, desarrollando un método para medir y calcular la cantidad de información, con base en resultados de la física estadística.
Su teoría sobre comunicaciones difería de las anteriores en dos aspectos:!™ por
introducir nociones de estadística y por ser su teoría macroscópica y no mi- croscópica, pues visualizaba los aspectos amplios y generales de los dispositivos de comunicaciones. El sistema de comunicación tratado por la teoría de las informaciones consiste en seis componentes: fuen-te, transmisor, canal, receptor, destino y ruido. 1. Fuente significa persona, cosa o proceso que emite o provee los mensajes, 2. Transmisor significa el proceso o equipo que opera el mensaje, transmitiéndolo de la fuente al canal 3. Canal significa el equipo o espacio intermedio entre el transmisor y el receptor. 4. Receptor significa el proceso o equipo que recibe el mensaje en el canal. El receptor decodifica el mensaje para colocarlo a disposición del destino. 5. Destino significa la persona, cosa o proceso al que se destina el mensaje en el punto final del sistema de comunicación.