Está en la página 1de 6

COMUNICACIONES

DIGITALES II
PHD(C). JORGE SAUL FANDIÑO PELAYO
PRINCIPIOS DE COMUNICACIONES
DIGITALES
• Se entiende por comunicación el proceso por el cual la información se transfiere desde un
punto en el espacio y tiempo llamado fuente a otro punto denominado destinatario.
• En consecuencia, un sistema de comunicación es la totalidad de mecanismos que proveen el
enlace de la información entre la fuente y el destinatario. Un sistema de comunicaciones
eléctrico efectúa esta función primariamente, pero no en forma exclusiva, mediante el uso de
dispositivos eléctricos.
• Todos los sistemas de comunicación tienen la misma función básica, la transmisión de la
información, y nosotros estamos particularmente interesados en la transmisión de la
información en forma eléctrica.
• Si bien las fuentes de información son diversas, incluyendo tanto máquinas como seres
humanos, resulta posible y conveniente distinguir dos tipos diferentes de mensajes:
analógicos y digitales.
• Un mensaje analógico es una magnitud física, variable en el tiempo según una función
continua. Es decir, dentro de cierto rango puede tomar infinitos valores. Así tenemos por
ejemplo la variación de presión sonora que produce la música o la palabra, la intensidad de
luz en una escena, el nivel de combustible en un depósito, etcétera.
Un mensaje digital es una secuencia ordenada de símbolos, seleccionados de un conjunto
finito de elementos discretos. Ejemplos de mensajes digitales son las letras de un texto, los
orificios de una cinta o una tarjeta perforada, los puntos y rayas del código Morse, etcétera.
TEORÍA DE LA INFORMACIÓN
• En el ámbito de la teoría de la información la entropía, también llamada entropía de
la información y entropía de Shannon (en honor a Claude E. Shannon), mide la
incertidumbre de una fuente de información. ... El concepto entropía es usado en
termodinámica, mecánica estadística y teoría de la información.
ENTROPÍA
• El concepto básico de entropía en teoría de la información tiene mucho que ver con la
incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad
de «ruido» o «desorden» que contiene o libera un sistema. De esta forma, podremos hablar
de la cantidad de información que lleva una señal.

También podría gustarte