Está en la página 1de 2

Resumen del articulo “The 50th anniversary of

information theory”.

Autor: Orlando Steven Ordoñez Castro

La biografía de Shannon está llena de los frutos de su ingenio, con numerosas


aplicaciones en el campo de las máquinas automáticas, desde un ratón electrónico
hasta un WC automático, pasando por diversos juego electrónicos de ajedrez,
calculadoras, instrumentos musicales, juguetes mecánicos, relojes, etc.
El artículo empieza primeramente mencionando a Claude Shannon, y sus
contribuciones al campo de las ciencias de la computación, resaltando la
publicación de su ensayo titulado “A mathematical theory of communication”, que
en español traduce a “Una teoría matemática de la comunicación”. En este
ensayo, Shannon intentó mostrar que la información puede ser medida
independientemente de su aspecto semántico y que toda fuente de datos podría
ser descrita de forma única con respecto al contenido de la información. Además,
aseguró que una transmisión de datos libre de errores debería ser posible si la
tasa de información es más pequeña que la llamada capacidad del canal.
El nombre de Shannon está relacionado con dos teoremas, los cuales han tenido
un gran impacto en las comunicaciones digitales. El primero hace referencia al
número de bits necesarios para describir de forma única una fuente de información
que puede alcanzar el contenido de la información correspondiente tan
cercanamente como sea deseado. El segundo hace referencia a la tasa de errores
de datos transmitidos sobre un canal ruidoso con banda limitada que puede ser
reducido a una cantidad arbitrariamente pequeña si la tasa de información es más
baja que la capacidad del canal. Las consecuencias que tuvieron las
consideraciones de Shannon aparecieron con el teorema de la codificación para
canales con ruido, el cual fue aceptado inmediatamente, aunque en un principio,
no lo fue, en parte por ejemplo porque introdujo la noción de “capacidad de canal”,
donde el ancho de banda junto con la relación señal ruido determina la calidad del
canal de transmisión, una relación que no había sido vista desde hacía mucho
tiempo.
Una mirada a la historia de los esquemas de corrección de errores hacia adelante
permite ver lo importante que fueron para el desempeño de las
telecomunicaciones por módem. Desde los años 60, la tasa de transferencia de
datos ha incrementado sustancialmente. Esto fue principalmente logrado gracias a
la implementación de esquemas de modulación de ancho de banda eficientes.
Análisis del articulo “The 50th anniversary of
information theory”.

Estudia el flujo de las ondas electromagnéticas a través de un circuito. Distingue


claramente entre mensaje y el medio por el que éste se transmite. Al tiempo,
analiza cómo medir la eficacia de un canal de comunicación a través del concepto
de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las
pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje,
y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la
redundancia y la codificación numérica en el origen del proceso de comunicación y
su descodificación en la fase de recepción.
En el artículo se explica que los descubrimientos de Shannon han permitido el
desarrollo de distintas tecnologías usadas para la elaboración de códigos de
corrección de errores y los códigos de bloque. Shannon abrió el camino para
muchas investigaciones que llevarían a cabo otros académicos, desarrollando
distintas implementaciones de los teoremas de Shannon. Básicamente, en el
análisis del texto, se dice que antes de las contribuciones de Shannon, términos
como “entropía” o “capacidad de canal” no habían sido desarrollados. El criterio
para desarrollar esquemas de diseño de transmisiones análogas era la relación
señal ruido y el ancho de banda. El primer artículo tomado en cuenta por Shannon
en sus investigaciones fue el ensayo de Nyquist de 1924, donde se prueba que
una señal de banda limitada y continua puede ser descrita de forma única de
forma discreta si la frecuencia que se muestra es al menos el doble del ancho de
banda. El otro artículo es el de Hartley, donde se muestra que la información debe
ser definida como el logaritmo de la probabilidad del correspondiente mensaje.
Shannon se dio cuenta que este argumento es sólo verdadero si los mensajes
tienen igual probabilidad y si están idénticamente distribuidos. Fue Shannon quien
se dio cuenta instantáneamente que el logaritmo dual jugaría un importante rol en
este contexto. Él designó el contenido de la información de una fuente de datos
como “entropía”, y bautizó la unidad de información como “digito binario” ó
simplemente “bit”.

También podría gustarte