La biografía de Shannon está llena de los frutos de su ingenio, con numerosas
aplicaciones en el campo de las máquinas automáticas, desde un ratón electrónico hasta un WC automático, pasando por diversos juego electrónicos de ajedrez, calculadoras, instrumentos musicales, juguetes mecánicos, relojes, etc. El artículo empieza primeramente mencionando a Claude Shannon, y sus contribuciones al campo de las ciencias de la computación, resaltando la publicación de su ensayo titulado “A mathematical theory of communication”, que en español traduce a “Una teoría matemática de la comunicación”. En este ensayo, Shannon intentó mostrar que la información puede ser medida independientemente de su aspecto semántico y que toda fuente de datos podría ser descrita de forma única con respecto al contenido de la información. Además, aseguró que una transmisión de datos libre de errores debería ser posible si la tasa de información es más pequeña que la llamada capacidad del canal. El nombre de Shannon está relacionado con dos teoremas, los cuales han tenido un gran impacto en las comunicaciones digitales. El primero hace referencia al número de bits necesarios para describir de forma única una fuente de información que puede alcanzar el contenido de la información correspondiente tan cercanamente como sea deseado. El segundo hace referencia a la tasa de errores de datos transmitidos sobre un canal ruidoso con banda limitada que puede ser reducido a una cantidad arbitrariamente pequeña si la tasa de información es más baja que la capacidad del canal. Las consecuencias que tuvieron las consideraciones de Shannon aparecieron con el teorema de la codificación para canales con ruido, el cual fue aceptado inmediatamente, aunque en un principio, no lo fue, en parte por ejemplo porque introdujo la noción de “capacidad de canal”, donde el ancho de banda junto con la relación señal ruido determina la calidad del canal de transmisión, una relación que no había sido vista desde hacía mucho tiempo. Una mirada a la historia de los esquemas de corrección de errores hacia adelante permite ver lo importante que fueron para el desempeño de las telecomunicaciones por módem. Desde los años 60, la tasa de transferencia de datos ha incrementado sustancialmente. Esto fue principalmente logrado gracias a la implementación de esquemas de modulación de ancho de banda eficientes. Análisis del articulo “The 50th anniversary of information theory”.
Estudia el flujo de las ondas electromagnéticas a través de un circuito. Distingue
claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción. En el artículo se explica que los descubrimientos de Shannon han permitido el desarrollo de distintas tecnologías usadas para la elaboración de códigos de corrección de errores y los códigos de bloque. Shannon abrió el camino para muchas investigaciones que llevarían a cabo otros académicos, desarrollando distintas implementaciones de los teoremas de Shannon. Básicamente, en el análisis del texto, se dice que antes de las contribuciones de Shannon, términos como “entropía” o “capacidad de canal” no habían sido desarrollados. El criterio para desarrollar esquemas de diseño de transmisiones análogas era la relación señal ruido y el ancho de banda. El primer artículo tomado en cuenta por Shannon en sus investigaciones fue el ensayo de Nyquist de 1924, donde se prueba que una señal de banda limitada y continua puede ser descrita de forma única de forma discreta si la frecuencia que se muestra es al menos el doble del ancho de banda. El otro artículo es el de Hartley, donde se muestra que la información debe ser definida como el logaritmo de la probabilidad del correspondiente mensaje. Shannon se dio cuenta que este argumento es sólo verdadero si los mensajes tienen igual probabilidad y si están idénticamente distribuidos. Fue Shannon quien se dio cuenta instantáneamente que el logaritmo dual jugaría un importante rol en este contexto. Él designó el contenido de la información de una fuente de datos como “entropía”, y bautizó la unidad de información como “digito binario” ó simplemente “bit”.