Está en la página 1de 1

El código de Hamming es un tipo de código de corrección de errores utilizado

en la transmisión de datos para detectar y corregir errores que puedan ocurrir


durante la transmisión. Fue desarrollado por el matemático estadounidense
Richard Hamming en 1950.

Este código utiliza una técnica de redundancia que consiste en agregar bits de
verificación a un conjunto de datos que se van a transmitir. Los bits de
verificación se calculan en función de los bits de datos utilizando una fórmula
matemática.

Cuando los datos se reciben en el otro extremo, se vuelven a calcular los bits de
verificación utilizando la misma fórmula y se comparan con los bits de
verificación enviados. Si hay una discrepancia entre los bits de verificación
recibidos y los calculados, se puede deducir que se ha producido un error y se
puede corregir.

El código de Hamming utiliza una técnica de detección y corrección de errores


de un solo error, lo que significa que puede detectar y corregir un solo error en
los datos transmitidos. También se pueden utilizar variantes del código de
Hamming para corregir múltiples errores.

El código de Hamming es ampliamente utilizado en la transmisión de datos


digitales en sistemas de comunicación y redes informáticas. Es particularmente
útil en aplicaciones donde se requiere una alta fiabilidad en la transmisión de
datos, como en sistemas de control industrial, sistemas de telemetría y sistemas
de almacenamiento de datos.

También podría gustarte