Está en la página 1de 1

La deteccin de entropa en los sistemas

orientados a la ingeniera civil y su posterior


correccin.

Qu es entropa?

En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la


informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de
una fuente de informacin.

La entropa tambin se puede considerar como la cantidad de informacin promedio que contienen
los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor informacin;
por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras
frecuentes como que, el, a aportan poca informacin, mientras que palabras menos
frecuentes como corren, nio, perro aportan ms informacin.

En sentido figurado entropa significa DESORDEN.


En la terminologa de los sistemas, el desorden lleva a la muerte o desintegracin del
sistema.
Ms que hablar de DESORDEN, la entropa es una medida de la dispersin que existe
dentro de un sistema.
La entropa medira no slo la prdida de informacin, sino cunta informacin an no
est acomodada en donde debe terminar (por ejemplo, el nmero de operaciones en un
algoritmo antes de llegar al valor esperado que satisfaga).

También podría gustarte