Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Adriana Prez
Cdigo 778
Entropa
Introduccin:
Su trmino fue planteado por Rudolf J. E. Clausius en 1850 se introdujo para
poder medir el grado de identidad de distribucin de la energa. En el siglo XIX se
defini en fsica como el desorden que existe entre las partculas.
Existen tres tipos de entropa:
o La que se encuentra en termodinmica
o La de mecnica estadstica
o La informacional
Es muy asociada a la termodinmica ya que se puede medir las partculas de
estados en un determinado sistema.
La entropa es capaz de medir la capacidad aleatoria que existe en un sistema que
fue propuesta por Shannon en 1948.
Shannon ofreci una serie de afirmaciones con la cual se poda definir exactamente
lo que es entropa.
La primera Ley de Einstein muestra que la entropa es la igual a la disminucin de
energa.
En mecnica estadstica la entropa es una magnitud fsica de la energa que no se
puede utilizar en un trabajo.
En la informacin, una seal puede enviar distintos mensajes que pueden ser
escogidos en distinto orden por las revelaciones que se han dado con los aos.
Concepto:
Su significado tiene que ver con la informacin y transmisin de la seal aleatoria
es la medida de comunicacin e incertidumbre que posee smbolos necesarios para
tratar un proceso.
La entropa es ms aceptada en la informacin que en las otras ramas pero este
trmino no es muy aceptado su concepto es objetivo ya que tiene atributos humanos
como la incertidumbre y la ignorancia que en parte es un poco subjetiva.
Tambin se la puede definir como el ruido que se encuentra en el ambiente as
como el desorden que puede contener o dejar un sistema. Siendo as la proporcin
de informacin que contiene una seal.
Shannon nos da diversas maneras de definir a la entropa donde afirma lo siguiente:
Propiedades de la Entropa
1. La entropa no puede ser negativa debido a que su probabilidad es pi.
2. La funcin H es mxima cuando se presente que 1 = 2 = = 1/ que
se dan en procesos que contienen posibles resultados.
3. Si se tiene probabilidades relativas en la funcin , es nula dado el caso que
= 0 para todo i, que tiene como excepcin una clase y se cumple que =
1.Esto se da en procesos que contienen resultados posibles.
4. La informacin de una fuente crece paulatinamente al incrementar la fuente
de memoria nula q.
Se puede dar como ejemplo de una fuente de informacin nula, una fuente
binaria de memoria nula.
Bibliografa:
o Castillo, Adolfo. (2012) Asociacin de la Entropa con la Informacin
perdida Disponible en: http://www.tendencias21.net/cogno/Informacion-yEntropia-de-la-Entropia-como-medida-del-desorden-a-la-asociacion-de-laEntropia-con-la-Informacion-perdida_a135.html
o Marcos
Alfredo
Informacin
y
Entropa
Disponible
en:
https://www.google.com.ec/url?sa=t&rct=j&q=&esrc=s&source=web&cd=6&
ved=0CD4QFjAF&url=http%3A%2F%2Fwww.fyl.uva.es%2F~wfilosof%2Fw
ebMarcos%2Ftextos%2FENTRO2.DOC&ei=YUxQVMeqFIafNr1gzg&usg=AFQjCNEYx1WPFd7N_4HhIK2gM9nPxbEtbg&cad=rja
o Ferreyra, Marcelo Data Mining basado en la Teora de la Informacin.
Disponible en:
http://web.austral.edu.ar/images/contenido/facultad-ingenieria/2Data_Mining_basado_Teoria_Informacion_Marcelo_Ferreyra.pdf
o Carrin, Klever (2012) Comunicaciones Digitales. Disponible en:
http://es.slideshare.net/EduNeira22/entropia-20704475
o Hoyos, Alberto Entropa (informacin ) Disponible en :
1
http://es.slideshare.net/GAlbertoHoyos/entropia-13460269