Documentos de Académico
Documentos de Profesional
Documentos de Cultura
EntropiaInfo Frodden-Royo04 PDF
EntropiaInfo Frodden-Royo04 PDF
efrodden@zeth.ciencias.uchile.cl jimenar@zeth.ciencias.uchile.cl
La Termodinámica se ocupa de estudiar los sistemas en equilibrio, defiendo para estos una función
de sus variables extensivas llamada entropı́a. Este concepto se generaliza en Mecánica Estadı́stica
para los sistemas fuera del equilibrio, en base a las probabilidades de sus posibles distribuciones
microscópicas; esta formulación predice una entropı́a nula para un sistema en un microestado par-
ticular. Para que el sistema se encuentre en un microestado fijo debemos tener toda la información
del mismo, por lo tanto la entropı́a del sistema es dependiente de la capacidad de observación de
cada individuo. En este trabajo ocuparemos las ideas y resultados de la Teorı́a de Información
Algorı́tmica y de la Teorı́a de la Información para reformular la entropı́a de modo que ésta sea una
caracterı́stica intrı́nsica de los sistemas y no una propiedad del observador.
Notemos que este número es proporcional a la desinfor- Notemos que 106 ≈ 220 o sea para un estadio con 20
mación microscópica de A, ya que mientras más microes- asientos el error es pequeñı́simo. Obsérvese que el estadio
tados existan mayor es nuestra desinformación sobre el nacional de Chile tiene 70.000 asientos.
sistema ó la incerteza del mismo. Ocupando esta aproximación en (7) obtenemos
Considérese un sistema compuesto A + B, un microes-
tado será la combinación de un microestado de A con un W
X ni ni
microestado de B, por lo tanto la cantidad de microes- S = −k ln (9)
N N
tados posibles de A + B, MA+B , es i=1
sistema es menor para le primer observador que para el definen la entropı́a de un sistema -ya sea termodinámico
segundo!!! ó informacional- basandose en las probabilidades de sus
posibles microestados y se interpreta como una medida
de la desinformación que tenemos sobre el sistema. Esto
A. ¿Es posible definir la entropı́a de un implica que si tenemos una descripción completa del
microestado particular? sistema la entropı́a del mismo serı́a nula al igual que para
un microestado particular ya que este está totalmente
W.H. Zurek[3] sostiene la hipótesis de que la entropı́a es determinado. Esta interterpretación es poco satisfactorı́a
una propiedad objetiva de los sistemas fı́sicos, siguiendo por que considera a la entropı́a como una propiedad
este razonamiento encontramos que para un sistema con del observador y no una caracterı́stica intrı́nsica del
todas sus variables fijas la entropı́a no es cero, ya que no sistema. Zurek, Machta y otros proponen una visión de
depende de nuestra desinformación del mismo. la entropı́a como una propiedad objetiva de los sistemas.
Recordando el contenido de información algorı́tmica, La Teorı́a de Información Algorı́tmica dice que I ∼ = hKi
sea ψ un sistema descrito por un conjunto de mensajes si donde la igualdad se verifica cuando las cantidades de
cada uno con probabilidad pi de ser enviados, definimos información involucradas son “grandes”; ocupando este
la información algorı́tmica promedio como resultado definimos la entropı́a de un sistema como I(s)
X cuando el sistema tiene varios microestados posibles y
hKiψ ≡ pi K(si ) (15) K(s) cuando estamos refieréndonos a un microestado
i particular con todas sus variables fijas. De este modo
Un importante resultado de la teorı́a de información al- logramos que la entropı́a sea una propiedad objetiva
gorı́tmica es 2 de los sistemas, ya que depende de cuanta información
contiene el sistema en vez de cuanta información tenemos
nosotros sobre el sistema. Esta última definición no es
hKi ∼
=I (16) muy práctica para cálculos numéricos pero es de mayor
A mayor catidad de microestados del sistema menor es la claridad teórica y permite poner en evidencia la cercanı́a
diferencia entre hKi e I; por ejemplo sı́ consideramos el entre información y entropı́a.
caso de un sistema termodinámico en el equilibrio, como
ya vimos, las probabilidades de los microestados están
fuertemente determinadas por la homogeneidad del sis- 1
En su libro “A Mathemathical Theory of Commu-
tema y por ende son fácilmente describibles por K0 , por nication” Shannon demuestra que eligiendo axio-
otra parte cuando aplicamos la termodinámica a un sis- mas análogos a i, ii,iii para la transmisión probabi-
tema nos estamos refiriendo a un orden de partı́culas lı́stica de mensajes, existe una única función –salvo
1023 por lo tanto tenemos intuitivamente una grán canti- multiplicación por una constante– que satisface la
dad de información y un conjunto de probabilidades muy ecuación (12).
parecidas y en esta situación K0 es despreciable respecto
a la cantidad de microestados posibles y la ecuación es 2
Una detallada demostración de este resultado se
escencialmente exacta. encuentra en la referencia [3].
Basandonos en la igualdad explicada anteriormente pode-
[1]
mos escribir la nueva definición de entropı́a como G.J. Chaitin, “Gödel’s Theorem and Information”,
International Journal of Theoretical Physics 22,
S ≡ κhKi (17) 941-954 (1982)
La ventaja de esta definición es que para un estado fijo [2]
C.E. Shannon, “A Mathematical Theory of Com-
donde el sistema está totalmente determinado indepen- munication”, reimpreso con correcciones de The
diente de aquello que el observador conozca o entienda Bell Sistem Technical Journal, Vol. 27, Julio, Oc-
por información, la entropı́a no es cero, ya que el microes- tubre (1948)
tado, en si mismo, contiene información. En particular
el valor de la entropı́a será el contenido de información [3]
W.H. Zurek , “Algorithmic randomness and physi-
algorı́tmica de la secuencia que mide este microestado, cal entropy”, Phys. Rev. A 40, 4731-4751 (1989)
esto se observa en la ecuación (15).
[4]
J. Machta , “Entropy, information, and computa-
tion”, Am.J.Phys. 67, Diciembre (1989)
V. RESUMEN [5]
R.E.Lagos, “Fı́sica Estadı́stica, Resumo Informal”,
UNESP Rio Claro (1999)
El contenido de información algorı́tmica de un sistema
s se define como el tamaño en bits del menor programa [6]
C.M. Caves, “Information and entropy” in
computacional capaz de comprimir/descomprimir una Maxwell’s Demon 2: Entropy, Classical and Quan-
completa descripción de cada microestado del sistema y tum Information, Computing.
su probabilidad. En la visión clásica Shannon y Gibbs