Está en la página 1de 2

UNIVERSIDAD CENTRAL DEL ECUADOR

FACULTAD DE INGENIERÍA QUÍMICA


METODOLOGÍA DE LA INVESTIGACIÓN

Integrantes:

 Armas Maribel
 Calvopiña Gisela
 Constante Yessenia
 Reyes Karen
 Tibán Alexis
 Joseph Venegas

Docente: Dr. Edward Jiménez

INTRODUCCIÓN

El análisis del desorden y complejidad del universo ha sido la problemática de los científicos para
el entendimiento de los sistemas cuánticos y galácticos. Se han formulado diferentes concepciones
y relaciones de la entropía con otras temáticas. En la naturaleza existe una relación entre entropía
y probabilidad cuando se hace referencia a los posibles estados y microestados de un sistema
molecular, esta relación intrínseca nace cuando su fase se analiza como un proceso que se efectúa
espontáneamente y, por lo tanto, como lo anuncia Clausius, su entropía crece, y al estar
constituido de N partículas, la aleatoriedad crece junto con la entropía [1]. En Base a lo expuesto,
el estado de un sistema está sujeto al comportamiento ordenado o desordenado de sus
constituyentes, esto quiere decir que mientras mayor entropía, mayor será la probabilidad que un
sistema cambie entre estados [2].

En 1870 Ludwing Boltzman propuso una definición de entropía, que permite comprender las
leyes de la termodinámica en términos de las probabilidades, de encontrar un sistema físico en
una superposición de estados, para esto introdujo el término de la máxima entropía en la
distribución de probabilidades asociada al equilibrio termodinámico [3].

El mayor aporte que hizo Boltzman a la Física se refleja en la ecuación: S=k*log W. Donde S es
la entropía de un sistema, k es la constante de Boltzman, W el número de microestados posibles
de sus partículas elementales. En esta breve ecuación se encierra la conexión entre el micromundo
y el macromundo. Una cualidad muy sutil de esta ecuación es el hecho de que puede
simultáneamente disminuir la entropía de un sistema y a la vez crearse estructuras ordenadas [4].

La evolución de los sistemas es inherente al paso del tiempo, siempre serán irreversibles, pero a
su vez, siempre buscarán un equilibrio. La entropía alcanzará un máximo cuando el sistema se
acerque al equilibrio. De este modo, toda entidad, sistema u organización está sujeta a la ley de la
entropía. El conjunto de leyes fundamentales como la de la entropía, hacen posible el nacimiento
y desarrollo, de todas las entidades que existen en el universo.
Schröedinger empezó a considerar cómo es que un ser vivo podía mantenerse organizado dentro
de un universo que, de forma global, se desorganiza [5].

En 1974, Stephen Hawking propuso la existencia de la “Radiación de Hawking” que describe la


radiación de un cuerpo negro, debido a los efectos cuánticos cerca del horizonte de sucesos.
Hawking emplea el concepto de entropía como una variable matemática que describe el
comportamiento de cuerpos negros en función de constantes termodinámicas y cuánticas. De igual
forma; Jacob Bekenstein, predijo que los agujeros negros deben tener una entropía finita, pero
máxima [6].
UNIVERSIDAD CENTRAL DEL ECUADOR
FACULTAD DE INGENIERÍA QUÍMICA
METODOLOGÍA DE LA INVESTIGACIÓN

Maxwell propone la existencia de eventos naturales altamente sensibles a las condiciones externas
impuestas por el medio que hace imposible la predicción de los estados futuros del mismo, sin
embargo, plantea que estando alejado del equilibrio termodinámico puede que un sistema por
cuenta propia llegue a una elección para nosotros de manera enigmática [7].

El concepto de entropía también ha sido utilizado en el campo de la informática, el matemático


estadounidense Claude Shannon propuso que la entropía es una magnitud que mide la información
provista por una fuente de datos en forma de números de dígitos binarios, o bits, necesarios para
codificarlo [8].

BIBLIOGRAFÍA

[1] Una Interpretación Estadística de la Entropía. (1988) (1st ed., p. 3). Quito. Retrieved from
http://repositorio.educacionsuperior.gob.ec/bitstream/28000/141/1/Una%20interpretaci%C3%B
3n%20estad%C3%ADstica%20de%20la%20entrop%C3%ADa.pdf
[2] The Statistical Definition of Entropy and Randomness. (2018). Web.mit.edu. Retrieved 1
May2018, from:http://web.mit.edu/16.unified/www/FALL/thermodynamics/notes/node57.html
[3] Tsallis, C., (2015) Complejidad y la Entropía No- Aditiva. Volumen 26, Numero 3, editorial
real sociedad española de física, España. Recuperado el [01 de mayo del 2018] de:
https://bit.ly/2I6GaRC
[4] Angulo, J. (2016). Física. Madrid: Real Sociedad Española de Física.
[5] Guillermo Mattei. La relación entre la ley de la entropía y el origen de la vida Inevitable vida.
Recuperado de http://users.df.uba.ar/gmattei/EXM56_EntropiaVida.pdf
Entropía, de Esteban Calzetta (2009), INET, Ministerio de Educación de la Nación
[6] Black Holes and Thermodynamics. S.W. Hawking (Caltech & Cambridge U.). 1976.
Published in Phys.Rev. D13 (1976) 191-97, DOI: 10.1103/PhysRevD.13.191
[7] Statistical Mechanics. (2015) Neo-Darwinism and the Prefiguration of the Science of
Complexity.
[8] Alcalá J., (2017/02). Information and entropy. Evolution and Environment, Research
Institute on Human Evolution A.C. Recuperado de:
http://www.iieh.com/informacion/articulos/informacion/informacion-informacion-y-
entropia#Nota3

También podría gustarte