Está en la página 1de 24

3.

1
4
ENTROPÍA
Y
SINERGIA
 ¿Qué es la entropía?

La entropía es la tendencia de los


sistemas a desgastarse, a
desintegrarse, para el relajamiento de
los estándares y un aumento de la
aleatoriedad. La entropía aumenta al
pasar el tiempo. Si aumenta la
información, disminuye la entropía ya
que la información es la base de la
configuración y el orden.
Entropía es un concepto en:
 teoría de la información.

 mecánica estadística

 termodinámica,
La Entropía se concibe como una "medida
del desorden" o la "peculiaridad de ciertas
combinaciones".

La Entropía puede ser considerada


como una medida de la incertidumbre, y
la información tiene que ver con
cualquier proceso que permite acotar,
reducir o eliminar la incertidumbre;
resulta que el concepto de información y
el de entropía están ampliamente
relacionados entre sí.
Entender la entropía como
una medida del desorden de
los procesos naturales es
fácil, si se analizan ejemplos
prácticos: una casa
abandonada se deteriora, las
máquinas que no reciben
mantenimiento se convierten
en chatarra, los seres vivos
envejecen, etc.
En una fábrica de ropa, el
grupo de logística tiene que
hacer un inventario de todos
aquellos recursos que se
utilizan, puede clasificarlo de
acuerdo al tamaño, color,
forma material u otro, el
objetivo es que se pueda
obtener estos productos en el
momento cuando se requieran;
pero si surge cualquier cambio
inesperado en el grupo de
logística, entonces habrá un
desorden en la clasificación de
dichos materiales, por lo cual
se produce la pérdida del
orden, y se entra en una zona
de caos.
Si consideras que la
humanidad es un sistema,
hay entropía en ella, por
ejemplo, en época de
elecciones para presidente
de la república, hay un gran
desorden provocado por el
anuncio y el propio proceso
de elección. Este también
es un fenómeno natural y
por tanto existe entropía
en él. La entropía tiende
siempre a aumentar en todo
proceso espontáneo.
Ejemplos de máxima entropía :
Suponiendo que estamos a la espera de un texto ,
por ejemplo un cable con un mensaje. En dicho
cable solo se reciben las letras en minúscula de la
a hasta la z, entonces si el mensaje que nos llega
es "qalmnbphijcdgketrsfuvxyzwño" el cual posee
una longitud de 27 caracteres , se puede decir que
este mensaje llega a nosotros con la máxima
entropía (o desorden posible) ya que es poco
probable que se pueda pronosticar la entrada de
caracteres ya que estos no se repiten y además no
están ordenados en una forma predecible.
 Ley de la entropía
 El concepto básico de entropía en teoría
de la información tiene mucho que ver con
la incertidumbre que existe en cualquier
experimento o señal aleatoria. De esta
forma, podremos hablar de la cantidad de
información que lleva una señal.
 La entropía nos indica el límite teórico
para la compresión de datos. También es
una medida de la información contenida
en el mensaje.
 ¿Qué es la Sinergia?
 La sinergia es la acción de dos o más causas
cuyo efecto es superior a la suma de los
efectos individuales.

La sinergia es un concepto que proviene del


griego "synergo", lo que quiere decir
literalmente "trabajando en conjunto". Su
significado actual se refiere al fenómeno en
que el efecto de la influencia o trabajo de dos
o más agentes actuando en conjunto es mayor
al esperado considerando a la sumatoria de la
acción de los agentes por separado.
p ro duce
s i n e rgia j ores
La m e
o lu c i ones uestas
s prop
l as nte.
que a lm e
du
indivi
 EJEMPLOS:

Los sistemas sociales. -Son


siempre sinérgicos; un
ejemplo de ello es una
escuela, ya que está
compuesta por un lugar físico,
una plana docente, un plan de
estudios y los estudiantes. Si
faltase uno de estos
elementos, no se podría
llamar escuela y estos
elementos ya mencionados
deben estar
interrelacionados.
 Coros y equipos deportivos
 La sinergia en el trabajo

Uno de los ejemplos típicos de la


manifestación de la sinergia son los
lugares de trabajo donde existen metas
claras y profundo respeto por las
personas.
Los aviones.- Cada parte que conforma un avión no
podrá cumplir debidamente su función y lograr el
objetivo para el cual fue creado (volar), si sus partes
se encuentran aisladas.
3.1
4
CARACTERÍSTICAS
DE LOS
SISTEMAS.
De la definición de Bertalanffy,
Bertalanffy según la cual
el sistema es un conjunto de unidades
recíprocamente relacionadas, se deducen
dos conceptos: el propósito (u objetivo) y el
de globalismo (o totalidad).
Estos dos conceptos reflejan dos
características básicas en un
sistema.
 Propósito u objetivo:

Todo sistema tiene uno o


algunos propósitos u objetivos.
Las unidades o elementos, como
también las relaciones, definen
una distribución que trata
siempre de alcanzar un objetivo.
Globalismo o totalidad:

Todo sistema tiene una naturaleza orgánica, por


la cual una acción que produzca cambio en una
de las unidades del sistema, con mucha
probabilidad producirá cambios en todas las
otras unidades de éste. En otros términos,
cualquier estimulación en cualquier unidad del
sistema afectará todas las demás unidades,
debido a la relación existente entre ellas.
ellas El
efecto total de esos cambios o alteraciones se
presentará como un ajuste del todo al sistema.
 El sistema siempre reaccionará
globalmente a cualquier estímulo
producido en cualquier parte o unidad.

 Existe una relación de causa y efecto


entre las diferentes partes del sistema.

 De los cambios y de los ajustes


continuos del sistema se derivan dos
fenómenos el de la entropía y el de la
homeostasis.
SISTEMAS:

DUROS
Y
SUAVES