Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apellido: Cruz
Provincia: Salta
Historia y aplicaciones
Los primeros controladores PID empezaron con el diseño de los limitadores de
velocidad. Posteriormente los controladores PID fueron usados para la
dirección automática de barcos. Uno de los ejemplos más antiguos de un
controlador PID fue desarrollado por Elmer Sperry en 1911, mientras que el
primer análisis teórico de un controlador PID fue publicado por el ingeniero ruso
americano Nicolas Minorskyen 1922. Minorsky estaba diseñando sistemas de
dirección automática para la Armada de los Estados Unidos, y basó sus
análisis observando al timonel, notando así que el timonel controlaba la nave
no solo por el error actual, sino también en los errores pasados así como en la
tasa actual de cambio, logrando así que Minorsky desarrollara un modelo
matemático para esto. Su objetivo era lograr estabilidad, y no control general, lo
cual simplificó el problema significativamente. Mientras que el control
proporcional brinda estabilidad frente a pequeñas perturbaciones, era
insuficiente para tratar perturbaciones constantes, como un vendaval fuerte el
cual requería un término integral. Finalmente, el término derivativo se agregó
para mejorar el control.
Se realizaron pruebas del controlador en el USS New Mexico (BB-40), donde
este se encargaba de controlar la velocidad angular del timón. El control PI se
mantuvo virando con un error de ±2°. Al agregar el elemento D se logró un
error del ±1/6°, mucho mejor que lo que un timonel podría lograr.
Finalmente, debido a la resistencia del personal, la Armada no adoptó este
sistema. Trabajos similares se llevaron a cabo y se publicaron en la década de
1930.
Por tener una exactitud mayor a los controladores proporcional, proporcional
derivativo y proporcional integral se utiliza en aplicaciones más cruciales tales
como control de presión, flujo, fuerza, velocidad, en muchas
aplicaciones químicas, y otras variables. Además es utilizado en reguladores
de velocidad de automóviles (control de crucero o cruise control), control de
ozono residual en tanques de contacto.
Un ejemplo muy sencillo que ilustra la funcionalidad básica de un PID es
cuando una persona entra a una ducha. Inicialmente abre la llave de agua
caliente para aumentar la temperatura hasta un valor aceptable (también
llamado "Setpoint"). El problema es que puede llegar el momento en que la
temperatura del agua sobrepase este valor así que la persona tiene que abrir
un poco la llave de agua fría para contrarrestar el calor y mantener el balance.
El agua fría es ajustada hasta llegar a la temperatura deseada. En este caso, el
humano es el que está ejerciendo el control sobre el lazo de control, y es el que
toma las decisiones de abrir o cerrar alguna de las llaves; pero ¿no sería ideal
si en lugar de nosotros, fuera una máquina la que tomara las decisiones y
mantuviera la temperatura que deseamos?
Esta es la razón por la cual los lazos PID fueron inventados. Para simplificar las
labores de los operadores y ejercer un mejor control sobre las operaciones.
Algunas de las aplicaciones más comunes son:
Funcionamiento
Para el correcto funcionamiento de un controlador PID que regule un proceso o
sistema se necesita, al menos:
1. Un sensor, que determine el estado del sistema
(termómetro, caudalímetro, manómetro, etc).
2. Un controlador, que genere la señal que gobierna al actuador.
3. Un actuador, que modifique al sistema de manera controlada
(resistencia eléctrica, motor, válvula, bomba, etc).
El sensor proporciona una señal analógica o digital al controlador, la cual
representa el punto actual en el que se encuentra el proceso o sistema. La
señal puede representar ese valor en tensión eléctrica, intensidad de corriente
eléctrica o frecuencia. En este último caso la señal es de corriente alterna, a
diferencia de los dos anteriores, que también pueden ser con corriente
continua.
El controlador recibe una señal externa que representa el valor que se desea
alcanzar. Esta señal recibe el nombre de punto de consigna (o punto de
referencia, valor deseado o set point), la cual es de la misma naturaleza y tiene
el mismo rango de valores que la señal que proporciona el sensor. Para hacer
posible esta compatibilidad y que, a su vez, la señal pueda ser entendida por
un humano, habrá que establecer algún tipo de interfaz (HMI-Human Machine
Interface), son pantallas de gran valor visual y fácil manejo que se usan para
hacer más intuitivo el control de un proceso.
El controlador resta la señal de punto actual a la señal de punto de consigna,
obteniendo así la señal de error, que determina en cada instante la diferencia
que hay entre el valor deseado (consigna) y el valor medido. La señal de error
es utilizada por cada uno de los 3 componentes del controlador PID. Las 3
señales sumadas, componen la señal de salida que el controlador va a utilizar
para gobernar al actuador. La señal resultante de la suma de estas tres se
llama variable manipulada y no se aplica directamente sobre el actuador, sino
que debe ser transformada para ser compatible con el actuador utilizado.
Las tres componentes de un controlador PID son: parte Proporcional,
acción Integral y acción Derivativa. El peso de la influencia que cada una de
estas partes tiene en la suma final, viene dado por la constante proporcional, el
tiempo integral y el tiempo derivativo, respectivamente. Se pretenderá lograr
que el bucle de control corrija eficazmente y en el mínimo tiempo posible los
efectos de las perturbaciones.
Proporcional
Artículo principal: Control proporcional
Proporcional.
La parte proporcional consiste en el producto entre la señal de error y la
constante proporcional para lograr que el error en estado estacionario se
aproxime a cero, pero en la mayoría de los casos, estos valores solo serán
óptimos en una determinada porción del rango total de control, siendo distintos
los valores óptimos para cada porción del rango. Sin embargo, existe también
un valor límite en la constante proporcional a partir del cual, en algunos casos,
el sistema alcanza valores superiores a los deseados. Este fenómeno se
llama sobreoscilación y, por razones de seguridad, no debe sobrepasar el 30%,
aunque es conveniente que la parte proporcional ni siquiera produzca
sobreoscilación. Hay una relación lineal continua entre el valor de la variable
controlada y la posición del elemento final de control (la válvula se mueve al
mismo valor por unidad de desviación). La parte proporcional no considera el
tiempo, por lo tanto, la mejor manera de solucionar el error permanente y hacer
que el sistema contenga alguna componente que tenga en cuenta la variación
respecto al tiempo, es incluyendo y configurando las acciones integral y
derivativa.
La fórmula del proporcional está dada por:
El error, la banda proporcional y la posición inicial del elemento final de control
se expresan en tanto por uno. Nos indicará la posición que pasará a ocupar el
elemento final de control.
Ejemplo: Cambiar la posición de una válvula (elemento final de control)
proporcionalmente a la desviación de la temperatura (variable) respecto al
punto de consigna (valor deseado).
Integral
Artículo principal: Proporcional integral
Integral.
El modo de control Integral tiene como propósito disminuir y eliminar el error en
estado estacionario, provocado por perturbaciones exteriores y los cuales no
pueden ser corregidos por el control proporcional. El control integral actúa
cuando hay una desviación entre la variable y el punto de consigna, integrando
esta desviación en el tiempo y sumándola a la acción proporcional.
El error es integrado, lo cual tiene la función de promediarlo o sumarlo por un
período determinado; Luego es multiplicado por una constante Ki.
Posteriormente, la respuesta integral es adicionada al modo Proporcional para
formar el control P + I con el propósito de obtener una respuesta estable del
sistema sin error estacionario. El modo integral presenta un desfase en la
respuesta de 90º que sumados a los 180º de la retro-alimentación ( negativa )
acercan al proceso a tener un retraso de 270º, luego entonces solo será
necesario que el tiempo muerto contribuya con 90º de retardo para provocar la
oscilación del proceso. <<< la ganancia total del lazo de control debe ser menor
a 1, y así inducir una atenuación en la salida del controlador para conducir el
proceso a estabilidad del mismo. >>> Se caracteriza por el tiempo de acción
integral en minutos por repetición. Es el tiempo en que delante una señal en
escalón, el elemento final de control repite el mismo movimiento
correspondiente a la acción proporcional.
El control integral se utiliza para obviar el inconveniente del offset (desviación
permanente de la variable con respecto al punto de consigna) de la banda
proporcional.
La fórmula del integral está dada por:
Ejemplo: Mover la válvula (elemento final de control) a una velocidad
proporcional a la desviación respecto al punto de consigna (variable deseada).
Derivativo
Artículo principal: Proporcional derivativo
Derivativo.
La acción derivativa se manifiesta cuando hay un cambio en el valor absoluto
del error; (si el error es constante, solamente actúan los modos proporcional e
integral).
El error es la desviación existente entre el punto de medida y el valor consigna,
o "Set Point".
La función de la acción derivativa es mantener el error al mínimo corrigiéndolo
proporcionalmente con la misma velocidad que se produce; de esta manera
evita que el error se incremente.
Se deriva con respecto al tiempo y se multiplica por una constante Kd y luego
se suma a las señales anteriores (P+I). Es importante adaptar la respuesta de
control a los cambios en el sistema ya que una mayor derivativa corresponde a
un cambio más rápido y el controlador puede responder acordemente.
La fórmula del derivativo está dada por:
El control derivativo se caracteriza por el tiempo de acción derivada en minutos
de anticipo. La acción derivada es adecuada cuando hay retraso entre el
movimiento de la válvula de control y su repercusión a la variable controlada.
Cuando el tiempo de acción derivada es grande, hay inestabilidad en el
proceso. Cuando el tiempo de acción derivada es pequeño la variable oscila
demasiado con relación al punto de consigna. Suele ser poco utilizada debido a
la sensibilidad al ruido que manifiesta y a las complicaciones que ello conlleva.
El tiempo óptimo de acción derivativa es el que retorna la variable al punto de
consigna con las mínimas oscilaciones
Ejemplo: Corrige la posición de la válvula (elemento final de control)
proporcionalmente a la velocidad de cambio de la variable controlada.
La acción derivada puede ayudar a disminuir el rebasamiento de la variable
durante el arranque del proceso. Puede emplearse en sistemas con tiempo de
retardo considerables, porque permite una repercusión rápida de la variable
después de presentarse una perturbación en el proceso.
Significado de las constantes
Kp constante de proporcionalidad: se puede ajustar como el valor de la
ganancia del controlador o el porcentaje de banda proporcional. Ejemplo:
Cambia la posición de la válvula proporcionalmente a la desviación de la
variable respecto al punto de consigna. La señal P mueve la válvula siguiendo
fielmente los cambios de temperatura multiplicados por la ganancia.
Ki constante de integración: indica la velocidad con la que se repite la acción
proporcional.
Kd constante de derivación: hace presente la respuesta de la acción
proporcional duplicándola, sin esperar a que el error se duplique. El valor
indicado por la constante de derivación es el lapso durante el cual se
manifestará la acción proporcional correspondiente a 2 veces el error y
después desaparecerá. Ejemplo: Mueve la válvula a una velocidad proporcional
a la desviación respecto al punto de consigna. La señal I va sumando las áreas
diferentes entre la variable y el punto de consigna repitiendo la señal
proporcional según el tiempo de acción derivada (minutos/repetición).
Tanto la acción Integral como la acción Derivativa, afectan a la ganancia
dinámica del proceso. La acción integral sirve para reducir el error estacionario,
que existiría siempre si la constante Ki fuera nula. Ejemplo: Corrige la posición
de la válvula proporcionalmente a la velocidad de cambio de la variable
controlada. La señal d es la pendiente (tangente) por la curva descrita por la
variable.
La salida de estos tres términos, el proporcional, el integral, y el derivativo son
sumados para calcular la salida del controlador PID. Definiendo y (t) como la
salida del controlador, la forma final del algoritmo del PID es:
Ejemplos prácticos
Se desea controlar el caudal de un flujo de entrada en un reactor químico.
En primer lugar se tiene que poner una válvula de control del caudal de
dicho flujo, y un caudalímetro, con la finalidad de tener una medición
constante del valor del caudal que circule. El controlador irá vigilando que el
caudal que circule sea el establecido por nosotros; en el momento que
detecte un error, mandará una señal a la válvula de control de modo que
esta se abrirá o cerrará corrigiendo el error medido. Y tendremos de ese
modo el flujo deseado y necesario. El PID es un cálculo matemático, lo que
envía la información es el PLC.
1Objetivos
6Véase también
Objetivos
Los sistemas de control deben conseguir los siguientes objetivos:
1.5. Según la relación entre las variables de los sistemas, diremos que:
1.5.1. Dos sistemas están acoplados, cuando las variables de uno de ellos
están relacionadas con las del otro sistema.
1.5.2. Dos sistemas están desacoplados, si las variables de ambos sistemas
no tienen ninguna relación.
3. Cuyos componentes están unos hechos por el hombre y los otros son
naturales. Se encuentra el sistema de control de un hombre que conduce su
vehículo. Este sistema está compuesto por los ojos, las manos, el cerebro y el
vehículo. La entrada se manifiesta en el rumbo que el conductor debe seguir
sobre la vía y la salida es la dirección actual del automóvil. Otro ejemplo puede
ser las decisiones que toma un político antes de unas elecciones. Este sistema
está compuesto por ojos, cerebro, oídos, boca. La entrada se manifiesta en las
promesas que anuncia el político y la salida es el grado de aceptación de la
propuesta por parte de la población.
5. Control predictivo, son los sistemas de control que trabajan con un sistema
predictivo, y no activo como el tradicional ( ejecutan la solución al problema
antes de que empiece a afectar al proceso). De esta manera, mejora la
eficiencia del proceso contrarrestando rápidamente los efectos.
1. El análisis.
2. El diseño.
Aquel el análisis se investiga las características de un sistema existente.
Mientras que en el diseño se escogen los componentes para crear un sistema
de control que posteriormente ejecute una tarea particular.
Métodos de diseño
Existen dos métodos de diseño:
Tipos de sistemas:
1Sistemas conceptuales
2Sistemas materiales
3Véase también
4Referencias
5Enlaces externos
Sistemas conceptuales[editar]
Un sistema conceptual, sistema formal o sistema ideal es
un constructo compuesto por conceptos de cuatro diferentes tipos:
1. Individuos, por ejemplo: ,
2. Predicados, relatores o atributos, ejemplo: ;
3. conjuntos, por ejemplo: ; y
4. operadores, por ejemplo: (él ha miltoniano cuántico).
Así, los conceptos no son sistemas conceptuales, sino solo componentes de
sistemas conceptuales. Sí son sistemas conceptuales
1. Los esquemas proposicionales, por ejemplo: ;
2. Las proposiciones, por ejemplo: ;
3. Las estructuras algebraicas, por ejemplo: ; y
4. Los contextos, por ejemplo: una teoría.
Sistemas materiales
Artículo principal: Sistema físico
Un sistema material, sistema concreto o sistema real es una cosa compuesta
por dos o más cosas relacionadas, que posee propiedades que no poseen sus
componentes, llamadas propiedades emergentes; por ejemplo, la tensión
superficial es una propiedad emergente que poseen los líquidos pero que no
poseen sus moléculas componentes. Al ser cosas, los sistemas materiales
poseen las propiedades de las cosas, como tener energía (e intercambiarla),
tener historia, yuxtaponerse con otras cosas y ocupar una posición en el
espacio tiempo.
El esfuerzo por encontrar leyes generales del comportamiento de los sistemas
materiales es el que funda la teoría de sistemas y, más en general, el enfoque
de la investigación científica a la que se alude como sistemismo, sistémica o
pensamiento sistémico, en cuyo marco se encuentran disciplinas y teorías
como la cibernética, la teoría de la información, la teoría del caos, la dinámica
de sistemas y otras.
La ciencia como sistema
Cualquier ciencia o disciplina del saber puede considerarse como sistema si
explica una parte más o menos extensa del saber humano. Tal es la idea del
filósofo español José Ortega y Gasset en su obra La Historia como sistema en
la que se refiere a que la historia es un sistema (explicativo, se entiende) que
permite comprender el presente. La misma idea ha sido expresada por otros
autores.
Análisis CEEM
El análisis más sencillo del concepto de sistema material es el que incluye los
conceptos de composición, entorno, estructura y mecanismo (CEEM, por sus
siglas). La composición de un sistema es el conjunto de sus partes
componentes. El entorno o ambiente de un sistema es el conjunto de las cosas
que actúan sobre los componentes del sistema, o sobre las que los
componentes del sistema actúan. La estructura interna o endoestructura de un
sistema es el conjunto de relaciones entre los componentes del sistema. La
estructura externa o exoestructura de un sistema es el conjunto de relaciones
entre los componentes del sistema y los elementos de su entorno. La
estructura total de un sistema es la unión de su exoestructura y su
endoestructura. Las relaciones más importantes son los vínculos o enlaces,
aquellas que afectan a los componentes relacionados; las relaciones
espaciotemporales no son vínculos. El mecanismo de un sistema es el conjunto
de procesos internos que lo hacen cambiar algunas propiedades, mientras que
conserva otras.
Además, la frontera de un sistema es el conjunto de componentes que están
directamente vinculados (sin nada interpuesto) con los elementos de su
entorno. La frontera de un sistema físico puede ser rígida o móvil, permeable o
impermeable, conductor térmico (adiabática) o no, conductor eléctrico o no, e
incluso puede ser aislante de frecuencias de audio. Además, algunos sistemas
tienen figura (forma); pero no todo sistema con frontera tiene necesariamente
figura. Si hay algún intercambio de materia entre un sistema físico y su entorno
a través de su frontera, entonces el sistema es abierto; de lo contrario, el
sistema es cerrado. Si un sistema cerrado tampoco intercambia energía,
entonces el sistema es aislado. En rigor, el único sistema aislado es el
universo. Si un sistema posee la organización necesaria para controlar su
propio desarrollo, asegurando la continuidad de su composición y estructura
(homeostasis) y la de los flujos y transformaciones con que funciona
(homeorresis) —mientras las perturbaciones producidas desde su entorno no
superen cierto grado—, entonces el sistema es autopoyético.
Dinámica de sistemas
La dinámica de sistemas es una metodología para analizar y modelar1 el
comportamiento temporal en entornos complejos. Se basa en la identificación
de los bucles de realimentación entre los elementos, y también en las demoras
en la información y materiales dentro del sistema. 2 Lo que hace diferente este
enfoque de otros usados para estudiar sistemas complejos es el análisis de los
efectos de los bucles o ciclos de realimentación, en términos de flujos y
depósitos adyacentes. De esta manera se puede estructurar a través
de modelos matemáticos la dinámica del comportamiento de estos sistemas.
La simulación de estos modelos actualmente se puede realizar con ayuda de
programas computacionales específicos.
Originalmente desarrollada en 1950 para ayudar a los administradores de
empresas a mejorar su comprensión de los procesos industriales, actualmente
se usa en el sector público y privado para el análisis y diseño de políticas. Fue
creada a principios en la década de 1960 por Jay Forrester de la MIT Sloan
School of Management del Massachusetts Institute of Technology) con la
creación del MIT System Dynamics Group.
Historia
Se creó a mediados de los años 19503 por el profesor Jay Forrester a raíz de
un trabajo suyo para General Electric (GE). Así, en 1956, Forrester aceptó un
puesto de profesor en la recién formada MIT Sloan School of Management. Su
objetivo inicial era determinar cómo sus antecedentes en la ciencia y la
ingeniería podían ser aprovechados, de alguna manera útil, en las cuestiones
fundamentales que determinan el éxito o el fracaso de las empresas.
En ese momento, los directivos de GE estaban perplejos porque el empleo en
sus plantas de electrodomésticos en Kentucky exhibía un ciclo significativo de
tres años. El ciclo económico se consideró una explicación insuficiente para la
inestabilidad del empleo en GE. A partir de simulaciones a mano (o cálculos)
de la estructura de flujos y de la retroalimentación de las plantas de GE, que
incluyó a la toma de decisiones corporativas con respecto a la estructura de la
contratación y los despidos, Forrester fue capaz de demostrar cómo la
inestabilidad en el empleo de GE se debía a la estructura interna de la empresa
y no a una fuerza externa, como el ciclo económico. Estas simulaciones
manuales fueron el comienzo4 de un nuevo enfoque para abordar problemas
industriales, basado en el análisis de la estructura interna más que en el
impacto de factores externos.
Durante la década de 1950 y comienzos de 1960, Forrester y un equipo de
estudiantes de postgrado se dio el salto de una etapa de la simulación manual
a una la etapa de modelado formal por ordenador debido a que en esa época
Richard Bennett creó el primer lenguaje de modelado dinámico llamado
SIMPLE (Simulation of Industrial Management Problems with Lots of Equations)
en la primavera de 1958. En 1959, Phyllis Fox y Alexander Pugh escribió la
primera versión de DYNAMO (DYNAmic MOdels), una versión mejorada de
SIMPLE, y el nuevo lenguaje basado en variables de hasta 8 caracteres, del
que aún se pueden hallar modelos en libros antiguos, se convirtió en el
estándar de la industria durante más de treinta años. Forrester publicó el
primer, y todavía clásico, libro en el campo con el título de Industrial
Dynamics en 1961. Desde finales de 1950 a finales de 1960, las publicaciones
recogen aplicaciones centradas en el ámbito de organización industrial y a
problemas gerenciales en empresas. En 1968, sin embargo, un acontecimiento
inesperado causó que el campo se ampliara más allá del modelado corporativo.
John Collins, el exalcalde de Boston, fue nombrado profesor visitante de
Asuntos Urbanos del MIT. El resultado de la colaboración Collins-Forrester fue
un libro titulado Urban Dynamics que sirvió para explicar cómo los subsidios
públicos provocan que en el centro de las grandes ciudades habiten las familias
de menor renta, lo cual ya había definido Forrester antes como el
comportamiento contra-intuitivo de los sistemas sociales. Muy poco después,
en 1970, Jay Forrester fue invitado por el Club de Roma para una reunión en
Berna, Suiza. El Club de Roma es una organización dedicada a la solución de
lo que sus miembros describen como el "predicamento de la humanidad", es
decir, la crisis global que puede aparecer en algún momento en el futuro,
debido a las exigencias que se colocan sobre la capacidad de carga de la
Tierra (sus fuentes de los recursos renovables y no renovables y sus sumideros
para la eliminación de los contaminantes) que el mundo está en crecimiento
exponencial de la población. En la reunión de Berna, a Forrester se le preguntó
si podría aportar un nuevo enfoque para ser utilizado para hacer frente a la
difícil situación de la humanidad. Su respuesta, por supuesto, era que podía.
En el avión de regreso de la reunión de Berna, Forrester creó el primer
borrador de un modelo del sistema socio-económico del mundo, donde
aparecían conceptos inéditos hasta entonces como el de ‘reciclaje’ de
productos de consumo. Él llamó a este modelo WORLD1. A su regreso a
Estados Unidos, Forrester refinó WORLD1, en preparación para la visita al MIT
por los miembros del Club de Roma, dando origen a una versión refinada del
modelo que fue el WORLD2. Forrester publicó World2 en un libro
titulado World Dynamics.
Los trabajos realizados por Forrester en el MIT dieron origen a una simulación
realizada por el equipo coordinado por Donella H. Meadows que tenía por
objeto analizar el comportamiento de las principales variables mundiales, es
decir la población mundial, la industrialización, la contaminación, la producción
de alimentos y la explotación de los recursos naturales, y que dio origen a un
informe que se publicó bajo el título "Limits to Growth" (Los Límites del
Crecimiento), que se tradujo a varios idiomas y tuvo una fuerte difusión
mundial.
Aplicaciones
Enseñar a los reflejos del sistema de pensamiento de las personas que está
siendo entrenado.
Analizar y comparar los supuestos y modelos mentales acerca de cómo
funcionan las cosas.
Obtener una visión cualitativa sobre el funcionamiento de un sistema o las
consecuencias de una decisión.
Reconocer arquetipos de sistemas disfuncionales en la práctica diaria.
Los modelos permiten simular el impacto de diferentes políticas relativas a la
situación a estudiar ejecutando simulaciones what if (¿qué pasaría si?) que
permiten ver las consecuencias a corto y medio plazo, y ser de gran ayuda en
la comprensión de cómo los cambios en un sistema lo afectan en el tiempo. En
este sentido es muy similar al Pensamiento sistémico ya que se basa en los
mismos diagramas de causales con bucles o lazos de retroalimentación
(feedback). Sin embargo, estos modelos de simulación permiten además hacer
simulaciones para estudiar el comportamiento de los sistemas y el impacto de
políticas alternativas.5 Se utiliza en especial para investigar la dependencia de
los recursos naturales y los problemas resultantes del creciente consumo a
nivel global para mejorar el especial en el desarrollo de nuevos productos. 67
Existe una gran variedad de marcas de software en el mercado que ayudan a
aplicar esta herramienta de una forma amigable: Vensim, Stella, ithink,
Powersim, Dynamo, etc.
Sistema complejo
Conectados
Interdependientes
Diversos
Adaptativos
Dependientes del camino
Emergentes (no-linealidad multi-nivel)
Ejemplos
Un ejemplo típico de sistema complejo es la Tierra. La Tierra está formada por
varios sistemas que la describen:
Campo gravitatorio.
Campo magnético.
Flujo térmico.
Ondas elásticas.
Geodinámica.
Humanidad.
Cada uno de estos sistemas está bien estudiado, pero desconocemos la forma
en que interactúan y hacen evolucionar el sistema «Tierra». Hay, pues, mucha
más información oculta en esas interrelaciones de sistemas.
Otros sistemas complejos típicos son:
El tiempo atmosférico
La geodinámica: terremotos y volcanes
Los ecosistemas
Los seres vivos
La conciencia
Las sociedades
Las ciudades
Sistema dinámico
Un sistema dinámico es un sistema cuyo estado evoluciona con el tiempo.
Los sistemas físicos en situación no estacionaria son ejemplos de sistemas
dinámicos, pero también existen modelos económicos, matemáticos y de otros
tipos que son sistemas abstractos que son, además, sistemas dinámicos. El
comportamiento en dicho estado se puede caracterizar determinando los
límites del sistema, los elementos y sus relaciones; de esta forma se pueden
elaborar modelos que buscan representar la estructura del mismo sistema.
Al definir los límites del sistema se hace, en primer lugar, una selección de
aquellos componentes que contribuyan a generar los modos de
comportamiento, y luego se determina el espacio donde se llevará a cabo el
estudio, omitiendo toda clase de aspectos irrelevantes.
Realimentación
La realimentación12 —también referida de forma común
como retroalimentación—3 es un mecanismo por el cual una cierta proporción
de la salida de un sistema se redirige a la entrada, con señales de controlar su
comportamiento.14
Los ejemplos de la realimentación se pueden encontrar en la mayoría de
los sistemas complejos, tales como ingeniería, arquitectura, economía,
y biología y tiene su base con el psicólogo Joel Guevara y Andres Holguin dos
grandes en este tema. proceso administrativo donde, el control es una etapa
cualitativa y cuantitativa, que sirve de base para la fase de planeación. Arturo
Rosenblueth, investigador mexicano y médico en cuya obra Behavior, Purpose
and Teleology ("comportamiento, propósito y teleología"), de acuerdo
con Norbert Wiener, fijó las bases para la nueva ciencia de la cibernética y
propuso que el comportamiento controlado por la realimentación negativa,
aplicada a un animal, al ser humano o a las máquinas era un principio
determinante y directivo, en la naturaleza o en las creaciones humanas.
Esquematización de realimentación
Aspecto socia
Durante la Segunda Guerra Mundial trabajó para las Fuerzas Armadas de los
Estados Unidos en un proyecto para guiar a la artillería antiaérea de forma
automática mediante el empleo del radar. El objetivo del proyecto era predecir
la trayectoria de los bombarderos y con ella orientar adecuadamente los
disparos de las baterías, mediante correcciones basadas en las diferencias
entre trayectoria prevista y real, conocidas como innovaciones del proceso.
Como resultado de los descubrimientos realizados en este proyecto introduce
en la ciencia los conceptos de realimentación, y de cantidad de información,
con lo que se convierte en precursor de la teoría de la comunicación o
la psicología cognitiva.
Aspecto tecnológico
La palabra cibernética podría significar ciencia de los mandos. Estos mandos
son estructuras con elementos especialmente electrónicos y en correlación con
los mecanismos que regulan la psicología de los seres vivientes y los sistemas
sociales humanos, y a la vez que permiten
la organización de máquinas capaces de reaccionar y operar con más precisión
y rapidez que los seres vivos, ofrecen posibilidades nuevas para penetrar más
exactamente las leyes que regulan la vida general y especialmente la del ser
humano en sus aspectos psicológicos, económicos, sociales etc.
Aspecto político-económico
En vísperas de la Segunda Guerra Mundial, sus investigaciones acerca de
robots e ingenios automáticos que pudieran reemplazar o sustituir con ventaja
a los combatientes, sentaron los fundamentos de una nueva ciencia:
la cibernética, vocablo adoptado por Wiener en el año 1947 y que procede del
griego Kybernetes, es decir, piloto o timonel. Durante el periodo de la depresión
en 1929 se desarrollaron grupos de investigación que estudiaban las actitudes
y preferencias del consumidor, en esta etapa se inicia la industria de la
investigación del marketing. Después de la Segunda Guerra Mundial,
la publicidad por televisión creció rápidamente, y con el tiempo alcanzó su
estado actual como el medio más grande de la publicidad en cuanto a los
ingresos por este concepto. En la prosperidad de la posguerra a fines de los
años cuarenta y principios de los cincuenta, aparecieron una revolución
creativa de anuncios que se centraban en las características del producto que
significaban aceptación social, estilo, lujo y éxito. Surgieron así los gigantes de
la industria: Leo Burnett, David Ogilvy y Bill Bernbach que partieron de cero al
fundar sus agencias y que cambiaron para siempre la forma de planear y crear
la publicidad.56
Visión general
La realimentación es un mecanismo, un proceso donde una señal se propaga
dentro de un sistema, desde su salida hacia su entrada, formando un bucle.
Este bucle se llama "bucle de realimentación". En un sistema de control, este
tiene entradas y salidas del sistema; cuando parte de la señal de salida
reingresa de nuevo, se le llama “realimentación". La realimentación y la
autorregulación están íntimamente relacionadas. La realimentación negativa,
que es la más común, ayuda a mantener la estabilidad en un sistema a pesar
de los cambios externos. Se relaciona con la homeostasis. La realimentación
positiva amplifica las posibilidades creativas (evolución, cambio de metas); es
la condición necesaria para incrementar los cambios, la evolución, o el
crecimiento. Da al sistema la capacidad de tener acceso a nuevos puntos del
equilibrio. Por ejemplo, en un organismo vivo, la más potente realimentación
positiva, es la proporcionada por la autoexcitación rápida de elementos
del sistema endocrino y nervioso (particularmente, como respuesta a
condiciones de estrés) y desempeña un papel dominante en la regulación de
la morfogénesis, del crecimiento, y del desarrollo de los órganos. Todos estos
procesos son con el fin de salir rápidamente del estado inicial.
La homeostasis es especialmente visible en los sistemas nerviosos y
endocrinos cuando se considera esto a un nivel orgánico.
Realimentación positiva y realimentación negativa
La realimentación negativa caracteriza la homeostasis y desempeña un papel
importante en conseguir y mantener la estabilidad de las relaciones.
La realimentación positiva conduce al cambio, es decir, la pérdida de
estabilidad o equilibrio.
Sistemas abiertos y sistemas cerrados
En ambos casos, parte de la salida, cualquier sistema de salida
de información de un ordenador, del sistema se vuelve a introducir en el
sistema como información sobre la salida. La diferencia es que en el caso
de realimentación negativa, la información se utiliza para reducir la variación en
cuanto a una norma preestablecida (por eso se le llama negativa) mientras que
en el caso de realimentación positiva, la misma información opera como
medida para ampliar. La variación en la salida es, por tanto, positiva en cuanto
a la tendencia existente hacia la inmovilidad o turbación.
Las relaciones humanas pueden considerarse como "bucles de
realimentación". La realimentación negativa y positiva es más compleja en los
sistemas abiertos que en los sistemas cerrados en los que la homeostasis (más
que cambio o crecimiento) es la norma. En los sistemas abiertos, la
realimentación puede utilizarse para consolidar el sistema (mediante
realimentación positiva, que confirma que el feedforward del sistema es
correcto) o para cambiar el sistema (mediante realimentación negativa que
confirma que el feedforward del sistema es incorrecto). La realimentación
positiva produce el mantenimiento o incremento del sistema existente mientras
que la realimentación negativa produce cambio en el sistema. En los sistemas
cerrados los cambios se producen en las relaciones internas (un cambio a nivel
él según el modelo de Bateson). Sin embargo, en los sistemas abiertos hay la
posibilidad añadida de un cambio en el sistema en sí (un cambio a nivel II). La
realimentación ha sido descrita como el secreto de la actividad natural de los
sistemas que se autorregulan (sistemas con realimentación) requieren de
una filosofía propia en la que los conceptos de patrón e información son tan
esenciales como fueron los de materia y energía al comienzo del siglo.
Tipos de realimentación
1. Realimentación positiva: cuando sale del sistema. La cual tiende a aumentar
la señal de salida, o actividad. Ej.: jugando al truco, uno mezcla y luego otro
corta, sabe lo que tienen que hacer, si no lo hace, está saliendo del sistema, lo
está cortando. Es cuando la norma se muestra ineficaz y hay que cambiarla.
2. Realimentación negativa: es la que mantiene el sistema funcionando.
Devuelve al emisor toda la información que necesita para corregir la pauta de
entrada. Mantiene el sistema estable y que siga funcionando.
3. Realimentación bipolar: La cual puede aumentar o disminuir la señal o
actividad de salida. La realimentación bipolar está presente en muchos
sistemas naturales y humanos. De hecho generalmente la realimentación es
bipolar, es decir, positiva y negativa según las condiciones medioambientales,
que, por su diversidad, producen respuestas sinérgicas y antagónicas como
respuesta adaptativa de cualquier sistema.8
Realimentación negativa
Artículo principal: Realimentación negativa
Es la más utilizada en sistemas de control Se dice que un sistema está
realimentado negativamente cuando tiende a estabilizarse, es decir cuando nos
vamos acercando a la orden de consigna hasta llegar a ella. Por ejemplos, son
casos de realimentación negativa:
Norbert Wiener
Profesor de lógica matemática en el Instituto Tecnológico de Massachusetts,
aunque, a lo largo de su vida, impartió cursos en numerosas universidades de
otros países, como México, Gran Bretaña, India, etc. Este dejó importantes
obras: Cibernética: control y comunicación en el animal y en la
máquina (1948), Matemáticas, mi vida (1961), Dios y Golem (1965) y Hombre y
hombre máquina (1966).
Entre los años 1920 y 1923, Wiener se preocupó por un fenómeno físico sin
demasiada importancia en esta ciencia, el llamado movimiento browniano, que
se refiere al movimiento perpetuo que tienen las partículas disueltas en un
líquido (por ejemplo, raspaduras de roca en agua), movimiento irregular que no
parece responder a ninguna ley física. Construyó así una probabilidad que
permitiría describir el fenómeno en términos matemáticos, en lo que se refiere a
la trayectoria y posición de las partículas a través del tiempo. El trabajo de
Wiener sobre el movimiento browniano estableció un importante precedente
para hallar aplicaciones en Física, Ingenierías y Biología, y permitió formular un
problema de cálculo de probabilidades en términos de la medida de Lebesgue,
que utilizaría diez años más tarde Kolmogorov para la formalización del cálculo
de probabilidades. En vísperas de la Segunda Guerra Mundial, sus
investigaciones acerca de robots e ingenios automáticos que pudieran
reemplazar o sustituir con ventaja a los combatientes, sentaron los
fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por
Wiener en el año 1947 y que procede del griego Kybernetes, es decir, piloto o
timonel.
Por tanto la palabra cibernética podría significar ciencia de los mandos. Estos
mandos son estructuras con elementos especialmente electrónicos y en
correlación con los mecanismos que regulan la psicología de los seres
vivientes y los sistemas sociales humanos, y a la vez que permiten la
organización de máquinas capaces de reaccionar y operar con más precisión y
rapidez que los seres vivos, ofrecen posibilidades nuevas para penetrar más
exactamente las leyes que regulan la vida general y especialmente la del
hombre en sus aspectos psicológicos, económicos, sociales etc. Esta ciencia,
muy compleja, estudia, valiéndose para ello de las matemáticas, la física,
la sociología, la neurofisiología, etc., "los mecanismos de control y
de comunicación en los seres vivos y en las máquinas". Así, del estudio
del sistema nervioso se ha derivado la noción fundamental de realimentación,
que permite la autocorrección de un motor mediante la información que le es
enviada utilizando parte de la energía producida por él mismo
(servomecanismo). Una de las definiciones más acertadas de esta ciencia es la
debida a Conffignal, quien define la cibernética como "el arte de hacer eficaz la
acción". Si echamos una mirada a nuestro alrededor, no cabe duda de que hoy
en día es así: "robots-obreros" en las fábricas, "analistas" en los laboratorios,
"pilotos automáticos" en los aviones, etc. Por ello, a nuestra época se la ha
llamado era de la cibernética, cuyo "padre" fue Norbert Wiener.
Etimología
Norbert Wiener encontró justo la palabra que quería en la operación de los
grandes barcos de la antigua Grecia. En el mar, los grandes barcos batallaban
contra la lluvia, el viento y las mareas; cuestiones de ninguna forma
predecibles. Sin embargo, si el hombre, operando sobre el timón, podía
mantener su mirada sobre un lejano faro, podría manipular la caña del timón,
ajustándola constantemente en tiempo real, hasta alcanzar la luz. Esta es la
función del timonel. En los tiempos rudos de Homero la palabra griega para
designar al timonel era kybernetes, que Wiener tradujo al Inglés
como cybernetics, en español cibernética."
Historia
La cibernética es una ciencia nacida hacia 1942 e impulsada inicialmente por
Norbert Wiener y Arturo Rosenblueth Stearns que tiene como objeto “el control
y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y
técnicas que nos permitirán abordar el problema del control y la comunicación
en general”. Sin embargo, cabe aclarar que se puede tomar como inicio de esta
disciplina en el año 1940 con las investigaciones de Norbert Wiener y Vannevar
Bush sobre las máquinas de cálculo y sobre redes eléctricas con Yuk Wing
Lee. Aunque el término no será acuñado hasta 1947. En 1950, Ben Laposky,
un matemático de Iowa, creó los oscilones o abstracciones electrónicas por
medio de un ordenador analógico: se considera esta posibilidad de manipular
ondas y de registrarlas electrónicamente como el despertar de lo que habría de
ser denominado computer graphics y, luego, computer art e infoarte. También,
durante la década del cincuenta, William Ross Ashby propone teorías
relacionadas con la inteligencia artificial.
La cibernética dio gran impulso a la teoría de la información a mediados de
los 60; el computador digital sustituyó al analógico en la elaboración de
imágenes electrónicas. En esos años aparece la segunda generación de
computadores (con transistores en 1960) concretándose por entonces los
primeros dibujos y gráficos de computador, y la tercera (con circuitos
integrados, en 1964) así como los lenguajes de programación.
En 1965 tuvo lugar en Stuttgart la exposición ”Computer-graphik”. Pero la
muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el título
“Cybernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres.
También en ese año se destacó la exposición “Mindextenders” del Museum of
Contemporary Crafts de Londres.
En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En
ese mismo año, en Buenos Aires y otras ciudades de Argentina, se presentaba
Arte y cibernética, organizada por Jorge Glusberg. Con esta muestra se
inaugurarían los principios de la relación arte/imagen digital en ese país.
En España la primera manifestación fue la de “Formas computables”- 1969-
“Generación automática de formas plásticas” -1970-ambas organizadas por el
Centro de Cálculo de la Universidad de Madrid. En los primeros meses
de 1972, el Instituto Alemán de Madrid y de Barcelona presentaron una de las
muestras más completas que ha tenido lugar en España, titulada<Impulso arte
computador>
Las primeras experiencias de lo que luego se llamaría net.art . se
remontan al año 1994. Es importante aclarar que ya por los 1960 existían
algunas antecedentes. De todas formas se puede establecer que las primeras
experiencias donde la tecnología informática puesta al servicio de la comunidad
funcionó como soporte estético trascurren por aquellos años y rompe con la
idea de lectura lineal de la obra...
La raíz de la teoría cibernética
El término cibernética viene del griego Κυβερνήτης (kybernḗtēs, que se refiere
al timonel, el cual "gobierna" la embarcación). La palabra cybernétique también
fue utilizada en 1834 por el físico André-Marie Ampère (1775-1836) para
referirse a las ciencias de gobierno en su sistema de clasificación de los
conocimientos humanos.
Históricamente los primeros mecanismos en utilizar regulación
automática (aunque no se usaba la palabra cibernética entonces para ellos)
fueron los desarrollados para medir el tiempo, como los relojes de agua. En
ellos, el agua fluía de una fuente, como un tanque en un depósito y luego
desde el depósito a los mecanismos del reloj. Ctesibio usó un dispositivo
flotador en forma de cono para controlar el nivel del agua en su embalse y
ajustar la velocidad del flujo del agua en consecuencia para mantener un nivel
constante de agua en el embalse, de modo que no desbordó ni se le permitió
funcionar en seco. Esta fue la primera prótesis verdaderamente automática de
un dispositivo normativo que no requiere la intervención externa entre la
retroalimentación y el control del mecanismo. Aunque no se referían a este
concepto con el nombre de Cibernética (lo consideraban como un campo de la
ingeniería), Ktesibios y otros como Heron y Su Song se consideran algunos de
los primeros en estudiar los principios cibernéticos.
El estudio de la cibernética en su sentido actual comienza con los mecanismos
de teleológica (del griego τέλος o telos para el final, meta o propósito) en
máquinas con fechas de retroalimentación correctiva de finales de 1700 cuando
aparece el motor de vapor de James Watt. Este motor estaba equipado con un
gobernador, una válvula de votos centrífugas para el control de la velocidad del
motor. Alfred Russel Wallace lo identificó como el principio de la evolución en
su famoso artículo de 1858. En 1868, James Clerk Maxwell publicó un artículo
teórico sobre los gobernadores, uno de los primeros para discutir y perfeccionar
los principios de la auto-regulación de los dispositivos.
Jakob von Uexküll aplica el mecanismo de retroalimentación a través de su
modelo de ciclo de funcionamiento (Funktionskreis) con el fin de explicar el
comportamiento de los animales y los orígenes del sentido en general, y utiliza
por primera vez la palabra "cibernética" refiriéndose a los sistemas
autorregulados. En su libro Cybernetic, que lo dedica a su compañero de
ciencia el Maestro Ilustre Don Arturo Rosenblueth, fisiólogo con enfoque al
sistema nervioso central, reta a Norbert Wiener a utilizar sus modelos
matemáticos para reproducir el sistema automático de las redes neuronales
que gobiernan el automatismo respiratorio. De hecho, el espacio virtual que
existe en las terminaciones dendríticas le hizo imaginar la navegación en un
espacio virtual, de ahí que la cibernáutica o los cibernautas traducen lo que él
quería decir: navegar en algo que existe pero que nadie ve.
Estructura
La clasificación fue efectuada por Georg Klaus:
Cibernética y robótica
Mucha gente asocia la cibernética con la robótica, los robots y el concepto
de cyborg debido al uso que se le ha dado en algunas obras de ciencia ficción,
pero desde un punto de vista estrictamente científico, la cibernética trata acerca
de sistemas de control basados en la retroalimentación.
Aplicaciones[editar]
Cibernética y educación
Los conceptos y principios de la cibernética también se han aplicado en
la pedagogía conocida como pedagogía cibernética.
Teoría de sistemas
La teoría de sistemas o teoría general de sistemas (TGS) es el estudio
interdisciplinario de los sistemas en general. Su propósito es estudiar los
principios aplicables a los sistemas en cualquier nivel en todos los campos de
la investigación.1 Un sistema se define como una entidad con límites y con
partes interrelacionadas e interdependientes cuya suma es mayor a la suma de
sus partes. El cambio de una parte del sistema afecta a las demás y, con esto,
al sistema completo, generando patrones predecibles de comportamiento. El
crecimiento positivo y la adaptación de un sistema dependen de cómo de bien
se ajuste éste a su entorno. Además, a menudo los sistemas existen para
cumplir un propósito común (una función) que también contribuye al
mantenimiento del sistema y a evitar sus fallos.
El objetivo de la teoría de sistemas es el descubrimiento sistemático de las
dinámicas, restricciones y condiciones de un sistema, así como de principios
(propósitos, medidas, métodos, herramientas, etc.) que puedan ser discernidos
y aplicados a los sistemas en cualquier nivel de anidación y en cualquier
campo, con el objetivo de lograr una equifinalidad optimizada. 12
La teoría general de sistemas trata sobre conceptos y principios de amplia
aplicación, al contrario de aquellos que se aplican en un dominio particular del
conocimiento. Distingue los sistemas dinámicos o activos de los estáticos o
pasivos. Los primeros son estructuras o componentes de actividad que
interactúan en comportamientos o procesos, mientras que los segundos son
estructuras o componentes que están siendo procesados.
Contexto y origen
La TGS aparece como una metateoría, o sea, una teoría de las teorías cuyo
objetivo es, partiendo del concepto abstracto de sistema, formular reglas de
valor general que sean aplicables a cualquier sistema y en cualquier nivel de la
realidad. Los sistemas estudiados corresponden a sistemas concretos,
caracterizados por ser complejos y únicos.
Cabe mencionar que la TGS no es el primer intento histórico de lograr una
metateoría capaz de abordar muy diferentes niveles de la realidad.
El materialismo dialéctico busca un objetivo equivalente, pero combinando
el realismo y el materialismo de la ciencia natural con la dialéctica hegeliana.
La TGS se posiciona en el siglo XX como un nuevo esfuerzo en la búsqueda de
conceptos y leyes válidos para la descripción e interpretación de toda clase
de sistemas reales o físicos.
La TGS también puede ser vista como un intento de superación de varias de
las disputas clásicas de la filosofía en torno a la realidad y en torno al
conocimiento. Algunas de las más importantes son:
Materialismo frente a vitalismo.
Reduccionismo frente a perspectivismo.
Mecanicismo frente a teleología.
En la disputa entre materialismo y vitalismo, había primado largamente la
posición monista, caracterizada por ver en el espíritu una manifestación de la
materia, o sea, un epifenómeno de su organización (adquisición de forma). El
desarrollo de la TGS y de otras ciencias sistémicas ha aportado una respuesta
a esta discusión formulando conceptos como el de propiedades emergentes,
que han servido para reafirmar la autonomía de los fenómenos (como la
conciencia) y, con esto, concebirlos nuevamente como objetos legítimos de
investigación científica.
Una contribución hace la TGS en la disputa entre reduccionismo y
perspectivismo, abordando sistemas complejos y totales, y buscando
analíticamente aspectos esenciales en su composición y en su dinámica que
puedan ser objeto de generalización.
Frente al debate mecanicismo/causalismo y teleología, la aproximación
sistémica ofrece una explicación más cercana al mecanicismo, entendiendo el
comportamiento de una cierta clase de sistemas complejos como orientado a
un fin. El fundador de la cibernética Norbert Wiener acuñó la noción de
sistemas teleológicos para referirse a aquellos que tienen su comportamiento
regulado por retroalimentación negativa.3 Sin embargo, fue fundamental el
aporte planteado por Charles Darwin con su teoría de selección natural, ya que
evidencia cómo un mecanismo ciego es capaz de producir orden y adaptación,
al igual que un sujeto inteligente.4
El planteamiento de paradigmas diferentes de los de la ciencia clásica sitúa a la
TGS como ciencia emergente. La ciencia de sistemas observa totalidades,
fenómenos, isomorfismos, causalidades circulares, y se basa en principios
como la subsidiariedad, la pervasividad, la multicausalidad, el determinismo y la
complementariedad. Asimismo, de acuerdo con las leyes encontradas en otras
disciplinas y mediante el isomorfismo, plantea el entendimiento de la realidad
como un complejo, con lo que logra su transdisciplinariedad, y
multidisciplinariedad.
Desarrollo
Aunque la TGS surgió en el campo de la Biología, pronto se vio su capacidad
de inspirar desarrollos en disciplinas distintas y se apreció su influencia en la
aparición de otras nuevas. A partir de entonces se ha ido constituyendo el
amplio campo de la sistémica o de las ciencias de los sistemas, incluyendo
especialidades como la cibernética, la teoría de la información, la teoría de
juegos, la teoría del caos o la teoría de las catástrofes. En algunas, como la
última, ha seguido ocupando un lugar prominente la Biología.
Los desarrollos más destacados de la TGS han tenido lugar en diversas
disciplinas. En 1950, el biólogo austríaco Ludwig von Bertalanffy planteó la
teoría general de sistemas propiamente dicha, exponiendo sus fundamentos,
su desarrollo y sus aplicaciones . En 1973, los biólogos chilenos Francisco
Varela y Humberto Maturana propusieron el concepto de autopoiesis para dar
cuenta de la especificidad que tiene la organización de los sistemas vivos como
redes cerradas de autoproducción de los componentes que las constituyen. 56
Las contribuciones más importantes a la cibernética fueron hechas por W. Ross
Ashby7 y Norbert Wiener3, quienes con ella desarrollaron la teoría matemática
de la comunicación y el control de sistemas a través de la regulación de
la retroalimentación, la cual está estrechamente relacionada con la teoría de
control. En la década de 1970, René Thom planteó la teoría de las catástrofes8,
difundida por Christopher Zeeman, rama de las matemáticas vinculada a
bifurcaciones en sistemas dinámicos cuyo objetivo es clasificar los fenómenos
caracterizados por súbitos desplazamientos en su conducta.
En 1980, David Ruelle9, Edward Lorenz, Mitchell Feigenbaum, Steve
Smale y James A. Yorke formularon la teoría del caos, una teoría matemática
de sistemas dinámicos no lineales que describe bifurcaciones, atractores
extraños y movimientos caóticos. John H. Holland, Murray Gell-Mann, Harold
Morowitz, W. Brian Arthur, entre otros, plantearon el sistema adaptativo
complejo (CAS), una nueva ciencia de la complejidad que describe los
fenómenos del surgimiento, la adaptación y la auto-organización. Fue
establecida fundamentalmente por investigadores del Instituto de Santa Fe y
está basada en simulaciones informáticas. Incluye sistemas de multiagente que
han llegado a ser una herramienta importante en el estudio de los sistemas
sociales y complejos.
La influencia de la TGS en las ciencias sociales ha sido relativamente más
reciente. Uno de los aportes más destacados fue el concepto de sistema
social desarrollado por el sociólogo estadounidense Talcott Parsons1011 y el
sociólogo alemán Niklas Luhmann. Sin embargo, sus desarrollos no pudieron
posicionar sólida y extensivamente el enfoque sistémico en esta disciplina.
En el siglo XXI ha adquirido notoriedad la física sistémica, disciplina que integra
conocimientos de la biología, la física y la química y muestra cada uno de los
elementos que forman la realidad como sistemas naturales o partes de los
mismos, además de sus funcionalidades intrasistémicas e intersistémicas.