Está en la página 1de 57

1

 
 
Introducción al 
Pensamiento 
Complejo 
 
 (Lecturas complemetarias) 
 
Dr. Bernardo Fontal/ ULA‐ Ciencias. 
 

 
2

De lo ecológico a lo meta‐complejo 
Oscar Fernández 
Universidad Pedagógica Experimental Libertador. 
Centro de Investigaciones Contemporáneas (CINCO) 
Línea de Investigación:  viejas y nuevas racionalidades científicas. Coordinación de 
investigación y postgrado 
E‐Mail:  Ofernandez@miximail.com. 
  
§         Según Edgar Morin los tres principios del pensamiento complejo son: 
‐         “El principio dialógico que se basa en la asociación compleja (complementaria, 
concurrente,  antagonista)  de  instancias  necesarias  juntas  para  la  existencia,  el 
funcionamiento y el desarrollo de un fenómeno organizado. 
‐          El  principio  recursivo:  en  el  que  todo  momento  es,  a  la  vez,  producto  y 
productor, causante y causado, y en el que el producto es productor de lo que lo 
produce, el efecto causante de lo que causa. 
‐         El principio hologramático: en el que no solo la parte está en el todo, sino que 
el todo, en cierto modo, está en la parte”. 
. La complejidad se hipercomplejiza cuando surgen nuevos paradigmas tales como el:
ecológico, el cybernético, el neurológico y el semiótico los cuales de forma aleatoria
interactúan  entre  sí  y  con  el  pensamiento  complejo  creando  una  filosofía
postcontemporánea y en consecuencia una nueva cultura o subculturas. 
En el pensamiento cybernético distingo tres principios; éstos son: 
‐         El principio de discontinuidad espacio‐temporal. Aquí las nociones clásicas de 
espacio y tiempo se reconfiguran, pues el aquí y el ahora y el allá y después, se 
confunden en un estado cuántico que es y no es al mismo tiempo, estamos sin 
estar, existimos sin existir y todo por culpa del Internet. 
‐          Principio  de  multidimencionalidades  sensorial:  en  la  realidad  virtual  con 
aplicaciones  diversas  en  simuladores,  atracciones  en  parques  temáticos,  etc;  el 
objetivo  principal  es  confundir  los  sentidos  y  en  consecuencia  crear  una 
dimensión  paralela  que  hace  real  lo  irreal  e  irreal  lo  real  por  lo  menos  por  un 
tiempo. 
‐          Principio  de  realidad  virtual:  lo  virtual  existe,  en  condiciones  de  tiempo  y 
espacio  distintas,  pero  tangibles  y  medibles.  Es  decir,  se  siente,  se  ve,  se  oye, 
etc.;  en  consecuencia  produce  estímulos  y  genera  respuestas.  Se  plantea 
entonces el surgimiento de una nueva lógica. La lógica virtual que nos hablará de 
una verdad virtual, de una ética virtual de una vida virtual. 
En el pensamiento eclógico observó los siguientes principios: 
‐          Principio  homoestático:  Este  principio  se  refiere  al  continuo  equilibrio 
dinámico que se mantiene desde el nivel molecular hasta el sistémico en todos 
los  seres  vivos  y  que  les  permitan  realizar  sus  funciones  y  conservar  una 
3

estructura  pero  que  además  de  todo  esto  nos  sugiere  una  nueva  forma  de 
pensar el orden y en consecuencia nuestras vidas. 
‐         Principio de cooperación y competencia: Según la selección natural de Darwin 
los seres vivos compiten entre sí para poder sobre vivir; pero también es cierto 
que cooperan entre ellos, de hecho el segundo fenómeno es más frecuente que 
el primero. De allí que encontremos ideas que compitan con otras y que logren 
dominar por diversas razones tales como: 
‐         Superioridad argumentativa 
‐         Correspondencia histórica 
‐         Correspondencia política 
‐         Evidencia empírica, etc. 
  Más  sin  embargo  podríamos  rescatar  algunos  elementos  de  ellas  y  hasta  la 
totalidad de las ideas si las analizamos bajo otras lógicas. De igual modo la cooperación 
sería  más  eficiente  si  trascendemos  las  barreras  de  las  disciplinas  y  si  nos  vemos  no 
como  creadores  particulares  sino  copartícipes de  un  colectivo  intelectual  que  a  su  vez 
no renuncia a su mérito pero que reconoce en el colectivo la posibilidad de crear más y 
más rápido. Tomando en cuenta que por nuestra condición limitada corporal o podemos 
aprenderlo todo por nosotros mismos, en consecuencia la colaboración intersubjetiva se 
convierte en una oportunidad para romper nuestros paradigmas. 
‐          Principio  de  Autoorganización:  “hay  descubrimientos  que  están  invitando  a 
que  los  biólogos  cambien  sus  enfoques.  Los  seres  vivos  son  sistemas  de  alto 
orden.  Poseen  estructuras  intrincadas,  que  se  han  mantenido  y  aún  se  han 
duplicado,  a  través  de  un  ballet  muy  preciso  de  actividades  químicas  y 
comportamentales.  Desde  Darwin,  los  biólogos  consideran  que  la  selección 
natural  es  virtualmente  la  sola  fuente  de  dicho  orden.  Pero  Darwin  no  podía 
haber  sospechado  la  existencia  de  la  autoorganización,  una  propiedad 
recientemente  descubierta  e  innata  de  algunos  sistemas  complejos”.  (Stuart  A. 
Kauffman,  antichos  and  Adaptation,  scientific American,  agosto  1991,  p.64).  En 
el pensamiento los procesos que conllevan a la construcción de nuevas ideas no 
están  claramente  establecidos;  pero  muchas  veces  surgen  como  fenómenos 
espontáneos  de  origen  incierto  pensamientos  que  de  alguna  forma  buscan  la  
autoorganización. 
  “…  el  neocórtex  humano  es  un  prodigioso  tejido  anárquico,  donde  las 
uniones sinápticas se efectúan de manera aleatoria. Aunque está constituido por 
células  especializadas  (neuronas),  el  cerebro  es  un  campo  no‐especializado, 
donde se implantan innumerables localizaciones y a través del cual se efectúan 
interacciones  laterales.  Son  las  interacciones  anárquicas  las  que  están  en  la 
fuente  del  orden  central…  No  hay  equilibrio,  sino  inestabilidad,  tensión 
permanente  entre  estos  aspectos  que,  al  mismo  tiempo  que  son 
fundamentalmente  complementarios,  resultan  fácilmente  concurrentes  y 
antagonistas”. (Edgar Morín). 
  “…  el  cerebro  es  el  objeto  material  más  complejo  que  conocemos  en el 
universo y muestra una enorme variabilidad entre individuos” (Edelman). 
   
4

En el pensamiento neurocientífico observo los siguientes principios: 
Principio  de  redes  neuronales:  son  relaciones  multivariadas  de  condiciones 
pluridimensionales,  las  cuales  superan  la  comprensión  humana  dadas  su  múltiples 
interconexiones relacionales y a la vez simultáneas. La única vía posible (hasta la fecha) 
para aproximarse a la comprensión de ésta dinámica, es la simulación computacional la 
cual con la ayuda de supercomputadores pueden correlacionar aleatoriamente infinidad 
de  interconexiones  que  sin  la  ayuda  de  éste  elemento  sería  prácticamente  imposible 
comprender la naturaleza de éste fenómeno neuro‐cibernético. 
Principio  Neurogenético:  Apenas  comenzamos  a  conocer  el  intricado  universo  de  los 
genes y aunado a esto, las neurociencias abren aún más espacio de incomprensión, que 
pareciera en algunos momentos hacerse ilimitado. Sin embrago pareciera haber cierto 
indicios  que  nos  hablan  de  la  posibilidad  de  ciertos  comportamientos  los  cuales 
pudieran  ser  influenciados  por  detonantes  genéticos.  En  tal  sentido  sea  cual  sea  el 
futuro de esta idea; la misma ofrece en este momento un puerta que no puede dejarse 
de abrir por muy incierta que nos parezca, porque de allí puede surgir toda una nueva 
filosofía. 
Principio de programación Neurolingûístico: 
   La  programación  neurolingüística  se  expresa  como  un  modelo  de  conducta 
orientado a través de técnicas de corte conductista y psicoanalítica, modificar de modo 
satisfactorio las interpretaciones desfavorables generadas a través de los cinco sentidos 
y las cuales requieren u nuevo enfoque para ser superadas. En tal sentido éste modelo 
ha mostrado un aparente éxito que va desde la terapéutica sicológica (depresión, estrés, 
esquizofrenia)  pasando  por  métodos  aplicados  en  le  campo  empresarial;  hasta  el 
desarrollo de técnicas aplicadas en la enseñanza y el aprendizaje (aprender a aprender) 
si se quiere éste puede considerarse como el punto cumbre del conductivismo, el cuál 
podría conducirnos a la alineación total (mensajes subliminales) o a la liberación total. 
De todos modos este principio sirve como conexión importante entre lo conocido y el 
conocedor; y aunque aún nos falta mucho para entender el funcionamiento del sistema 
nervioso (de modo integral parcial, no total). Este puede ser un interesante elemento de 
interfase entre nosotros y nuestras ideas. 
 
 

   

   

  
5

LOS  SIETE  SABERES  NECESARIOS  PARA  LA 

EDUCACIÓN DEL FUTURO  

Por Edgar Morin 
Ex director de l'École des Hautes Études en Sciencies Sociales. Paris.  
Presentación del texto publicado por Unesco. 

1. Una educación que cure la ceguera del conocimiento 

 
Todo  conocimiento  conlleva  el  riesgo  del  error  y  de  la  ilusión.  La 
educación  del  futuro  debe  contar  siempre  con  esa  posibilidad.  El
conocimiento  humano  es  frágil  y  está  expuesto  a  alucinaciones,  a
errores  de  percepción  o  de  juicio,  a  perturbaciones  y  ruidos,  a  la
influencia distorsionadora de los afectos, al imprinting de la propia 
cultura,  al  conformismo,  a  la  selección  meramente  sociológica  de
nuestras ideas, etc.  

Se  podría  pensar,  por  ejemplo  que,  despojando  de  afecto  todo
conocimiento,  eliminamos  el  riesgo  de  error.  Es  cierto  que  el  odio,
la  amistad  o  el  amor  pueden  enceguecernos,  pero  también  es
cierto  que  el  desarrollo  de  la  inteligencia  es  inseparable  del  de  la
    
afectividad.  La  afectividad  puede  oscurecer  el  conocimiento  pero
también puede fortalecerlo.  

Se podría también creer que el conocimiento científico garantiza la 
detección  de  errores  y  milita  contra  la  ilusión  perceptiva.  Pero
ninguna  teoría  científica  está  inmunizada  para  siempre  contra  el
error.  Incluso  hay  teorías  y  doctrinas  que  protegen  con  apariencia
intelectual sus propios errores.  

La  primera  e  ineludible  tarea  de  la  educación  es  enseñar  un


conocimiento  capaz  de  criticar  el  propio  conocimiento.  Debemos
enseñar  a  evitar  la  doble  enajenación:  la  de  nuestra  mente  por  sus
ideas  y  la  de  las  propias  ideas  por  nuestra  mente.  "Los  dioses  se
nutren  de  nuestras  ideas  sobre  Dios,  pero  inmediatamente  se
tornan  despiadadamente  exigentes".  La  búsqueda  de  la  verdad
exige  reflexibilidad,  crítica  y  corrección  de  errores.  Pero,  además,
necesitamos  una  cierta  convivencialidad  con  nuestras  ideas  y  con
6

nuestros  mitos.  El  primer  objetivo  de  la  educación  del  futuro  será
dotar  a  los  alumnos  de  la  capacidad  para  detectar  y  subsanar  los
errores  e  ilusiones  del  conocimiento  y,  al  mismo  tiempo,
enseñarles a convivir con sus ideas, sin ser destruidos por ellas.  

2. Una educación que garantice el conocimiento pertinente 

 
Ante  el  aluvión  de  informaciones  es  necesario  discernir  cuáles  son
las  informaciones  clave.  Ante  el  número  ingente  de  problemas  es
necesario  diferenciar  los  que  son  problemas  clave.  Pero,  ¿cómo
seleccionar  la  información,  los  problemas  y  los  significados
pertinentes?  Sin  duda,  desvelando  el  contexto,  lo  global,  lo
multidimensional y la interacción compleja.  

Como  consecuencia,  la  educación  debe  promover  una  "inteligencia


general"  apta  para  referirse  al  contexto,  a  lo  global,  a  lo 
multidimensional  y  a  la  interacción  compleja  de  los  elementos.
Esta  inteligencia  general  se  construye  a  partir  de  los
conocimientos  existentes  y  de  la  crítica  de  los  mismos.  Su
configuración  fundamental  es  la  capacidad  de  plantear  y  de 
resolver  problemas.  Para  ello,  la  inteligencia  utiliza  y  combina
todas  las  habilidades  particulares.  El  conocimiento  pertinente  es
siempre  y  al  mismo  tiempo  general  y  particular.  En  este  punto,
Morin  introdujo  una  "pertinente"  distinción  entre  la
racionalización (construcción mental que sólo  atiende a lo general)
y  la  racionalidad,  que  atiende  simultáneamente  a  lo  general  y  a  lo
particular.  

3. Enseñar la condición humana 

 
Una aventura común ha embarcado a todos los humanos de nuestra
era.  Todos  ellos  deben  reconocerse  en  su  humanidad  común  y,  al
mismo tiempo, reconocer la diversidad cultural inherente a todo lo
humano.  Conocer  el  ser  humano  es  situarlo  en  el  universo  y,  al
mismo  tiempo,  separarlo  de  él.  Al  igual  que  cualquier  otro
conocimiento,  el  del  ser  humano  también  debe  ser
contextualizado:  Quiénes  somos  es  una  cuestión  inseparable  de
dónde estamos, de dónde venimos y a dónde vamos.  

Lo  humano  es  y  se  desarrolla  en  bucles:  a)  cerebro‐  mente‐
cultura;  b)  razón  —  afecto  —  impulso;  c)  individuo  —  sociedad  —
especie.  Todo  desarrollo  verdaderamente  humano  significa
7

comprender  al  hombre  como  conjunto  de  todos  estos  bucles  y  a  la


humanidad  como  una  y  diversa.  La  unidad  y  la  diversidad  son  dos
perspectivas  inseparables  fundantes  de  la  educación.  La  cultura  en 
general no existe sino a través de las culturas. La educación deberá
mostrar el destino individual, social, global de todos los humanos y
nuestro  arraigamiento  como  ciudadanos  de  la  Tierra.  Éste  será  el
núcleo esencial formativo del futuro.  

4. Enseñar la identidad terrenal 

 
La  historia  humana  comenzó  con  una  dispersión,  una  diáspora  de
todos  los  humanos  hacia  regiones  que  permanecieron  durante
milenios  aisladas,  produciendo  una  enorme  diversidad  de  lenguas,
religiones  y  culturas.  En  los  tiempos  modernos  se  ha  producido  la 
revolución  tecnológica  que  permite  volver  a  relacionar  estas
culturas, volver a unir lo disperso... El europeo medio se encuentra
ya en un circuito mundial del confort, circuito que aún está vedado
a  tres  cuartas  partes  de  la  humanidad.  Es  necesario  introducir  en 
la  educación  una  noción  mundial  más  poderosa  que  el  desarrollo
económico:  el  desarrollo  intelectual,  afectivo  y  moral  a  escala
terrestre.  

La  perspectiva  planetaria  es  imprescindible  en  la  educación.  Pero,


no  sólo  para  percibir  mejor  los  problemas,  sino  para  elaborar  un
auténtico  sentimiento  de  pertenencia  a  nuestra  Tierra  considerada
como última y primera patria. El término patria incluye referencias
etimológicas y afectivas tanto paternales como maternales. En esta
perspectiva  de  relación  paterno‐  materno‐  filial  es  en  la  que  se 
construirá  a  escala  planetaria  una  misma  conciencia  antropológica,
ecológica, cívica y espiritual. "Hemos tardado demasiado tiempo en
percibir nuestra identidad terrenal", dijo Morin citando a Marx ("la 
historia  ha  progresado  por  el  lado  malo")  pero  manifestó  su
esperanza citando en paralelo otra frase, en esta ocasión de Hegel:
"La  lechuza  de  la  sabiduría  siempre  emprende  su  vuelo  al
atardecer."  

5. Enfrentar las incertidumbres 

 
Todas  las  sociedades  creen  que  la  perpetuación  de  sus  modelos  se
producirá  de  forma  natural.  Los  siglos  pasados  siempre  creyeron
que  el  futuro  se  conformaría  de  acuerdo  con  sus  creencias  e
instituciones.  El  Imperio  Romano,  tan  dilatado  en  el  tiempo,  es  el
8

paradigma  de  esta  seguridad  de  pervivir.  Sin  embargo,  cayeron,


como  todos  los  imperios  anteriores  y  posteriores,  el  musulmán,  el
bizantino,  el  austrohúngaro  y  el  soviético.  La  cultura  occidental
dedicó  varios  siglos  a  tratar  de  explicar  la  caída  de  Roma  y
continuó  refiriéndose  a  la  época  romana  como  una  época  ideal  que
debíamos  recuperar.  El  siglo  XX  ha  derruido  totalmente  la
predictividad  del  futuro  como  extrapolación  del  presente  y  ha
introducido  vitalmente  la  incertidumbre  sobre  nuestro  futuro.  La
educación  debe  hacer  suyo  el  principio  de  incertidumbre,  tan 
válido  para  la  evolución  social  como  la  formulación  del  mismo  por
Heisenberg  para  la  Física.  La  historia  avanza  por  atajos  y
desviaciones  y,  como  pasa  en  la  evolución  biológica,  todo  cambio
es  fruto  de  una  mutación,  a  veces  de  civilización  y  a  veces  de 
barbarie.  Todo  ello  obedece  en  gran  medida  al  azar  o  a  factores
impredecibles.  

Pero la incertidumbre no versa sólo sobre el futuro. Existe también
la  incertidumbre  sobre  la  validez  del  conocimiento.  Y  existe  sobre
todo  la  incertidumbre  derivada  de  nuestras  propias  decisiones.
Una  vez  que  tomamos  una  decisión,  empieza  a  funcionar  el
concepto  ecología  de  la  acción,  es  decir,  se  desencadena  una  serie
de  acciones  y  reacciones  que  afectan  al  sistema  global  y  que  no
podemos  predecir.  Nos  hemos  educado  aceptablemente  bien  en  un
sistema  de  certezas,  pero  nuestra  educación  para  la  incertidumbre
es  deficiente.  En  el  coloquio,  respondiendo  a  un  educador  que
pensaba  que  las  certezas  son  absolutamente  necesarias,  Morin
matizó  y  reafirmó  su  pensamiento:  "existen  algunos  núcleos  de
certeza,  pero  son  muy  reducidos.  Navegamos  en  un  océano  de
incertidumbres en el que hay algunos archipiélagos de certezas, no
viceversa."  

6. Enseñar la comprensión 

 
La  comprensión  se  ha  tornado  una  necesidad  crucial  para  los 
humanos.  Por  eso  la  educación  tiene  que  abordarla  de  manera
directa  y  en  los  dos  sentidos:  a)  la  comprensión  interpersonal  e
intergrupal y b) la comprensión a escala planetaria. Morin constató
que  comunicación  no  implica  comprensión.  Ésta  última  siempre 
está  amenazada  por  la  incomprensión  de  los  códigos  éticos  de  los
demás,  de  sus  ritos  y  costumbres,  de  sus  opciones  políticas.  A
veces  confrontamos  cosmovisiones  incompatibles.  Los  grandes
enemigos  de  la  comprensión  son  el  egoísmo,  el  etnocentrismo  y  el 
sociocentrismo.  Enseñar  la  comprensión  significa  enseñar  a  no
9

reducir  el  ser  humano  a  una  o  varias  de  sus  cualidades  que  son
múltiples  y  complejas.  Por  ejemplo,  impide  la  comprensión  marcar
a  determinados  grupos  sólo  con  una  etiqueta:  sucios,  ladrones, 
intolerantes.  Positivamente,  Morin  ve  las  posibilidades  de  mejorar
la  comprensión  mediante:  a)  la  apertura  empática  hacia  los  demás
y  b)  la  tolerancia  hacia  las  ideas  y  formas  diferentes,  mientras  no
atenten a la dignidad humana.  

La  verdadera  comprensión  exige  establecer  sociedades 


democráticas,  fuera  de  las  cuales  no  cabe  ni  tolerancia  ni  libertad
para  salir  del  cierre  etnocéntrico.  Por  eso,  la  educación  del  futuro
deberá  asumir  un  compromiso  sin  fisuras  por  la  democracia,
porque  no  cabe  una  comprensión  a  escala  planetaria  entre  pueblos 
y culturas más que en el marco de una democracia abierta.  

7. La ética del género humano 

 
Además  de  las éticas  particulares,  la  enseñanza  de  una  ética  válida
para  todo  el  género  humano  es  una  exigencia  de  nuestro  tiempo.
Morin  volvió  a  presentar  el  bucle  individuo  —  sociedad  —  especie 
como base para enseñar la ética venidera.  

En  el  bucle  individuo  —‐  sociedad  surge  el  deber  ético  de  enseñar
la  democracia.  Ésta  implica  consensos  y  aceptación  de  reglas
democráticas.  Pero  también  necesita  diversidades  y  antagonismos.
El  contenido  ético  de  la  democracia  afecta  a  todos  esos  niveles.  El
respeto  a  la  diversidad  significa  que  la  democracia  no  se  identifica
con la dictadura de la mayoría.  

En  el  bucle  individuo  —  especie  Morin  fundamenta  la  necesidad  de 
enseñar  la  ciudadanía  terrestre.  La  humanidad  dejó  de  ser  una
noción  abstracta  y  lejana  para  convertirse  en  algo  concreto  y
cercano con interacciones y compromisos a escala terrestre.  

 
Publicado en El País Digital.  

El  texto  completo  en  formato  acrobat  reader  (.pdf)  se  encuentra
en: 
Página de la Cátedra Unesco Itinerante para Pensamiento Complejo
‐ Edgar Morin.  

 
10

INTERDISCIPLINA Y NUEVOS PARADIGMAS 
La ciencia de fin de siglo  
Dra. Denise Najmanovich  
 
Desde el 23 hasta el 26 de Octubre se realizará en el Teatro Coliseo de Buenos Aires, el 
Encuentro  Interdisciplinario  Internacional  de  Nuevos  Paradigmas,  Cultura  y  Subjetividad, 
organizado  por  la  fundación  Interfás.  Para  esa  fecha  se  harán  presentes  el  Premio  Nobel  de 
química  Ilya  Prigogine,  creador  de  la  Teoría  del  Caos;  Edgar  Morin,  uno  de  los  principales 
exponentes  del  pensamiento  interdisciplinario,  que  ha  desarrollado  su  pensamiento  en  áreas 
que  van  desde  la  antropología  y  la  sociología  hasta  la  epistemología;  Ernst  von  Glaserfeld, 
epistemólogo que junto a Heinz Von Foerster desarrolló aspectos centrales de la Cibernetica de 
Segundo Orden, Felix Guattari, Psicoanalista y crítico de arte .Junto a ellos Mony Elkaim, Carlos 
Sluzki, Harold Goolichian y otros popes de la Terapia sistemica. El encuentro contará, además, 
con la presencia de teóricos de la comunicación, críticos de arte y teóricos de la arquitectura de 
prestigio internacional.  
Ante  tal  avalancha  de  gente  importante,  muchos  se  han  preguntado:  ¿  porque  una 
fundación sistemica decide juntar gente tan diferente ? ¿ porque ahora ? Intentaremos, en esta 
nota, buscar la pauta que conecta a todas estas personas, disciplinas, búsquedas, que se darán 
cita  en  esta  ciudad  ‐  aun  perteneciente  al  tercer  mundo  ‐  para  reflexionar  sobre  el  siglo  XX  y 
pensar el XXI.  
LOS PARADIGMAS  
Una de los hipótesis que nos pueden ayudar a comprender este encuentro es que el año 
próximo  se  cumpliran  30  años  de  la  publicación  del  libro  de  T.  Kuhn  La  Estructura  de  las 
Revoluciones  científicas.  Tal  vez  los  organizadores  no  hayan  reparado  en  este  hecho,  sin 
embargo,  este  texto  que  revolucionó  primero  el  ámbito  restringido  de  los  historiadores  y 
filósofos  de  la  ciencia  se  ha  convertido  en  un  material  de  amplia  consulta  que  desde  hace  3 
decadas  está  ubicado  en  las  estanterías  de  las  bibliotecas  y  librerías  más  importantes  del 
múndo, casi como un clásico. El concepto de paradigma, que Kuhn desarrolla en el, y que algún 
crítico  dijera  que  tiene  más  de  20  significados  distintos,  ha  alcanzado  hoy  una  difusión 
fenomenal en todos los ámbitos de la cultura, pese a la férrea oposición del Positivismo Lógico 
que prácticamente hasta los años sesenta era considerado como la filosofía oficial de la ciencia.  
En este texto Kuhn expone una nueva concepción del desarrollo científico, explica el rol 
protagónico que le cabe a la historia en el establecimiento de una nueva filosofía de la ciencia, 
plantea  la  necesidad  de  revisar  en  profundidad  los  conceptos  en  uso  sobre  la  ciencia,  su 
producción,  su  impacto  social,  sus  conexiones  con  la  filosofía  y  la  compleja  relación  teoría‐
observación.  Kuhn,  critica  la  postura  tradicional  de  la  filosofía  de  la  ciencia  que  considera  a  la 
investigación  científica  como  una  larga  marcha  hacia  la  verdad  a  través  de  un  método  que 
garantiza la objetividad y la neutralidad de la producción científica . Frente a este esquema de 
desarrollo  continuo  y  progresivo,  que  elaboraron  los  positivista  lógicos,  Kuhn  propone  su 
concepción de los Paradigmas, como modelos ejemplares que guían la investigación en un área 
determinada  del  conocimiento  y  que  son  sustituidos  por  otros  nuevos  mediante  verdaderas 
revoluciones científicas.  
11

Un  paradigma  establece  el  marco  conceptual  dentro  del  cual  se  desarrollará  la 
investigación  en  un  área  determinada,  plantea  cuales  serán  la  entidades  fundamentales  del 
universo,  que  clase  de  interacción  tendrán  entre  ellas,  que  clase  de  preguntas  serán 
consideradas legítimas y que tecnicas serán las adecuadas para buscar las soluciones.  
DE LA SIMPLICIDAD A LA COMPLEJIDAD  
Desde el nacimiento de la ciencia moderna hasta casi nuestro siglo reinó el paradigma de 
la simplicidad. El exponente máximo de este paradigma fue la dinámica de Newton, siguiendo su 
ejemplo  todas  las  explicaciones  debían  ser  económicas,  expresadas  en  leyes  deterministas, 
basadas  en  modelos  ideales  .  La  mecánica  newtoniana  fundamentaba  su  poder  en  el  metodo 
analítico, en la búsqueda de unidades fundamentales y el estudio de su comportamiento, para 
luego por ensamblaje de partes explicar el comportamiento del conjunto.  
El  siglo  XIX  inauguro  los  grandes  problemas  conceptuales  que  iban  a  eclosionar  en  el 
nuestro. Darwin desarrolló la Teoría de la Evolución, en Francia Fourier crea la nueva ciencia del 
calor que llevará al desarrollo del concepto de entropía y la flecha del tiempo.( Ver recuadro).  
En nuestro siglo, la biología y las ciencias sociales y tambien la física, necesitaron explicar 
el  cambio,  la  transformación  y  la  complejidad.  El  marco  conceptual  newtoniano  no  permitía 
abordar  estas  problemáticas  ya  que  los  paradigmas  son  para  los  científicos  como  los 
expedientes para los jueces, lo que no figura allí no está en el mundo  
En  este  contexto  Ludwig  von  Bertalanffy,  un  biologo  centrado  en  la  elaboración  de 
conceptos que pudieran explicar el comportamiento del organismo como un todo, crea la Teoría 
General de los Sistemas, en 1945. La Dra. Dora Fried Schnitman explica en su libro " Aspectos 
Culturales  en  Terapia  Familiar.  Un  Modelo  Sistemico  "  cómo  los  trabajos  de  Bertalanffy 
confluyeron  con  otros  desarrollos  paralelos  que,  desde  distintas  perspectivas,  se  estaban 
planteando  el  problema  de  la  complejidad:  "  Durante  este  período  se  publicaron,  casi 
simultáneamente, el trabajo de Wiener sobre Cibernetica ( 1948 ), los trabajos sobre teoría de la 
comunicación  de  Shannon  y  Weaver  (  1949  )  y  sobre  la  teoría  del  Juego  de  von  Neumann  y 
Morgenstern ( 1949 ). Todas estas teorías compartían un interes por estudiar objetos complejos 
con metodologías no reduccionistas ".  
Diferentes  líneas  de  investigación  han  enfatizado  diversos  aspectos  de  la  teoría  de 
sistemas,  pero  todas  ellas  aceptan  el  dictum  aristotelico  :  el  todo  es  más  que  la  suma  de  las 
partes. Esto se aplica tanto al organismo de los seres vivos, como al comportamiento individual, 
familiar  o  social,  a  los  sistemas  de  comunicación,  incluidos  los  lenguajes  y  en  general  a  todo 
sistema  complejo.  Es  por  esto  que  la  teoría  general  de  sistemas  es  de  naturaleza 
interdisciplinaria, o mejor aún transdisciplinaria, ya que remite a características muy generales 
que comparten sistemas muy diversos y esto nos lleva a comprender porque existen diferentes 
enfoques  de  la  perspectiva  sistemica  como  la  cibernetica,  la  teoría  de  autómatas,  la  de  la 
información,  la  de  control,  la  de  conjuntos,  la  de  grafos  y  redes,  la  de  juegos  y  decisiones,  la 
matemáticas relacionales, la computación y muchas otras.  
La Teoría General de los Sistemas, rompe con el paradigma newtoniano de simplicidad y 
analiticidad para plantearse problemas relacionados con la complejidad e interacción. Desde sus 
inicios  el  movimiento  sistemico  ha  sido  consciente  del  cambio  conceptual  que  estaba 
proponiendo,  la  investigación  ha  estado  ligada  siempre  a  la  reflexión  epistemológica, 
cuestionando la omnipotencia del metodo analitico, fijando el foco de atención en las redes de 
relaciones,  más  que  en  los  elementos;  en  los  bucles  de  retroalimentación  más  que  en  la 
causalidad  lineal  y  unidireccional.  Bertalanffy,cuestionando  la  teoría  del  conocimiento  del 
12

positivismo lógico, decía : la percepción no es un simple reflejo de las " cosas reales "( sea cual 
fuere su status metafísico ),y el conocimiento no constituye una mera aproximación a la " verdad 
" o " realidad ", sino una interacción entre cognoscente y cognoscendo, que depende de una gran 
variedad de factores biológicos, psicológicosm culturales, linguisticos .  
Desde  la  perpectiva  sistemica  el  centro  de  gravedad  de  la  investigación  pasa  por  los 
modelos  de  interacción,  irreductibles,  complejos,  multicausales  y  no  lineales,  en  sistemas 
abiertos.  
Bertalanffy  eligió  intuitivamente  a  los  sistemas  abiertos‐  que  intercambian  materia, 
energía e información con el medio‐ como modelo general y la investigación posterior confirmó 
las ventajas de esta decisión ya que la Teoría de Sistemas Abiertos guarda múltiples relaciones 
con la cinetica química en sus diversos aspectos, desde los teóricos hasta los tecnológicos; con la 
termodinámica  de  procesos  irreversibles  de  Prigogine,  con  la  fisiología  y  tambien  con  las 
ciencias sociales, otorgando a la Teoría un alto grado de conexiones y generalidad.  
Ilya Prigogine, por su parte, rompió con el paradigma de la simplicidad siguiendo la lógica 
interna  de  sus  investigaciones  con  sistemas  lejos  del  equilibrio  que  lo  obligaron  a  desarrollar 
nuevas categorías conceptuales para abordar los problemas de la complejidad, la tranformación 
y la evolución de los sistemas que estudiaba. Tanto la preocupación por la problemática glogal 
de  la  complejidad  como  su  interes  en  la  reflexión  epistemológica  llevaron  a  un  acercamiento 
entre Prigogine y los sistemicos que fue el punto inicial de un fructífero intercambio que llegará 
a su madurez en el siguiente período evolutivo de la Teoría de sistemas.  
DEL MANTENIMIENTO AL CAMBIO  
En un primer período de evolución, que va desde sus orígenes hasta finalizar la decada del 
sesenta, la investigación se centró en el objetivo de comprender el equilibrio dinámico; guiados 
en  buena  parte,  por  el  gran  enigma  biológico  respecto  al  mantenimiento  de  la  estructura 
corporal.  Sabemos  que  nuestras  celulas  se  recambian  permanentemente,  pese  a  ello  nos 
concebimos como un organismo más o menos estable , al menos durante algunos períodos de 
tiempo  (  arruga  más,  arruga  menos  ).  Al  respecto  nos  dice  la  Dra  Schnitman:  "  El  desarrollo 
temprano de la Cibernetica y la Teoría General delos Sistemas se caracterizó por un enfasis en la 
estructura,  la  adaptación,  el  equilibrio  dinámico,  con  el  propósito  de  comprender  cómo  una 
organización dada podía ser estabilizada y mantenida por medio del cambio continuo, "(...)"Sin 
embargo  las  estructuras  vivientes  y  sociales  no  pueden  ser  estabilizadas  permanentemente, 
tambien  requieren  una  comprensión  las  transformaciones  espontáneas;  la  sistemica  integró 
progresivamente  el  estudio  del  cambio  estructural  y  de  la  capacidad  de  transformaciones 
espontáneas del sistema como dominio necesario.".  
Este  segundo  período  de  la  sistemica  se  inicia  con  la  decada  del  70  y  su  busqueda 
fundamental  es la comprensión del  cambio.  En  este terreno los aportes de  Prigogine han sido 
profundamente relevantes, ya que su modelo de estructuras dispativas, sujetas a fluctuaciones 
internas  y  externas,  que  a  partir  de  cierto  valor  crítico  ,  o  umbral,  se  amplifican  y  llevan  a  la 
formación de nuevas estructuras permite desarrollar nuevas categorías conceptuales y modelos 
que  integren  la  dinámica  del  cambio,  el  azar  y  la  necesidad,  el  mantenimiento  y  la 
transformación.  
Edgar Morin, desde sus investigaciones sociológicas y antropológicas, y tambien desde la 
reflexión  epistemológica  realizó  valisísimos  aportes  en  este  período  y  en  el  siguiente,  que  se 
reflejan en su Trilogía: " El metodo ". Morin,desde una perspectiva centrada en la complejidad, 
13

se orienta hacia una concepción bio‐antropo‐cosmológica, en donde los niveles físico, viviente y 
social no sean compartimentos estancos sino que se articulen e integren.  
El  pensar  en  torno  al  cambio  y  la  evolución  llevó  en  su  desarrollo  natural  a  que  los 
investigadores  se  cuestionaran  sobre  las  condiciones  de  producción  de  conocimiento,  la 
aparición  de  novedades,  la  creatividad.  Esto  nos  lleva  a  un  tercer  período  evolutivo  que  se 
expresa más fuertemente en el tercer tomo de la trilogía, El Conocimiento del Conocimiento, y 
que Heinz von Foerster bautizó Cibernetica de Segundo Orden.  
LA GENERATIVIDAD  
La  epistemología  positivista  se  corresponde  claramente  con  el  paradigma  de  la 
simplicidad. El sujeto ( científico ) es un observador ( neutral, objetivo ) de una naturaleza que es 
independiente ( ajena a sus deseos y sufrimientos ). El conocimiento es reflejo ( en el sujeto ) de 
la  realidad  que  está  allí  afuera;  el  conocer  no  modifica  esta  realidad  ya  que  el  observador  no 
interfiere en absoluto con su objeto de estudio.  
Esta  concepción  objetivista  del  conocimiento  no  fue  cuestionada  exclusivamente  por 
Kuhn. Desde otra perpectiva Jean Piaget, realizó una crítica demoledora en sus investigaciones 
en psicología experimental y epistemología genetica, desarrollando una postura constructivista 
del conocimiento, donde sujeto y objeto ya no son polos opuestos de una dicotomía, sino que 
ambos se co‐construyen en el proceso de conocimiento.  
Ya  en  las  primeras  decadas  del  siglo,  la  propia  física,  a  traves  del  principio  de 
indeterminación de Heisemberg, introduce al observador dentro de la teoría científica; y aunque 
mucho  más  tardiamente  la  biología,  especialmente  la  neurofisiología,  con  los  aportes  de 
McCulloch,  Maturana  y  Varela,  confirman  que  no  podemos  prescindir  del  observador  como 
parte del sistema de observación, desde la investigación de fenómenos fisiológicos.  
La cibernetica de segundo orden da cuenta de este proceso de reflexión del conocimiento 
del  conocimiento,  donde  para  conocer  el  cerebro  utilizamos...el  cerebro,  para  conocer  el 
lenguaje  utilizamos...el  lenguaje,  es  decir  donde  la  recursividad  es  la  norma,  donde  no  hay 
linealidad posible, solo bucles. Este tercer período contó entre sus máximos exponentes con los 
aportes de Ernst von Glaserfeld y Heinz von Foerster.  
INTERDISCIPLINARIEDAD, TRANSDISCIPLINARIEDAD  
Hasta aquí hemos visto cómo se enlazan la Teoría de sistemas, la reflexión epistemológica 
desde Kuhn a la Cibernetica de segundo Orden, las teorías de Prigogine y Morin. Sólo nos resta 
pensar cual es la pauta que las conecta con la Terapia Familiar sistemica, el arte la arquitectura y 
sus críticos, en esta red del pensamiento de la complejidad.  
La  Teoría  general  de  los  sistemas  nació  como  una  perspectiva  transdiciplinaria,  que 
permite abordar sistemas complejos de cualquier clase. No constituye una disciplina en si, sino 
una  metadisciplina,  pues  más  que  una  teoría  sobre  el  mundo,  es  una  teoría  para  desarrollar 
teorías . Estas últimas sí nos hablaran del mundo, y de nosotros hablando del mundo, y seran 
teorías sistemicas de áreas específicas. En este sentido, tanto la Teoría de Bertalanffy como la 
cibernetica  de  Wiener  han  sido  muy  influyentes  en  el  desarrollo  de  la  Terapia  Familiar, 
especialmente  gracias  al  grupo  de  Gregory  Bateson  y  colaboradores  de  Palo  Alto  que  estaban 
desarrollando investigaciones sobre la comunicación en grupos humanos, que fueron derivando 
en la conceptualización de una estrategia terapeutica.  
14

No debe extrañarnos entonces que una fundación sistemica, como es Interfas, convoque 
a  este  encuentro  para  reflexionar  sobre  los  nuevos  paradigmas,  la  cultura  y  la  subjetividad.  El 
quiebre del paradigma newtoniano, el  surgimiento  de distintas  perspectivas y alternativas nos 
llevan a la necesidad de pensar sobre estos cambios, evoluciones y crisis que se expresan en la 
historia de las ideas (paradigamas), en la historia de las sociedades ( culturas) y de los individuos 
que las co‐forman ( sujetos ).  
La realización de este encuentro es, tal vez, el mejor regalo que Kuhn hubiera soñado para 
festejar los 30 años de la publicación de su libro clave. Este nuevo paradigama de la complejidad 
se  desarrolla  desde  una  red  de  pensadores,  que  desde  diversos  puntos  de  vista  tratan  de 
construir una perspectiva para conocer(se). En este proyecto no hay disciplinas privilegiadas ni 
convidados de piedra. El arte, la ciencia, la filosofía son sólo formas en que los hombres abordan 
la multiplicidad de planos y posiblidades de ser...humanos.  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
15

LA METAMORFOSIS DE LA CIENCIA  
Dra. Denise Najmanovich  
 
Ilya  Prigogine  no  es  un  científico  común.  No  solo  porque  es  uno  de  los  pocos  que  han 
recibido  el  premio  Nobel,  sino  también  porque  se  encuentra  entre  los  poquísimos  que  han 
trascendido  su  área  específica  ‐  la  física‐  para  dejar  su  huella  en  otras  disciplinas  como  la 
filosofía de la ciencia, la psicología o la sociología.  
Las  teorías  de  Prigogine  son  parte  la  búsqueda  de  un  nuevo  paradigma,  de  una  nueva 
concepción de la ciencia y de las descripciones que ella hace de la naturaleza.  
La ciencia clásica nos ha mostrado un universo mecánico, manipulable, eficaz : el universo 
reloj de la Modernidad. Esta imagen mecanicista creada por Descartes y adaptada por Newton y 
sus  sucesores  reemplazó  a  la  descripción  aristotélica  de  un  universo  vivo,  orgánico  y  creativo. 
Con el cambio ganamos muchas cosas, pero perdimos otras, al igual que cuando abandonamos 
la niñez para convertirnos en adultos.  
Muchos  científicos  consideran  que  ha  llegado  el  momento  de  hacer  una  síntesis 
integradora, de crear puentes entre las disciplinas que nos ayuden a componer una imagen más 
armónica de la naturaleza y del hombre como parte integrante de ella.  
Los  aportes  de  Prigogine  en  esta  búsqueda  son  fundamentales,  tanto  en  su  trabajo 
específico  ,  que  abre  las  puertas  de  la  ciencia  al  estudio  de  la  complejidad  y  de  la  flecha  del 
tiempo ( ver recuadro ), como en su búsqueda de integración con otras disciplinas y su trabajo 
en pro de una nueva alianza y de un diálogo fecundo entre la ciencia y la filosofía.  
Prigogine nos ha presentado un apasionante análisis de la evolución de la ciencia a partir 
de  dos  concepciones  del  universo  físico  en  conflicto:  la  imagen  estática  y  la  imagen  evolutiva. 
Pero  sus  trabajos  no  se  limitan  a  la  perspectiva  histórica,  ya  que  no  es,  ni  pretende  ser  un 
historiador; sino que muestra un camino alternativo surgido de sus investigaciones científicas y 
de  su  reflexión  filosófica.  "Estamos  avanzando  hacia  nuevas  síntesis,  hacia  un  nuevo 
naturalismo,  que  combina  la  tradición  occidental,  con  su  énfasis  en  las  formulaciones 
experimental  y  cuantitativa,  con  la  tradición  china  dirigida  hacia  una  imagen  de  mundo 
autoorganizándose espontáneamente.", dice  
El universo domesticado  
Para comprender el pensamiento de Prigogine debemos seguir el camino que el construyó 
junto  con  Isabelle  Stengers  y  que  expuso  deliciosamente  en  su  libro:  "La  nueva  alianza. 
Metamorfosis  de  la  ciencia".  Esta  presentación  histórica  es  imprescindible  para  delinear  el 
marco  conceptual  y  la  importancia  de  los  aportes  de  Prigogine;  y  además,  para  poder 
representarnos las enormes tensiones, batallas y revoluciones conceptuales implicadas en esta 
metamorfosis de nuestra imagen del Universo.  
La  concepción  aristotélica  dominó  nuestra  civilización  entre  los  siglos  XII  y  XVI  y  se 
derrumbó con gran estrépito mediante un traumático proceso que cambió radicalmente nuestra 
manera  de  concebir  el  mundo.  Esta  gran  modificación  conceptual  se  denominó  Revolución 
Copernicana y marcó un hito en la historia del pensamiento occidental. Copérnico apenas dió un 
16

puntapié inicial a esta revolución; Galileo y Kepler la encauzaron y Descartes lo encarriló dentro 
de una concepción mecanicista que recién llegaría a su madurez con Newton.  
Antes de la gran transformación que da surgimiento a la ciencia moderna, el universo era 
concebido como un todo orgánico, cuya característica fundamental era la interdependencia de 
los fenómenos materiales y espirituales. En el universo aristotélico el hombre formaba parte de 
la  naturaleza  armónicamente  y  en  plano  de  igualdad  con  las  otras  criaturas.  La  tarea  de  los 
filósofos (no había división entre ciencia y filosofía), era tratar de comprender el significado y la 
importancia de las cosas. No predecirlas. Mucho menos controlarlas.  
La  ciencia  moderna,  en  cambio,  produjo  un  universo  donde  el  hombre  :  "...Debe  por  fin 
despertarse de su sueño milenario; y haciendo esto, despertarse en su completa soledad, en su 
aislamiento fundamental. Pero ¿ se da cuenta de que, como un gitano, vive en la frontera de un 
mundo extraño ? Un mundo sordo a su música, tan indiferente a sus esperanzas como lo es a su 
sufrimiento  "  según  lo  describió,  de  una  manera  trágica  y  bella  J.  Monod  en  el  "El  azar  y  la 
necesidad".  En  adelante  el  hombre  será  considerado  un  observador  separado  en  un  universo 
que le es ajeno; donde, según las normativas de Francis Bacon, el científico debía "torturar a la 
naturaleza hasta arrancarle sus secretos" ,porque "saber es poder".  
Sobre este proceso, I. Prigogine y I. Stengers nos dicen en "La Nueva Alianza":  
"  El  sorprendente  éxito  de  la  ciencia  moderna  llevó,  por  lo  tanto,  a  una  transformación 
irreversible de nuestra relación con la naturaleza ". ... " Reveló al hombre una naturaleza muerta 
y pasiva, una naturaleza que se comporta como un autómata, que una vez programada funciona 
eternamente siguiendo las reglas escritas en su programa ".  
Dioses o demonios  
Luego  de  las  revoluciones,  aun  de  las  conceptuales,  es  necesario  un  nuevo  período  de 
estabilidad. Como se sabe la tempestad no puede durar eternamente. Es así que en el siglo XVIII 
sobrevino  la  calma;  la  ciencia  moderna  se  transformó  en  la  productora  de  la  cosmovisión 
dominante, la concepción aristotélica fue relegado a los monasterios o al olvido, y el paradigma 
newtoniano iluminó la nueva aurora de la modernidad.  
El  universo  mecanicista  no  se  estableció  en  un  día  pero  en  los  comienzos  del  siglo  XIX, 
tanto  en  Inglaterra,  como  en  el  continente  Europeo  brillaba  con  su  máxima  intensidad.  Tal  es 
así,  que  cuando  en  1805  Pierre  Simón  de  Laplace  le  presentó  a  Napoleón;  su  obra  "Mecánica 
Celeste" ‐que completaba la obra de Newton en algunos de sus aspectos más importantes‐, fue 
interpelado  por  el  Emperador,  quien  le  dijo:  ‐  "  Me  dicen,  M.  Laplace,  que  a  lo  largo  de  este 
voluminoso libro sobre el sistema del universo no mencionais una sola vez al Creador "  
A lo que Laplace respondió:  
‐ " No he necesitado de esa hipótesis "  
El  mecanicismo  laplaciano  expulsó  a  Dios  definitivamente  de  la  explicación  científica 
considerándolo una hipótesis prescindible. El Universo laplaciano es un mecanismo de relojería 
eterno e increado.  
Es así que en el curso de los siglos XV, XVI y XVII se produce una transformación radical en 
el campo conceptual; de la concepción de un Universo poético y espiritual, armónico y pletórico 
de sentido; bello de contemplar y posible de comprender, se pasó a pensar que habitamos en 
un mundo mecánico, inodoro, incoloro e insípido pero manipulable eficazmente gracias al poder 
que nos da la nueva ciencia .  
17

En la Modernidad se ha roto la vieja alianza entre el conocimiento científico y filosófico, 
entre el alma y el cuerpo, entre el arte y la ciencia. La cultura humanística se reserva para sí la 
literatura, la pintura, la filosofía, el sufrimiento pero también el goce; todos separados del que 
en adelante se denominará conocimiento objetivo del Universo. Se establece así la separación 
del Sujeto, en adelante observador imparcial; y el Objeto, realidad independiente del sujeto. La 
expresión  de  esta  dicotomía  en  el  campo  del  conocimiento  es  la  separación  entre  la  cultura 
científica objetivista ( que se ocupa de la materia y sus leyes) y la cultura humanista subjetivista 
(que se ocupa del alma y sus expresiones). Prigogine señaló con claridad el peligro que entraña 
este  divorcio  entre  las  dos  culturas:  "Se  encuentra  así  acentuada  una  tendencia  al 
enclaustramiento  general  que,  en  particular,  corta  a  la  filosofía  de  una  de  sus  fuentes 
tradicionales de reflexión, y a la ciencia de los medios de reflexionar sobre su práctica".  
La  ciencia  moderna  ha  dado  grandes  cosas  a  la  humanidad,  desde  los  automóviles  a  las 
naves espaciales, los antibióticos y los plásticos, pero nos ha separado, escindido en dos culturas 
que  no  se  yuxtaponen  ni  intercambian  entre  sí.  No  solo  Dios  ha  sido  expulsado  del  universo 
newtoniano sino también la ética y la estética, la metafísica y el alma han quedado fuera de este 
universo geométrico, regido por leyes matemáticas ajenas a nuestro dolor y nuestro deseo.  
En el universo científico el destino está fijado por leyes mecánicas; el azar no tiene lugar, 
todo acontecimiento está determinado, el mundo se rige por una dinámica de causa‐efecto.  
El universo desbocado  
El  siglo  XX  cambió  radicalmente  su  forma  de  ver  el  mundo,  las  concepciones  estáticas 
fueron cediendo el paso a las evolutivas. La imagen del Universo sufrió una gran transformación 
que  comenzó  a  esbozarse  en  el  transcurso  del  siglo  XIX  y  tomó  una  forma  más  definida  en  el 
nuestro.  La  teoría  de  la  evolución  darwiniana  se  impuso  en  biología  y  se  está  imponiendo  en 
cosmología  una  concepción  evolucionista  que  nos  habla  de  un  Universo  en  expansión,  y  en 
muchas  otras  áreas  del  conocimiento  científico  el  enfoque  evolutivo  es  considerado 
fundamental.  
El trabajo científico que desarrolló Prigogine y que le valió el Premio Nobel de Química en 1977 
se  inscribe  en  el  área  de investigación  fisicoquímica  conocida  como  termodinámica  (teoría  del 
calor,  sus  flujos  y  transformaciones),  y  ha  sido  un  aporte  fundamental  para  esta  nueva 
concepción evolutiva de la naturaleza.  
Para  comprender  los  aportes  de  la  termodinámica  a  esta  nueva  imagen  del  Universo, 
utilizaremos nuevamente un enfoque histórico, siguiendo los pasos de Prigogine y Stengers.  
El primer gran paso de la termodinámica, nueva ciencia que se estableció en el siglo XIX, 
lo dió Joule cuando postuló el principio de conservación de la energía: "La energía no se crea ni 
se destruye, solo se transforma". Pero no sólo éxitos cosechó la nueva disciplina, también hubo 
muchas sorpresas y se les plantearon nuevos problemas a los investigadores; pues, aunque Sadi 
Carnot en 1824 consiguió reducir el estudio de las máquinas térmicas al modelo de las máquinas 
clásicas,  lo  hizo  trabajando  desde  el  único  punto  de  vista  del  rendimiento  ideal,  pero  había 
descuidado el hecho de que lo que estas máquinas consumen desaparece sin retorno. Ninguna 
máquina térmica restituirá al mundo el carbón que ha utilizado.  
¿Qué máquina tendrá el rendimiento ideal? Nuestra experiencia nos dice que ninguna, en 
un  tiempo  mayor  o  menor  todas  se  detienen,  ya  sea  por  falta  de  combustible,  por  fallas 
mecánicas, desgaste o rotura.  
18

"La obsesión por el agotamiento de las reservas y por la detención de los motores, la idea 
de  una  decadencia  no  reversible,  traduce  ciertamente  esta  angustia  propia  del  hombre 
moderno" , explica Prigogine en La Nueva Alianza .  
Angustia debido a que el segundo principio de la termodinámica ha estallado como una bomba 
en el mundo de la ciencia; separando lo ideal reversible de los real irreversible, ya que una parte 
de la energía se disipa como calor y no podemos recuperarla.  
Este segundo principio puede enunciarse de distintas maneras, la más sencilla es la que nos dice 
que "es imposible una máquina con movimiento perpetuo" debido a que, por ingenioso que sea 
el  diseño  de  su  motor,  no  toda  la  energía  se  puede  convertir  en  trabajo  mecánico.  La 
termodinámica dejó bien en claro a los ingenieros el porqué en cada ciclo parte de la energía se 
convierte (no se pierde) en una forma imposible de utilizar. En el caso de un motor, por ejemplo, 
nunca volverá exactamente a su estado inicial, aunque el pistón vuelva a su posición original; el 
sistema  se  encuentra  en  un  estado  termodinámico  diferente,  ya  que  sólo  un  porcentaje  de  la 
energía  química  de  la  nafta  se  convierte  en  trabajo  útil,  el  resto  se  pierde  como  calor, 
vibraciones mecánicas, energía contenida en los gases de escape.  
Carnot  desarrolló  el  segundo  principio  en  base  a  su  análisis  de  los  motores  térmicos,  pero 
Clausius  en  la  década  de  1860  a  1870  se  dió  cuenta  que  esta  dificultad  cada  vez  mayor  de 
transformar  calor  en  trabajo  era  un  fenómeno  más  amplio  y  que  además  de  las  máquinas 
térmicas  abarcaba  a  muchos  otros  sistemas.  Clausius  se  dió  cuenta  que  había  un  principio 
general que implicaba que al disminuirse las diferencias de nivel en un sistema (por ejemplo la 
diferencia  de  calor  entre  un  recipiente  caliente  y  otro  frío  en  las  máquinas  térmicas)  la 
posibilidad de convertir esa diferencia en trabajo mecánico era cada vez menor. Para expresar 
este fenómeno desarrolló el concepto de entropía.  
¿Qué es, pues, la entropía ? El termino proviene y la palabra griega "tropos" (transformación o 
evolución)  y  mide  el  grado  de  evolución  de  un  sistema  físico;  cuando  más  cerca  estemos  del 
equilibrio mayor será la entropía y menor la actividad del sistema.  
Como vimos, la energía mecánica nunca se transforma totalmente en trabajo sino que una parte 
se disipa como calor. Clausius relacionó este fenómeno con otros aparentemente inconexos: vió 
que cuando juntamos agua caliente y agua fría obtenemos agua tibia ‐y los dos líquidos nunca 
pueden  ser  separados‐,  la  diferencia  de  temperatura  entre  ambos  recipientes  es  cada  vez 
menor, el desequilibrio inicial va disminuyendo y con él la capacidad de producir trabajo. Algo 
parecido sucede si sacamos el tabique divisorio de un recipiente que contenga arena blanca de 
un  lado  y  arena  negra  del  otro,  al  cabo  de  un  tiempo  tendremos  solamente  arena  gris,  del 
desequilibrio  cromático  blanco‐negro  pasamos  a  la  homogeneidad  del  gris.  A  la  vez  podemos 
considerar que de un sistema estructurado pasamos a uno más desestructurado o desordenado, 
los granitos de arena están repartidos homogeneamente por todo el recipiente y no "cada uno 
en su lugar".  
¿Qué  tienen  en  común  todos  estos  fenómenos?  Todos  proceden  en  la  misma  dirección:  del 
desequilibrio al equilibrio, del orden al desorden, hacia una entropía cada vez mayor.  
En  base  a  este  análisis,  surge  la  formulación  más  general  del  segundo  principio:  Cualquier 
sistema físico aislado tomará espontáneamente el camino del desequilibrio cada vez menor, se 
hará cada vez más homogéneo. En términos de entropía diremos que en cualquier sistema físico 
aislado la entropía aumenta o permanece constante.  
Es fácil ver cómo la evolución de entropía se traduce en una evolución irreversible del sistema, 
ya que aquello que se ha disipado no se recupera y si invertimos el proceso no llegaremos nunca 
a la situación inicial.  
19

Nos dice Prigogine: " El crecimiento de entropía muestra una evolución espontánea del sistema. 
La  entropía  llega  a  ser  así  un  indicador  de  evolución,  y  traduce  la  existencia  en  física  de  una 
flecha del tiempo: para todo sistema aislado el futuro está en la dirección en la cual la entropía 
aumenta".  
Todo  esto  que  parece  tan  trivial  tomó  por  sorpresa  a  los  físicos  newtonianos,  ya  que  en  su 
descripción  mecánica  del  universo,  el  tiempo  y  los  procesos  son  reversibles  como  el 
funcionamiento de un reloj. Normalmente sus agujas giran en un sentido, pero podemos hacer 
que giren exactamente al revés con solo girar la cuerda.  
A finales del siglo XIX, los dos principios de la termodinámica constituían leyes nuevas, base de 
una  nueva  ciencia,  que  era  imposible  referir  a  la  física  tradicional  y  aunque  luego  se  logró 
compatibilizarlas surgieron nuevos inconvenientes, esta vez desde la biología.  
El  segundo  principio  de  la  termodinámica  indica  que  la  entropía  de  un  sistema  crece 
constantemente o permanece constante, que la dirección espontánea de cualquier proceso es 
siempre  desde  un  mayor  nivel  de  estructuración  a  uno  menor.  Todos  sabemos  que  nuestros 
departamentos  se  ensucian  "espontáneamente"  y  que  nos  cuesta  mucha  energía  volver  a 
limpiarlos  y  ordenarlos.  Sin  embargo,  la  teoría  evolutiva  dice  todo  lo  contrario:  primero 
existieron los animales más simples, menos estructurados, y luego fueron evolucionando hacia 
formas cada vez más complejas. En la vida de cada individuo sucede lo mismo, desde un huevo 
pasamos a ser una masa de células que luego se diferencian para formar el feto, cada vez más 
complejo. La flecha biológica parece tener un sentido contrario a la termodinámica.  
El universo reencantado  
Nuestra  experiencia  de  vida  se  opone  a  la  imagen  termodinámica  clásica  de  un  universo  en 
permanente  degradación.  Pero,  ¿es  posible  que  los  seres  vivos  vayan  a  contramano  por  la 
avenida termodinámica?  
Los  biólogos  comprendieron  rápidamente  que  no  debían  extrapolar  los  resultados  de  la 
termodinámica clásica a la biología, ya que para esta ciencia el equilibrio es un estado marginal 
(la muerte) y el no‐equilibrio su objeto de estudio: la vida.  
La evolución biológica tal cual la planteara Darwin es un acontecimiento sumamente extraño y 
muy poco probable desde la concepción termodinámica mencionada y la aparición de la vida es 
altamente  improbable.  Para  los  mecanicistas  somos  un  increíble  producto  del  juego  de  azar 
cósmico.  
Fue justamente Prigogine el encargado de reconciliar a la biología y a las ciencias humanas ‐ya 
que en estas también se verifican los fenómenos de aumento de complejidad, amplificación de 
innovaciones,  evolución‐  con  la  termodinámica.  Para  lograrlo  tuvo  que  desarrollar  nuevas  y 
revolucionarias concepciones.  
Toda  la  termodinámica  clásica  estaba  centrada  en  el  estudio  de  sistemas  aislados  en,  o  muy 
cerca  del  equilibrio;  sin  embargo  Prigogine  trabajó  con  sistemas  alejados  de  él.  La 
termodinámica  del  siglo  XIX,  en  cambio,  se  centró  en  los  procesos  cercanos  al  equilibrio  para 
describir un universo en permanente degradación, Prigogine desde su Termodinámica No Lineal 
de  los  Procesos  Irreversibles  (TNLPI)  describe  cómo,  en  situaciones  lejos  del  equilibrio,  se 
forman  nuevas  estructuras  (en  adelante  llamadas  estructuras  disipativas),  y  denominó  orden 
mediante fluctuaciones a la dinámica de formación de tales estructuras.  
En  la  termodinámica  clásica  un  sistema  podía  evolucionar  hacia  un  sólo  estado  final:  el 
equilibrio, y el proceso era lineal. En la TNLPI éste no es el caso, ya que no podemos determinar 
absolutamente la trayectoria evolutiva de un sistema, sino que aparecen distintas opciones, los 
caminos se bifurcan y en la vecindad de las bifurcaciones interviene el azar,  nuestras leyes no 
nos permiten deducir cuál camino tomará un sistema al llegar a una bifurcación. El equilibrio no 
es  más  el  único  estado  final  posible,  en  términos  físicos,  no  es  el  único  atractor.  Gracias  a  la 
20

investigaciones  de  Prigogine  y  colaboradores  se  han  estudiado  otros  atractores  denominados 
caóticos.  Sin  embargo,  lejos  de  todo  lo  que  uno  pueda  imaginarse  sobre  estos  atractores 
caóticos, estos son fuente de creación, aparición de nuevas estructuras y pautas complejas de 
organización.  
Estas  investigaciones  han  convergido  en  lo  que  hoy  se  conoce  como  la  Ciencia  del  Caos,  que 
estudia  la  formación  de  nuevas  estructuras  en  sistemas  abiertos  lejos  del  equilibrio,  como  los 
seres humanos, el cerebro, algunos fenómenos atmosféricos o las sociedades humanas.  
La  TNLPI  marca  otra  derrota  histórica  de  la  concepción  determinista  en  la  física,  la  primera  la 
ejecutó  la  teoría  cuántica  con  su  principio  de  indeterminación;  pero  Prigogine  fue  más  allá  e 
introdujo  el  concepto  de  historia  en  física:  ya  no  hay  una  sola  trayectoria  posible,  en  las 
bifurcaciones  el  azar  a  elegido  un  camino  y  descartado  otros,  podemos  construir  la  historia 
natural  del  sistema;  ya  no  somos  esclavos  de  un  destino  inapelable  escrito  en  las  leyes 
universales con caracteres matemáticos.  
Las teorías de Prigogine nos abren las puertas a un Universo abierto que no está absolutamente 
determinado, en donde el azar y la necesidad se conjugan para darnos estabilidad pero también 
creatividad. Un mundo imprevisible totalmente sería inhabitable para ser vivientes y un mundo 
totalmente estable sería insoportable para seres conscientes.  
Las leyes de la biología son nuevamente compatibles con las de la física, la evolución biológica es 
absolutamente  coherente  con  la  perspectiva  evolucionista  de  la  TNLPI  de  Prigogine,  los  seres 
vivos  pueden  ser  considerados  estructuras  disipativas  sujetas  a  fluctuaciones  que  pueden 
amplificarse  hasta  implicar  una  reorganización  total  en  un  nivel  más  complejo  (una  nueva 
especie).  El  desarrollo  humano,  tanto  individual  como  social,  también  puede  expresarse  en 
términos de estructuras disipativas, fluctuaciones y creación de nuevas organizaciones.  
En  este  universo  reencantado  se  abren  nuevas  posibilidades  de  encuentro  entre  las  ciencias  y 
las humanidades, el hombre deja de ser un espectador pasivo de las leyes eternas e inmutables 
y del destino que está escrito en ellas. El tiempo y la irreversibilidad no son tan sólo una ilusión, 
el caos no implica solo desorden sino también creatividad.  
La  ciencia  posrelativista  nos  ha  abierto  nuevas  perspectivas.  Los  fenómenos  ya  no  son 
abordados exclusivamente desde perspectivas privilegiadas, la flecha del tiempo no nos impulsa 
vertiginosamente hacia un universo degradado, sino por el contrario sabemos que vamos por un 
camino de creatividad y complejidad creciente. Esto nos impulsa a desarrollar nuevas categorías 
conceptuales  para  enfrentar  el  desafío  de  comprender  el  Universo  lejos  del  equilibrio  con  sus 
permanentes sorpresas y nuevas posibilidades. La pesadilla de un destino prefijado es hoy parte 
de los libros de historia. La Física del siglo XX ha entrado en una nueva etapa.  
LA FLECHA DEL TIEMPO  
El  diablillo  de  Laplace  es  una  supermente  equipada  con  el  conocimiento  de  las  leyes 
newtonianas del movimiento. Si somos capaces de suministrarle información sobre la posición 
exacta  de  todas  las  partículas  en  un  instante  dado,  el  diablillo  podrá  calcular  ‐a  partir  de  esta 
información exclusivamente‐ cualquier suceso pasado o futuro del universo. Para el diablillo el 
antes y el después son equivalentes, no hay forma de saber cuál es cuál, ya que el aplica siempre 
las mismas fórmulas; el tiempo para el es sólo una ilusión.  
En  nuestra  vida  cotidiana,  sin  embargo,  la  situación  es  totalmente  contraria:  distinguimos 
claramente  lo  que  ya  ha sucedido  (nuestra  infancia)  de  lo  que  no  aconteció  (nuestra  muerte). 
Sin embargo, en el marco conceptual  de la física clásica esta experiencia no tiene sentido. Las 
leyes newtonianas son reversibles, funcionan en ambos sentidos del tiempo. La vida ,en cambio, 
es irreversible: del nacimiento a la muerte; al igual que la evolución biológica que procede de la 
simplicidad a la complejidad, de la ameba al homo sapiens.  
21

Si  nuestras  experiencias  y  nuestras  teorías  biológicas  van  a  contramano  de  nuestras  teorías 
físicas,  algo  anda  mal  y  es  necesario  algún  ajuste.  La  termodinámica  clásica  vino  a  poner  las 
cosas en su lugar al plantear por primera vez en la física moderna la existencia de una flecha del 
tiempo que nos permite establecer con claridad una dirección que apunta desde el pasado hacia 
el futuro.  
Utilicemos la metáfora del Universo como una película, si proyectamos una secuencia donde la 
tierra se mueve alrededor del sol, nunca sabremos si la estamos pasando de atrás para adelante 
( o viceversa) a menos que sepamos de antemano si el giro es de este a oeste o a la inversa.  
Lo mismo sucedería si pudiéramos filmar una reacción atómica, pues si vemos el choque de una 
partícula alfa y un núcleo atómico, en un sentido la proyección indicará la fusión para formar un 
átomo más pesado y en el otro mostrará un proceso de desintegración. Esto es así porque todos 
los  procesos  mencionados  pueden  ser  considerados  reversibles;  nada  en  ellos  indica  una 
dirección en el tiempo.  
En cambio, si pudiéramos filmar el flujo de calor, por ejemplo desde un recipiente a 100 º hacia 
otro a 25 º, la situación sería totalmente distinta, ya que en la naturaleza sólo es espontáneo el 
paso del calor en un sentido: de lo caliente a lo frío. En el ejemplo de la película, si el flujo de 
calor  se  expresa  en  cambio  de  color,  sólo  habrá  una  forma  correcta  de  proyectarla.  Hemos 
encontrado  una  dirección  en  el  tiempo,  sabemos  cuál  es  el  pasado  y  cual  el  futuro:  hemos 
descubierto una flecha en el tiempo.  
 
 
 
www.pensamientocomplejo.com.ar 
Contactos: info@pensamientocomplejo.com.ar 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
22

CEREBRO,  MENTE,  CUERPO  Y 


ENTORNO 
Sergio Moriello 
sergiomoriello@hotmail.com 
 
Conceptos claves: acoplamiento – autonomía – auto‐organización – complejidad – 
comunicación – estructura – entorno – fluidez – interacción – organización – proceso 
La mente no puede considerarse separada del cerebro, como tampoco del cuerpo y 
del  entorno  (tanto  físico  como  social).  En  consecuencia,  se  lo  debe  considerar  como 
una unidad conceptual indivisible. 
 
Históricamente fue la Filosofía –y, más modernamente, la Filosofía de la Mente– quien 
se ha ocupado del problema cerebro‐mente(1). En esencia, existen dos tipos de teorías: 
las  dualistas  y  las  monistas,  cada  una  de  las  cuales  presenta  –a  su  vez–  diversas 
variantes.  Los  dualistas  afirman  que  el  cerebro  y  la  mente  son  “cosas”  diferentes, 
mientras  que  los  monistas  sostienen  que  son  una  única  y  misma  “cosa”,  aunque 
consideradas  desde  distintos  puntos  de  vista  [Taylor,  1979,  p.  32].  Últimamente  el 
enfoque dualista sufrió varios embates, por lo cual ha caído en desuso. No obstante, aun 
en  el  enfoque  monista  hay  detractores:  las  posiciones  extremas  tienen  poco 
fundamento. La teoría que más aceptación tiene –por el momento– es el emergentismo: 
la  mente  se  origina  a  partir  de  algunos  procesos  o  actividades  que  emergen  del 
funcionamiento del cerebro. Pero se debe tener en claro que ambos se encuentran en 
un  estado  de  constante  flujo,  de  fluidez,  en  donde  se  modifican  y  reconstruyen 
continuamente  al  interactuar  entre  sí,  “acoplándose”  de  forma  mutua  y  recíproca 
[Lewontin, 2000, p. 76/8]. Así, la mente es, en parte, producto del cerebro y el cerebro 
es, en parte, producto de la mente. En la actualidad, es más adecuado considerar ambos 
conceptos como un único sistema, como una unidad conceptual complementaria, y se 
habla de cerebro‐mente(2). 
El cerebro 
La  unidad  anatómica  y  funcional  del  sistema  nervioso,  en  todos  los  cordados,  es  la 
neurona.  En  el  hombre,  la  enorme  mayoría  de  ellas  se  encuentra  localizada  en  su 
encéfalo,  aunque  no  debe  olvidarse  que  están  desparramadas  por  todo  el  cuerpo.  Se 
estima  que  el  cerebro  humano  contiene  alrededor  de  100  mil  millones  de  neuronas  y 
que  cada  una  de  ellas  puede  establecer  hasta  50.000  sinapsis  con  sus  vecinas(3).  Esto 
significa  que  el  número  total  de  combinaciones  podría  ascender  hasta  5  mil  billones 
(50.000 sinapsis x 100 mil millones de neuronas). 
Las  células  nerviosas  se  organizan  en  redes  jerárquicas  con  niveles  de  complejidad 
crecientes:  las  interacciones  entre  neuronas  próximas  forman  “unidades  neuronales 
primarias” o circuitos locales (que varían en tamaño desde casi 50 hasta 10.000  
 
23

1  También  conocido  como  problema  cuerpo‐alma,  materia‐espíritu,  cuerpo‐mente, 


materiaconciencia, físico‐psíquico, cerebro‐conducta [García García, 2001, p. 276]. 
2 Al igual que otras unidades conceptuales complementarias como materia‐energía, 
corpúsculo‐onda,  evolución‐mutación,  estructura‐proceso  o  individuo‐sociedad 
[Rodríguez Delgado, 1997, p. 41]. 
 
neuronas),  los  que  a  su  vez  se  interconectan  en  circuitos  mayores,  involucrando 
múltiples regiones en diferentes partes del cerebro. La  organización de estas redes, el 
“cableado”, se debe al efecto combinado de la programación genética y el aprendizaje a 
partir  de  la  experiencia  [Freedman,  1995,  p.  87].  En  el  cerebro  humano,  la  inmensa 
mayoría de los enlaces es dinámica: tanto las conexiones sinápticas como las estructuras 
neuronales  se  “recablean”  (reconfiguran)  permanentemente,  en  respuesta  a  la 
interacción  con  el  entorno  y  a  las  experiencias  acumuladas.  Se  dice  entonces  que  el 
cerebro se autoorganiza. 
La mente 
La mente no es únicamente el asiento de la parte cognitiva (pensamiento, percepción, 
memoria,  inteligencia),  sino  también  de  la  parte  afectiva;  es  decir,  el  conjunto  de 
deseos, sentimientos, motivaciones, creencias, intenciones, emociones, etc. No se trata 
de  algo  exclusivamente  humano,  sino  más  bien  de  un  producto  de  la  evolución 
biológica.  En  efecto,  la  mente  es  el  resultado  de  un  proceso  enormemente  largo  de 
complejización  creciente  que  se  produjo  en  los  sistemas  nerviosos  de  las  diferentes 
especies que evolucionaron sobre la Tierra [García García, 2001, p. 171] [Capra, 1994, p. 
97].  Así,  los  animales  simples  tienen  mentes  simples  y  los  animales  más  complejos 
tienen mentes más complejas. 
Hay  coincidencia  en  afirmar  que  la  mente  es  lo  que  el  cerebro  hace,  aunque  no  es 
cualquiera  de  las  cosas  que  hace, como  –por  ejemplo–  regular  la  temperatura  interna 
[Pinker,  2001,  p.  51].  Sin  embargo,  también  se  debe  tomar  en  cuenta  al  resto  del 
organismo (el cuerpo) y al ambiente físico y sociocultural que le rodea [Damasio, 1996, 
p. 230]. Es decir, la mente no tiene únicamente una parte evolutiva y otra biológica, sino 
también una física y otra social y cultural(4). Asimismo, no es posible concebirla como 
una  entidad  “desencarnada”  (aislada  de  un  cuerpo),  ni  “des‐situada” 
(descontextualizada de un entorno). 
El wetware 
A  diferencia  de  una  computadora  digital  convencional  que  tiene  un  hardware  y  un 
software, que están separados y diferenciados, y que son fijos y no cambian –o lo hacen 
mínimamente–,  el  complejo  cerebro‐mente  es  un  sistema  auto‐organizado  que  se 
modifica  de  manera  dinámica  y  continua:  es  el  proceso  de  “aprendizaje”.  Se  verifican 
procesos  de  nacimiento  y  muerte  neuronal  e,  incluso,  la  propia  organización  de  la 
neurona y su función – dentro del circuito neuronal que integra– cambia a lo largo del 
desarrollo [Maturana y Varela, 2004, p. 124]. El “hardware” (el cerebro, la estructura) y 
el  “software”  (la  mente,  el  proceso),  en  el  caso  biológico,  están  completamente 
integrados e interactúan entre sí conformando un sistema fluido, adaptable y elástico, 
que evoluciona y se modifica con el tiempo a medida que la persona crece y aprende. En 
definitiva, al cambiar la mente también cambia el cerebro y viceversa. Es lo que se ha 
24

dado  en  llamar  “wetware”  (sustancia  o  cosa  húmeda),  algo  –por  el  momento– 
inimitable  informáticamente.  Si  bien  este  wetware  puede  considerarse  –en  esencia– 
como  un  complejo  cableado  eléctrico,  también  puede  vérselo  como  un  evolucionado 
sistema  químico.  La  red  neuronal  está  sometida  a  la  acción  química  de  hormonas 
activadoras 
 
3 Hay que aclarar que estos contactos no son continuos, sino intermitentes. 
4 Lo social está relacionado con lo lingüístico y lo cultural con lo histórico. De allí la 
importancia de la comunicación y de los medios de comunicación. 
e  inhibidoras,  que  a  su  vez  son  influenciadas  por  aquella.  Sólo  que  existe  una  notable 
diferencia  en  los  tiempos  de  actuación:  mientras  que  los  impulsos  eléctricos  tardan 
segundos en transmitirse desde un punto a otro, los mensajes químicos demoran horas 
en moverse y, en ocasiones, mucho más. Por otra parte, la señal sináptica también es 
electroquímica: aunque la señal generada y transportada por una neurona es eléctrica, 
pasa  a  otra  mediante  sustancias  químicas  transmisoras  (los  neurotransmisores)  que 
cruzan  el  espacio  sináptico.  En  consecuencia,  tal  vez  convendría  pensar  al  wetware 
como un complejo y dinámico sistema electroquímico y no sólo como una “simple” red 
de neuronas.   
 
Figura 1: Relación mente‐cerebro‐cuerpo‐entorno 
 
La dinámica del sistema 
Este  proceso  continuo,  fluido,  dinámico  y  acumulativo  que  se  verifica  en  el  complejo 
cerebro‐mente es nada más –ni nada menos– que el “aprendizaje”. Según el psicólogo 
suizo Jean Piaget, se trata de un proceso adaptativo que representa los dos lados de una 
misma  moneda:  la  “asimilación”  y  la  “acomodación”.  Mientras  que  la  asimilación 
consiste  en  modificar  lo  que  es  percibido  para  que  encaje  en  la  estructura  cognitiva 
existente; la acomodación consiste en modificar la estructura cognitiva existente a fin de 
que encaje en lo que es percibido. Asimismo, se trata de un proceso que se desarrolla 
mediante incrementos progresivos a lo largo de una sucesión de estadios de creciente 
sofisticación. Sin embargo, está condicionado por el grado de maduración cerebral: hay 
muchos  conocimientos  para  cuya  adquisición  se  necesita  un  determinado  grado  de 
organización  neurofisiológica.  Los  seres  vivos  se  valen  fundamentalmente  de  sus 
sistemas perceptivos y motores para aprender. Pero la relación no debería considerarse 
lineal sino circular: la percepción del medio ambiente externo, por ejemplo, reinterpreta 
la  realidad  por  medio  de  la  acción  motora.  En  otras  palabras,  se  produce  un  proceso 
circular y dialéctico, una realimentación de información, a través del entorno próximo. 
Asimismo,  no  debe  olvidarse  del  funcionamiento  interno;  existe  un  profundo  mundo 
psíquico  donde  se  fermentan  ideales,  sueños,  deseos,  necesidades  y  valores  [Morin, 
1999, p. 6]. La unidad cerebro‐mente es, en definitiva, un sistema auto‐organizado que 
está  en  perpetua  elaboración  y  reelaboración  de  los  datos  recibidos  y  que  –con 
economía  de  esfuerzos–  debe  lograr  un  constante  equilibrio  o  armonía  entre  dos 
fuerzas a menudo contradictorias y antagónicas: sus pulsiones internas y las presiones 
de su entorno. 
25

El entorno físico 
El  sistema  cerebro‐mente  forma  parte  del  cuerpo  y  ambos  se  van  integrando 
íntimamente 
(por medio de circuitos bioquímicos y neuronales): es el proceso de “desarrollo”. Éste y 
el  anterior  se  entrelazan  intrínsecamente  en  la  corporeidad,  ya  que  el  organismo 
aprende  y  se  desarrolla  al  mismo  tiempo.  Según  el  neurocientífico  portugués  Antonio 
Damasio, “el cuerpo proporciona una base referencial para la mente” [Damasio, 1996, p. 
208], ya que aporta un contenido indispensable de los mecanismos de la mente. Incluso 
las  categorías  de  nuestra  experiencia  y  pensamiento  parecen  estar  determinadas  por 
factores biológicos (junto con los culturales) [Bertalanffy, 1995, p. 261]. Es decir, no son 
un  a  priori  universal,  sino  que  dependen  de  la  organización  psicofísica  del  organismo, 
desarrolladas a lo largo de millones de años de evolución. Por este motivo, cada especie 
biológica  tiene  una  forma  particular  y  única  de  “acoplarse  estructuralmente”  con  su 
medio ambiente local y organizar su “mundo real”. Pero si el cerebro‐mente y el cuerpo 
se  influencian  mutua  e  intensamente,  el  conjunto  cerebro‐mente‐cuerpo  también 
interactúa constante y activamente con su entorno (tanto físico como social y cultural) 
[Damasio,  1996,  p.  93].  Son  inseparables  e  interdependientes;  como  el  sólido  y  el 
espacio,  el  sonido  y  el  silencio,  la  figura  y  el  fondo...  Es  el  entorno  quien  termina  de 
“esculpir”  al  encéfalo:  cada  estímulo  y  cada  experiencia  influye  en  la  creación  y 
destrucción  de  las  sinapsis  y  los  circuitos.  De  esta  forma,  y  aunque  todos  los  seres 
humanos  tengan  una  estructura  cerebral  similar  (producto  de  la  programación 
genética), las circunstancias particulares y el contexto de cada persona, hacen que cada 
individuo  sea  único.  Así,  la  cuaterna  cerebro‐mente‐cuerpo‐entorno  opera  en  forma 
sistémica e integrada: no puede separarse la actividad y el desarrollo del cerebro de la 
mente, ni del cuerpo o del contexto. 
El entorno social y cultural 
Si  bien  el  complejo  cerebro‐mente‐cuerpo  se  vale  fundamentalmente  de  sus  sistemas 
perceptivos y motores para interaccionar con su entorno físico, para relacionarse con su 
entorno  social  necesita  del  “lenguaje”  y  para  relacionarse  con  su  entorno  cultural 
precisa  de  los  “medios  de  comunicación”  …  y  ambos  son  interdependientes.  De  esta 
manera, se organiza y modela por su entorno más inmediato: primero los padres; más 
tarde  los  parientes,  vecinos,  educadores  y  amigos;  y  luego  por  la  televisión,  los 
periódicos,  Internet,  otras  culturas,  etc.  El  lenguaje  incumbe  –ante  todo–  a  las 
relaciones entre las cosas y los conceptos. Cada palabra no sólo transforma el estado de 
la  red  conceptual,  sino  que  contribuye,  además,  a  construir  o  a  remodelar  su  misma 
topología  [Lévy,  2000,  p.  35].  Su  finalidad  es  permitir  la  comunicación.  Es  el  medio 
principal  con  el  que  los  sistemas  intercambian  y  comparten  información  y  establecen 
una comunión de significados. Con él, un grupo de sistemas equivalentes puede definir y 
desarrollar  planes  u  organizar  actividades  complejas.  En  efecto,  a  medida  que  va 
aumentando el número de individuos y se van formando grupos sociales, se acentúa la 
necesidad de comunicación entre sus miembros, no sólo a través de grandes distancias, 
sino también a lo largo de extensos períodos de tiempo. 
Bibliografía 
26

•  Bertalanffy,  L.  (1995):  Teoría  General  de  los  Sistemas.  México,  Fondo  de  Cultura 
Económica, 10°reimpresión. 
• Calvin, W. (2001): Como piensan los cerebros. Madrid, Editorial Debate. 
•  Capra,  F.  (1994):  Sabiduría  Insólita.  Conversaciones  con  personajes  notables. 
Barcelona, Editorial Cairos, 2° edición. 
• Damasio, A. (1996): El error de Descartes. Barcelona, Editorial Crítica. 
• Freedman, D. (1995): Los hacedores de cerebros. Santiago, Editorial Andrés Bello. 
• García García, E. (2001): Mente y Cerebro. Madrid, Editorial Síntesis. 
• Lévy, P. (2000): Las tecnologías de la inteligencia. Buenos Aires, Editorial Edicial. 
• Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa. 
•  Maturana,  H.  y  Varela,  F.  (2004):  De  máquinas  y  seres  vivos.  Autopoiesis:  la 
organización  de  lo  vivo.  Buenos  Aires,  Editorial  Universitaria  y  Editorial  Lumen,  6° 
edición. 
• Moravec, H. (1993): El hombre mecánico. Biblioteca Científica Salvat. Barcelona, Salvat 
Editores. 
• Moriello, S. (2001): Inteligencias Sintéticas. Buenos Aires, Editorial Alsina. 
• Morin, E. (2004): Introducción al pensamiento complejo. Barcelona, Editorial Gedisa, 7° 
reimpresión. 
• Pinker, S. (2001): Cómo funciona la mente. Barcelona, Ediciones Destino. 
• Rodríguez Delgado, R. (1997): Del universo al ser humano. Madrid, Editorial McGraw 
Hill. 
• Taylor, G. (1979): El cerebro y la mente. Barcelona, Editorial Planeta. 
•  Varela,  F.,  Thompson,  E.  y  Rosch,  E.  (1997):  De  cuerpo  presente.  Barcelona,  Editorial 
Gedisa, 2° edición. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Contactos: info@pensamientocomplejo.com.ar 
 
 
27

SISTEMAS  COMPLEJOS,  CAOS  Y  VIDA 


ARTIFICIAL 
Sergio Moriello 
sergiomoriello@hotmail.com 
 
El  planeta  Tierra  rebosa  de  fenómenos  que  parecen  caóticos  aunque,  en  realidad,  se 
ciñen a reglas estrictas pero difíciles de desentrañar. Su estructura es tan compleja, con 
tanta cantidad de variables implicadas, que parece imposible hacer una predicción a un 
futuro siquiera relativamente cercano. En este artículo se intenta dar una somera idea 
de  la  relación    entre  los  sistemas,  la  complejidad,  la  auto‐organización,  el  caos,  los 
fractales, las redes y la vida artificial.  
Un  sistema  es  un  conjunto  de  elementos  o  partes  que  interaccionan  entre  sí  a  fin  de 
alcanzar un objetivo concreto. De aquí se desprenden dos implicancias fundamentales. 
Primero, que existe una influencia mutua entre sus elementos componentes, es decir, 
que  el  cambio  experimentado  en  uno  de  ellos  repercute  y  afecta  inevitablemente  al 
resto. Y segundo, que una serie de elementos reunidos (es decir, un conjunto), que no 
persigue un propósito común (un objetivo), de ninguna manera constituye un sistema. 
En síntesis, para que el comportamiento de un sistema esté adecuadamente descripto, 
es  necesario  conocer,  además  de  sus  elementos,  las  interacciones  o  relaciones  entre 
ellos. Pero no sólo eso: también se requiere saber sus estados (los valores instantáneos 
de todos los elementos) y sus transiciones (los cambios dinámicos de esos estados). En 
otras  palabras,  se  deben  describir  tanto  la  estructura  (lo  que  es  el  sistema)  como  la 
función (lo que hace el sistema), dos enfoques complementarios de una misma realidad. 
Un  sistema  es  algo  más  (y  algo  menos)  que  la  simple  suma  de  sus  elementos 
constitutivos.  Por  un  lado,  emergen  propiedades  nuevas  que  no  pueden  atribuirse  a 
ninguno de ellos; y, por otra parte, se reprimen o inhiben algunas de sus propiedades 
intrínsecas. Existen varios ejemplos de ellos. Partiendo de harina, agua, sal y levadura, y 
a través de un proceso de cocción, surge el pan, algo totalmente diferente y que tiene 
otros  atributos  o  cualidades  que  los  ingredientes  con  los  que  se  origina.  Los 
cardúmenes,  los  enjambres  y  las  manadas  se  comportan  ‐como  conjunto‐  de  manera 
distinta  a  como  lo  hacen  sus  individuos  componentes.  Una  neurona  por  sí  misma  no 
posee ningún tipo de inteligencia, pero miles de millones de ellas interactuando entre sí 
pueden  originar  una  mente,  algo  totalmente  diferente.  Este  comportamiento  surge 
únicamente cuando el sistema se considera como un todo, como algo global y colectivo. 
Dado que todo sistema se encuentra inmerso en un medio ambiente, en general, éste 
va a afectar tanto su funcionamiento como su rendimiento. Para medir, en cierta forma, 
esta  influencia  o  interacción  aparece  el  concepto  de  “permeabilidad”.  Los  sistemas 
escasamente permeables (es decir, aquellos que no intercambian o intercambian poca 
materia, energía o información con el entorno) se conocen con el nombre de “sistemas 
cerrados”. Por el contrario, los sistemas mediana y altamente permeables son los que 
presentan alguna o mucha interacción con el medio ambiente y se denominan “sistemas 
28

abiertos”. Por supuesto, existen diferentes grados de permeabilidad; de este modo, un 
sistema  que  interactúa  poco  con  su  entorno  recibe  el  nombre  de  “parcialmente 
abierto”.  Asimismo,  y  dentro  de  la  categoría  de  sistemas  abiertos,  están  aquellos  que 
son influidos pasivamente por el medio ambiente, llamados “no adaptativos”, y los que 
reaccionan y se adaptan al entorno, llamados “adaptativos”. 
Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no 
su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar 
de  estar  inmerso  en  un  entorno  cambiante,  mantiene  su  estado  interno,  se  llama 
“homeostático”. En otras palabras, la homeostasis define la tendencia de un sistema a 
su  supervivencia  dinámica.  Los  sistemas  altamente  homeostáticos  siguen  las 
transformaciones  del  contexto  a  través  de  ajustes  estructurales  internos.  Un  ejemplo 
típico de este tipo de sistema lo constituye una compañía. No obstante, vale aclarar, si 
el sistema no puede acomodarse al “esfuerzo tensional” (estrés) que padecen por parte 
del  medio  ambiente  ‐modificando  su  estructura  o  su  función‐  puede  transformarse  o 
deteriorarse  parcial  o  totalmente,  temporal  o  permanentemente.  La  resistencia  de  un 
sistema al estrés depende tanto de su estructura como de su función. 
 
Sistemas complejos 
Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento 
es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este vocablo 
hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por 
el momento, no existe una definición precisa y absolutamente aceptada de lo que es un 
sistema  complejo,  pero  pueden  darse  algunas  peculiaridades  comunes.  En  primer 
término, está compuesto por una gran cantidad de elementos relativamente idénticos. 
Por ejemplo, el número de células en un organismo, o la cantidad de personas en una 
sociedad.  En  segundo  lugar,  la  interacción  entre  sus  elementos  es  local  y  origina  un 
comportamiento  emergente  que  no  puede  explicarse  a  partir  de  dichos  elementos 
tomados aisladamente. Un desierto puede contener billones de granos de arena, pero 
sus interacciones son excesivamente simples comparadas con las que se verifican en las 
abejas de un enjambre. Por último, es muy difícil predecir su evolución dinámica futura; 
o  sea,  es  prácticamente  imposible  vaticinar  lo  que  ocurrirá  más  allá  de  un  cierto 
horizonte temporal. 
En  la  naturaleza  se  pueden  encontrar  una  gran  cantidad  de  ejemplos  de  sistemas 
complejos que se extienden desde la física hasta la neurología, desde la economía hasta 
la  biología  molecular,  desde  la  sociología  hasta  las  matemáticas.  Por  ese  motivo,  esta 
clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la 
inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de 
su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas, 
no  importa  su  naturaleza  (física,  química,  biológica  o  social);  entre  ellas,  las  leyes  de 
crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos 
de  sistemas  complejos  se  pueden  mencionar  ‐entre  otros‐  una  célula,  un  cerebro,  un 
organismo,  una  computadora,  un  ecosistema,  una  sociedad  de  insectos,  un  sistema 
inmunológico o una economía de mercado. 
29

La  mayoría  de  los  sistemas  complejos  son  inestables,  se  mantienen  delicadamente 
equilibrados.  Cualquier  variación  mínima  entre  sus  elementos  componentes  puede 
modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento 
de  todo  el  sistema.  Así,  la  evolución  de  esta  clase  de  sistemas  se  caracteriza  por  la 
intermitencia  (o  fluctuación),  aquella  situación  en  la  que  el  orden  y  el  desorden  se 
alternan  constantemente.  Sus  estados  evolutivos  no  transcurren  a  través  de  procesos 
continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada 
nuevo estado es sólo una transición, un período de “reposo entrópico”, en palabras del 
Premio Nobel ruso‐belga Ilya Prigogine. 
Estos  sistemas  nunca  llegan  a  un  óptimo  global,  al  estado  de  mínima  energía.  En 
general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En 
ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación 
del orden preexistente. Pero después, comienzan a surgir regularidades que organizan 
al  sistema  de  acuerdo  con  nuevas  leyes,  produciendo  otra  clase  de  desarrollo.  Este 
comportamiento  es  típico  en  los  sistemas  naturales:  por  ejemplo,  el  tránsito,  en  los 
insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de 
los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad 
de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior. 
 
Auto‐organización 
El  orden  y  el  desorden  se  necesitan  el  uno  al  otro,  se  producen  mutuamente;  son 
conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un 
poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un 
organismo  puede  seguir  viviendo  a  causa  de  la  muerte  de  sus  células;  o  una 
organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el 
cambio  son  etapas  inevitables  e  ineludibles  por  las  cuales  debe  transitar  todo  sistema 
complejo  para  crecer  y desarrollarse.  Cuando  esta  transformación  se  consigue  sin  que 
intervengan  factores  externos  al  sistema,  se  hace  mención  a  un  proceso  de  “auto‐
organización”. 
La auto‐organización se erige como parte esencial de cualquier sistema complejo. Es la 
forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose 
al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea 
de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de 
elementos  en  otro  nivel,  los  cuales  se  comportan  de  una  manera  muy  diferente.  Por 
ejemplo,  entre  otros,  las  moléculas  a  las  macromoléculas,  las  macromoléculas  a  las 
células  y  las  células  a  los  tejidos.  De  este  modo,  el  sistema  auto‐organizado  se  va 
construyendo como resultado de un orden incremental espacio‐temporal que se crea en 
diferentes niveles, por estratos, uno por encima del otro. 
Los  sistemas  autoorganizados  se  mantienen  dentro  del  estrecho  dominio  que  oscila 
entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia 
anárquica.  Una  condición  muy  especial,  con  suficiente  orden  para  poder  desarrollar 
procesos  y  evitar  la  extinción  pero  con  una  cierta  dosis  de  desorden  como  para  ser 
capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce ‐desde 
antaño‐ como “transiciones de fase”, o ‐más modernamente‐ como lo llama el doctor en 
30

Ciencias  de  la  Computación,  antropólogo  y  filósofo  estadounidense  Christopher 


Langton:  el  “borde  del  caos”.  Es  en  esta  delgada  franja  en  donde  se  ubican  los 
fenómenos que edifican la vida y las sociedades.  
Por  último,  se  puede  aclarar  que,  aunque  no  es  posible  analizar  matemáticamente  la 
evolución de muchos de estos sistemas, se los puede explorar ‐sin embargo‐ a través de 
experimentos  numéricos  (con  sistemas  informáticos).  Esto  se  debe  a  que,  desde  el 
punto  de  vista  computacional,  son  sistemas  irreducibles;  es  decir,  la  única  forma  de 
estudiar  su  evolución  es  mediante  la  observación  directa  (o  sea,  permitiendo  que 
evolucionen).  Para  su  estudio,  en  consecuencia,  se  emplean  potentes  sistemas 
computacionales  en  donde  se  simulan  sus  componentes,  sus  conexiones  y  sus 
interacciones, observándose la dinámica emergente. 
 
Sistemas caóticos 
Durante  el  siglo  pasado,  los  científicos  clasificaban  a  los  sistemas  según  su  grado  de 
predictibilidad.  Así,  un  sistema  es  determinístico  cuando  su  comportamiento  es 
bastante  predecible,  determinado,  cuando  parece  seguir  unas  ciertas  reglas  y  es 
probabilístico  –o  estocástico‐  cuando  no  hay  certeza  de  su  estado  futuro,  sólo  una 
probabilidad,  cuando  aparece  un  orden  estadístico,  un  orden  promedio.  No  obstante, 
esta  burda  y  tosca  clasificación  sufrió  severos  embates  durante  el  último  medio  siglo. 
Por ejemplo, se descubrió que muchos sistemas dinámicos no lineales se comportan ‐en 
ciertas  condiciones‐  de  forma  tan  compleja  que  parecen  probabilísticos,  aunque,  en 
realidad, son determinísticos. En otras palabras, a pesar de que las reglas ‐a nivel local‐ 
son  muy  simples,  el  sistema  ‐a  nivel  global‐  puede  tener  un  comportamiento 
inesperado, no predecible. Se trata de un “sistema caótico”. 
Una  de  las  singularidades  que  caracterizan  a  los  sistemas  caóticos  es  que  dependen 
sensiblemente de las condiciones iniciales. Un insignificante cambio en las condiciones 
de partida se amplifica y propaga exponencialmente a lo largo del sistema y es capaz de 
desencadenar  ‐a  futuro‐  un  comportamiento  totalmente  diferente  o,  incluso,  una 
imprevista  catástrofe.  Es  decir,  configuraciones  iniciales  casi  idénticas,  sometidas  a 
influencias  externas  casi  iguales,  acaban  transformándose  en  configuraciones  finales 
absolutamente  distintas.  Y  es  este  el  motivo  por  el  cual  es  prácticamente  imposible 
hacer una predicción del estado final de estos sistemas complejos. 
Sin  embargo,  el  caos  no  es  más  que  un  desorden  solamente  en  apariencia,  tiene  muy 
poco  que  ver  con  el  azar.  Aunque  parecen  evolucionar  de  forma  aleatoria  y  errática, 
estos  sistemas  tienen  ‐en  realidad‐  un  cierto  orden  interno  subyacente.  Por  eso,  aun 
cuando  son  impredecibles,  también  son  determinables.  Esto  significa  que  su  estado 
futuro  está  determinado  por  su  estado  actual  y  obedece  estrictas  leyes  naturales  de 
evolución  dinámica  (en  forma  de  complicadas  ecuaciones  diferenciales  no  lineales). 
Pero estos sistemas son tan irregulares que jamás repiten su comportamiento pasado, 
ni  siquiera  de  manera  aproximada.  Por  ejemplo,  y  aún  cuando  se  conozcan  con  gran 
precisión  las  ecuaciones  meteorológicas  y  se  puedan  medir  las  variables  críticas 
(temperatura,  humedad,  presión,  masa  y  velocidad  del  viento),  es  muy  difícil  predecir 
con  exactitud  las  variaciones  climáticas  más  allá  de  un  cierto  tiempo  posterior.  Otros 
sistemas  caóticos  lo  constituyen  los  fluidos  en  régimen  turbulento,  la  dinámica  de  la 
31

atmósfera,  las  reacciones  químicas,  la  propagación  de  enfermedades  infecciosas,  los 
procesos metabólicos de las células, el mercado financiero mundial, los movimientos de 
grupos  animales    (cardúmenes  o  enjambres),  la  aparición  aperiódica  de  epidemias,  la 
arritmia del corazón, la red neuronal del cerebro humano, etc. 
El caos parece formar parte de la estructura misma de la materia y está muy ligado a los 
fenómenos  de  auto‐organización,  ya  que  el  sistema  puede  saltar  espontánea  y 
recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un 
ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado 
y,  súbitamente,  forma  un  chorro  ordenado.  Estos  sistemas  se  caracterizan  por  su 
flexibilidad  y  adaptación  (y,  en  consecuencia,  por  su  estabilidad),  lo  cual  les  permite 
enfrentar  las  condiciones  cambiantes  e  impredecibles  del  entorno.  Operan  bajo  una 
extensa  gama  de  condiciones,  ya  que  parecen  estar  formados  por  una  compleja 
estructura  de  muchos  estados  ordenados,  aunque  normalmente  ninguno  de  ellos  se 
impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único 
comportamiento).  Por  lo  tanto,  se  puede  controlar  su  evolución  con  ínfimas 
correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se 
los  perturba  adecuadamente,  se  los  puede  obligar  a  que  tome  uno  de  los  muchos 
posibles comportamientos ordenados. 
 
Fractales y naturaleza 
La  teoría  del  caos  estudia  la evolución  dinámica  de ciertas magnitudes.  Al representar 
geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los 
caracterizan.  Existe  un  comportamiento  caótico  cuando  dichos  modelos  ‐a  lo  largo  de 
extensos  períodos  de  tiempo‐  oscilan  de  forma  irregular,  aperiódica;  parecen  girar 
asintóticamente  en  las  inmediaciones  de  ciertos  valores,  como  si  describieran  órbitas 
alrededor  de  ellos.  Estos  valores  se  conocen  con  el  nombre  de  “atractores  caóticos”, 
“atractores  extraños”  o,  simplemente,  “atractores”  (debido  a  que  parecen  atraer  las 
soluciones hacia ellos) y su particularidad es que presentan propiedades fractales. 
Un  “fractal”  es  una  estructura  geométrica  que  tiene  dos  características  principales:  la 
“auto‐semejanza” y la “dimensión fraccionaria”. La auto‐semejanza significa que posee 
la misma estructura cualquiera sea la escala en que se la observa; es decir, a través de 
sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental 
(conserva el mismo aspecto). Por otro lado, la dimensión fraccionaria mide el grado de 
irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que 
se  comparten  las  propiedades  de  una  recta  y  de  un  plano.  No  obstante,  la  fractal  no 
tiene  el  mismo  significado  que  las  dimensiones  del  tradicional  espacio  euclidiano: 
fractales  con  dimensiones  enteras  (1  y  2),  no  se  parecen  en  nada  a  una  línea  o  a  un 
plano, respectivamente. 
En  general,  las  formas  encontradas  en  la  naturaleza  son  ejemplos  de  fractales:  vasos 
sanguíneos  y  sus  capilares,  árboles,  vegetales,  nubes,  montañas,  grietas  tectónicas, 
franjas  costeras,  cauces  de  ríos,  turbulencias  de  las  aguas,  copos  de  nieve,  y  una  gran 
cantidad de otros objetos difíciles de describir por la geometría convencional. Como se 
puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa 
una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante 
32

de  tiempo,  congelado  en  una  etapa  precisa  de  su  desarrollo.  Y  es  justamente  este 
concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales 
con la naturaleza. 
Una  estructura  fractal  es  aquella  que  se  genera  por  la  repetición  incansable  de  un 
proceso  bien  especificado  (o  sea,  está  gobernado  por  reglas  determinísticas).  Así,  la 
naturaleza es capaz de crear eficazmente infinidad de formas ‐con diferentes grados de 
complejidad  únicamente  reiterando  innumerablemente  el  mismo  proceso.  E  ínfimas 
modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden 
provocar  imprevisibles  cambios  finales.  Es  por  eso  que  la  mayoría  de  los  procesos 
caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos 
naturales  aparentan  tener  una  enorme  complejidad,  aunque  ‐en  realidad‐  poseen  la 
misma  regularidad  geométrica  (concepto  de  autosemejanza).  Sólo  así  se  explica  que 
existan  6.000  millones  de  seres  humanos  diferentes,  a  pesar  de  que  el  proceso  de 
gestación  sea  idéntico,  y  que  una  mínima  diferencia  en  el  código  genético  de 
chimpancés y humanos haya engendrado especies tan distintas. Este proceso también 
puede  esclarecer,  en  buena  medida,  cómo  la  escasa  información  contenida  en  una 
célula germinal es capaz de originar seres tan increíblemente complejos. 
El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo 
(indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da 
gracias  a  la  “especialización”  y  a  la  “división  del  trabajo”:  progresivamente  algunos 
elementos  se  encargan  de  acciones  específicas,  al  tiempo  que  se  observa  una 
subordinación  a  elementos  dominantes  (llamadas,  a  veces,  “partes  conductoras”).  De 
esta  forma,  se  instala  en  el  sistema  un  “orden  jerárquico”  de  partes  o  procesos.  Este 
principio  de  diferenciación  es  muy  frecuente  tanto  en  biología  como  en  psicología  y, 
aun,  en  sociología.  En  el  desarrollo  embrionario,  por  ejemplo,  las  células  se  van 
agrupando  y  subordinando  a  los  llamados  “organizadores”.  En  el  cerebro  también  se 
comprueba una superposición de “estratos neuronales” que adoptan el papel de partes 
conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse, 
un conjunto de personas debe agruparse alrededor de uno o varios líderes. 
 
Redes complejas 
Muchos  sistemas  biológicos,  sociales  o  de  comunicación  se  pueden  describir 
adecuadamente  a  través  de  redes  complejas  cuyos  nodos  representan  individuos  u 
organizaciones,  y  los  enlaces  simbolizan  las  interacciones  entre  ellos.  Una  clase 
importante de redes son aquellas que cumplen con las reglas de un “mundo pequeño”, 
cuya  topología  exhibe  dos  rasgos  esenciales:  todo  nodo  está  fuertemente  conectado 
con  muchos  de  sus  vecinos  pero  débilmente  con  algunos  pocos  elementos  alejados 
(fenómeno  conocido  como  apiñamiento,  agrupamiento  o  “clustering”)  y  todo  nodo 
puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe 
una  pequeña  “distancia”  entre  ellos)(1).  Esto  implica  dos  cosas:  que  la  información  se 
transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño 
número  de  nodos  claves  por  donde  circula  un  gran  porcentaje  del  tráfico  total.  Son 
redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de 
difusión  de  una  epidemia,  la  estructura  de  una  red  de  transmisión  eléctrica,  la 
33

navegación  a  través  Internet,  las  proteínas  en  una  célula  humana,  los  patrones 
lingüísticos,  las  redes  de  colaboración  social,  las  relaciones  entre  especies  de  un 
ecosistema, etc. 
Muchas  de  estas  redes  de  mundo  pequeño  son  también  “redes  independientes  de  la 
escala” (scale‐free networks), que se caracterizan por un escaso número de nodos con 
muchos  enlaces  (denominados  “concentradores”  o  “hubs”)  y  una  enorme  cantidad  de 
nodos  con  muy  pocas  conexiones  (2).  Este  tipo  de  estructura  explica  por  qué  algunas 
redes son generalmente muy estables y robustas (frente a posibles errores aleatorios), 
pero  muy  propensas  a  ocasionales  colapsos  catastróficos  (por  posibles  ataques 
maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es 
capaz  de  funcionar  con  normalidad;  pero  si  se  quita  alguno  de  los  concentradores,  el 
sistema  puede  sufrir  una  hecatombe.  Es  lo  que  ocurre,  por  ejemplo,  cuando  fallece  o 
desaparece  el  líder  de  un  partido  político  o  de  un  equipo  de  fútbol.  Esta  topología 
también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué 
algo  
  
1 Algunos estudios afirman, por ejemplo, que la distancia entre un par cualesquiera de 
páginas web es de 19. 
 
insignificante  puede  transformarse  en  un  fenómeno  de  colosales  proporciones  si 
encuentra el camino adecuado. 
Ahora  bien,  ¿cómo  surge  este  tipo  de  orden?  Aparentemente,  estas  redes  siguen  el 
mismo  patrón  de  auto‐organización  de  los  sistemas  complejos:  los  nuevos  nodos 
agregados tienden a formar conexiones con aquellos que ya están bien conectados (las 
partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos 
no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los 
nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien 
establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De 
allí que los hubs también parecen ser los responsables de mantener la cohesión de este 
tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en 
ellos  pueden  ocasionar  cambios  en  el  funcionamiento  de  la  red.  Asimismo,  algunos 
investigadores  especulan  ‐es  necesario  aclarar  que  los  sistemas  naturales  evolucionan 
hacia  redes  de  mundo  pequeño,  porque  tienen  una  elevada  tolerancia  a  las  fallas  (la 
conexión de cualquier pareja de nodos puede  establecerse a través de varios caminos 
alternativos),  y  hacia  redes  independientes  de  la  escala,  porque  utiliza  más 
eficientemente  los  recursos  que  las  redes  aleatorias  (resuelve  adecuadamente  el 
conflicto  entre  las  necesidades  de  bajo  costo  y  alto  rendimiento).  Aun  cuando  su 
funcionamiento  puede  ser  muy  diferente  entre  una  red  y  otra,  el  hecho  de  que 
compartan la misma topología permitiría estudiar las más complejas a partir de las más 
simples.  Así,  por  ejemplo,  si  las  redes  neuronal  y  genética  pertenecieran  a  la  misma 
categoría  genérica,  los  científicos  podrían  aprender  mucho  más  sobre  el  sistema 
nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero 
también,  quizás,  se  podrían  responder  algunas  preguntas  de  difícil  respuesta:  ¿cuánto 
34

depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad 
de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable? 
 
Vida artificial 
La  vida  se  constituye  en  el  ejemplo  más  acabado  de  estructuras  muy  complejas  que 
surgen a partir de estructuras mucho más simples. Se trata de una propiedad emergente 
resultado de la interacción entre sus elementos y de la dinámica propia del sistema. En 
efecto, cualquier forma de vida es ‐en esencia‐ un sistema altamente complejo, con una 
estructura físico‐química particular, que exhibe una elevada organización y se sitúa en el 
borde  del  caos.  Entre  sus  características  definitorias,  se  pueden  incluir  su  capacidad 
para:  la  autorreproducción,  el  almacenamiento  de  información,  el  crecimiento,  la 
adaptabilidad  (al  entorno),  la  interdependencia  (con  otras  formas  de  vida)  y  la 
evolución. 
La “Vida Artificial” (en inglés Artificial Life o, abreviadamente, A‐Life) es un campo  del 
conocimiento muy joven (nació a fines de 1987) que tiene como objetivo el desarrollo 
de sistemas artificiales que muestran las características distintivas de los sistemas vivos 
naturales.  De  acuerdo  con  Christopher  Langton  ‐“padre”  de  esta  disciplina‐  es  “el 
estudio  
 
(2) Su nombre proviene del hecho, vale aclarar, de que la proporción entre los hubs y los 
otros nodos permanece constante a medida que la red cambia de tamaño; es decir, se 
trata de una característica fractal.  
 
natural,  donde  ‘vida’  se  entiende  que  incluye,  más  bien  que  excluye,  de  la  vida  a  los 
seres  humanos  y  sus  artefactos”.  Investiga  algunos  procesos  que  transcurren  a 
diferentes  niveles  (molecular,  celular,  orgánico,  social‐evolutivo),  y  su  aspecto  más 
abarcativo incluye desarrollos meramente teóricos, experimentos biológicos y químicos, 
y  simulaciones  sobre  computadoras.  La  importancia  de  su  estudio  radica  en  que  los 
sistemas naturales constituyen excelentes fuentes inspiradoras para el desarrollo de la 
tecnología.  En  efecto,  el  biológico  es  un  modelo  muy  optimizado  que  ayuda  al  ser 
humano  a  solucionar  ‐con  extraordinaria  eficacia‐  muchos  problemas  complejos  no 
convencionales que surgen de la interacción con el entorno. De allí que la aplicación de 
esta  nueva  disciplina  se  perfila  como  una  de  las  ramas  más  innovadoras  y 
revolucionarias de lo que será la computación durante el transcurso del presente siglo. 
La  Vida  Artificial  es  conceptualmente  parecida  a  la  Inteligencia  Artificial,  aunque  –por 
supuesto‐ existen una serie de diferencias clave. Mientras la última intenta comprender 
y  abstraer  la  esencia  conceptual  de  la  inteligencia,  la  primera  intenta  comprender  y 
abstraer la esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre 
ellas es bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto 
que  muchos  investigadores  predicen  que  convergerán  en  el  futuro.  La  inteligencia,  en 
definitiva, es un producto de la evolución; y dado que la vida biológica y la inteligencia 
son  mutuamente  dependientes,  también  la  Vida  Artificial  y  la  Inteligencia  Artificial 
exhiben una cierta codependencia. 
35

La  arquitectura  básica  de  estos  sistemas  consiste  en  un  abrumador  número  de 
“criaturas”  relativamente  simples,  que  forman  densas  redes  de  interacción  y  operan 
paralela  y  simultáneamente  sin  que  exista  un  control  central.  Los  comportamientos 
individuales  no  están  programados  implícitamente;  los  científicos  sólo  se  limitan  a 
darles un conjunto reducido de reglas de interacción que especifican lo que debe hacer 
cada una de ellas de acuerdo con la situación en que se encuentre. Nadie es capaz de 
saber  con  precisión  qué  actitud  tomará  cualquiera  de  ellas  en  un  momento  dado.  Y, 
debido a que se verifica un fenómeno de emergencia de alto nivel (es decir, inteligente) 
a  partir  de  interacciones  de  bajo  nivel  (o  sea,  entre  entidades  no  inteligentes),  el 
conjunto  puede  resolver  problemas  que  cada  uno  de  sus  individuos  componentes  es 
incapaz de realizar. 
 
Inteligencia de enjambre 
El comportamiento complejo, que un observador podría considerar intencional, puede 
ser ‐de hecho‐ el resultado de las numerosas interconexiones que se establecen entre 
una enorme cantidad de entidades individuales. Por ejemplo, considerada aisladamente 
una hormiga es una criatura sumamente tonta, estúpida, capaz únicamente de ejecutar 
‐aunque  de  forma  fiel  y  obstinada‐  un  pequeño  conjunto  de  rutinas  innatas,  pero 
condicionada por el entorno circundante. No obstante, tomadas en grupo, son capaces 
de erigir sociedades complejas con sofisticadas actividades como agricultura, ganadería, 
arquitectura,  ingeniería  e,  incluso,  prácticas  de  esclavitud.  De  esta  forma,  podría 
considerarse  al  hormiguero  como  un  macroorganismo,  que  presenta  un 
comportamiento  global  inteligente.  Es  decir,  nadie  planifica,  nadie  ordena  ni  controla, 
pero  surge  un  comportamiento  colectivo  ‐quizás  instintivo‐  o  una  necesidad  que  las 
“obliga” a trabajar juntas persiguiendo un fin común. 
Utilizando  como  ejemplo  la  conducta  social  de  los  insectos,  modernamente  los 
investigadores en ciencias de la computación desarrollaron algoritmos muy útiles para 
resolver  algunos  problemas  prácticos  muy  complicados;  un  enfoque  conocido  como 
“inteligencia  de  enjambre”.  En  este  caso,  las  hormigas  artificiales  son  agentes  de 
software  que  se  simulan  en  una  computadora.  Una  aplicación  interesante  de  esta 
técnica es la de encontrar el camino más corto para establecer las rutas en Internet; en 
otras palabras, cómo encaminar eficientemente los mensajes entre los nodos de la red 
(los routers). Vale la pena aclarar que resolver este problema se torna actualmente muy 
importante, ya que cuanto mayor es el “tráfico” de los paquetes de datos, mayor es el 
costo de la conexión a Internet (ya que se incrementa el tiempo para pasar de un nodo a 
otro). 
El algoritmo de búsqueda funciona de la siguiente manera. Cada hormiga virtual ‐de un 
conjunto  enormemente  grande  de  ellas‐  sale  en  busca  de  “alimento”  alrededor  de  su 
“hormiguero” (el punto de partida), de una forma más o menos al azar. Entonces, cada 
insecto  “marca”  el  camino  realizado  con  una  “feromona”  (la  cual  guarda  una  cierta 
relación  con  la  “longitud”  o  distancia  recorrida)  que  otras  pueden  seguir.  Dado  que  la 
feromona se “evapora” con el tiempo, las “buenas” rutas (las más cortas) se hacen más 
atractivas que las “malas” para el resto de las hormigas, con lo cual se intensifica cada 
vez más el rastro de feromonas en esa ruta. Al final del proceso, lo habitual es que se 
36

seleccione el rastro más fuerte, que justamente es la ruta más corta entre el punto de 
partida y el punto de llegada. Lo interesante de esta técnica es que las hormigas pueden 
adaptarse  al  entorno:  dado  que  éste  es  dinámico,  es  posible  que  surjan  determinadas 
complicaciones,  como  el  bloqueo  o  la  congestión  en  las  rutas.  Debido  a  que  la 
concentración de feromonas se mantiene durante un cierto tiempo y a que exploran sin 
cesar nuevos trayectos, las hormigas establecen instintivamente rutas alternativas, con 
lo cual siempre están preparadas para responder a los cambios del entorno. 
Otros  usos  de  esta  técnica  son  en  el  análisis  de  datos  financieros,  en  la  resolución  de 
problemas  de  producción  industrial  y  en  la  búsqueda  de  páginas  interesantes  por  la 
web.  Sin  duda,  a  medida  que  transcurra  el  tiempo,  seguirán  apareciendo  más 
aplicaciones prácticas de la inteligencia de enjambre. Si la computación ubicua forzará a 
que  todos  los  objetos  tengan  incrustado  un  chip  (desde  las  alhajas  hasta  los  muebles, 
pasando por los artículos de librería y los electrodomésticos), será necesario desarrollar 
algoritmos  de  control  que  permitan  la  comunicación  eficaz  y  eficiente  de  todos  estos 
desperdigados pedazos microscópicos de silicio. 
 
Amenazas 
¿Puede el ser humano crear nuevas formas de vida? ¿Es imprescindible que sean de tipo 
orgánico  para  considerarlas  como  tales?  Más  específicamente,  ¿puede  considerarse 
como un ser vivo algo virtual, algo que carece de una existencia física? ¿Puede estar viva 
una  entidad  o  un  grupo  de  entidades  que  únicamente  existe  como  una  simulación 
computacional? Es decir, si algo ejecuta complicados movimientos como un insecto y se 
comporta como tal, pero no tiene un cuerpo físico material, tangible, sino que adopta la 
forma  abstracta  de  microcódigos  de  programación  en  el  interior  de  una 
supercomputadora... ¿es un insecto? Y en el supuesto caso de que no lo sea, entonces 
¿qué es? En otras palabras, ¿cómo exactamente debe comportarse algo ‐en este caso, 
una entidad‐ para que alguien ‐en este caso, una persona‐ pueda afirmar que está vivo? 
Asimismo,  y  por  carecer  de  una  definición  unánimemente  aceptada  del  concepto  de 
vida, aparecen interrogantes paradójicos. Por ejemplo: ¿están “vivos” los virus? Algunos 
de  ellos  pueden  permanecer  latentes  por  mucho  tiempo  al  cristalizar  en  una  célula 
orgánica  muerta  y  volver  a  la  actividad  cuando  consiguen  otra  oportunidad  para 
infectar. De igual forma, se podría preguntar si se encuentra vivo un embrión congelado. 
En estos casos, la línea que divide lo viviente de lo inerte (tan evidente hace sólo unas 
décadas), aparece ahora tan difusa que –a veces‐ es extremadamente difícil distinguir lo 
vivo de lo muerto. 
Si bien este tipo de “vida virtual” (erigida a través de programas de computadora) quizás 
sea  difícil  de  aceptar,  ¿qué  ocurre  con  la  “vida  seca”,  aquella  formada  por  autómatas 
físicamente tangibles? Este concepto, ¿no se acerca más a la “vida húmeda”, es decir, la 
compuesta  por  organismos  biológicos?  ¿Y  qué  pasará  cuando  la  sinergia  entre  la 
ingeniería  genética  y  la  nanotecnología  sea  capaz  de  producir/engendrar  nuevas  y 
originales  entidades?  Miles  de  millones  de  años  de  evolución  natural  produjeron  un 
mundo  donde  la  supervivencia  y  el  bienestar  de  cada  organismo  está  ligado  ‐muchas 
veces  fuertemente‐  al  de  innumerables  especies.  Todo  está  tan  interrelacionado  y 
delicadamente equilibrado que la muerte (o el nacimiento) de una especie puede causar 
37

devastadores  efectos  sobre  algunas  otras  (a  veces,  muchas).  Sin  dudas,  el  dejar 
evolucionar  libremente  a  estas  “nuevas  especies”  dispare  fantasías  de  descontrol,  ya 
que  podrían  evolucionar  ‐siguiendo  reglas  lamarckianas‐  mucho  más  rápido  que  los 
humanos, y quizás los condicionen como nunca antes… 
 
www.pensamientocomplejo.com.ar  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
38

LA  EPISTEMOLOGÍA  DE  LA 


COMPLEJIDAD  
Edgar Morin 
CNRS, París 
Fuente: Gazeta de Antropología Nº 20, 2004 Texto 20‐02 
http://www.ugr.es/~pwlac/G20_02Edgar_Morin.html 
Resumen  
La epistemología de la complejidad  
Las teorías de la complejidad a las que se ven abocadas no pocas disciplinas, tanto en la 
ciencias  físicas  como  en  las  biológicas,  las  matemáticas  o  las  ciencias  socioculturales, 
están  apuntando  a  un  trasfondo  en  el  que  se  construye  una  nueva  epistemología:  la 
epistemología de la complejidad. ¿Cómo entenderla?  
Abstract  
The epistemology of complexity  
The theories of complexity developed in many disciplines ‐like the physics, the biological 
sciences, the mathematics or the socio‐cultural sciences‐ are pointing to a backgound in 
which a new epistemology is built: The epistemology of complexity. How to understand 
the complexity?  
Introducción  
La cuestión de la complejidad, ¡es compleja!  
En  una  escuela,  la cuestión  fue  planteada  a  niños:  "¿qué  es  la  complejidad?".  La 
respuesta de una alumna fue: "la complejidad es una complejidad que es compleja". Es 
evidente  que  se  encontraba  en  el  corazón  de  la  cuestión.  Pero  antes  de  abordar  esa 
dificultad,  es  necesario  decir  que  el  dogma,  la  evidencia  subyacente  al  conocimiento 
científico clásico, es, como decía Jean Perrin, que el papel del conocimiento es explicar 
lo  visible  complejo  por  lo  invisible  simple.  Más  allá  de  la  agitación,  la  dispersión,  la 
diversidad, hay leyes. Así pues, el principio de la ciencia clásica es, evidentemente, el de 
legislar, plantear las leyes que gobiernan los elementos fundamentales de la materia, de 
la vida; y para legislar, debe desunir, es decir, aislar efectivamente los objetos sometidos 
a  las  leyes.  Legislar,  desunir,  reducir,  estos  son  los  principios  fundamentales  del 
pensamiento  clásico.  En  modo  alguno  pretendo  decretar  que  esos  principios  estén  a 
partir de ahora abolidos.  
Pero  las  prácticas  clásicas  del  conocimiento  son  insuficientes.  Mientras  que  la 
ciencia  de  inspiración  cartesiana  iba  muy  lógicamente  de  los  complejo  a  lo  simple,  el 
pensamiento  científico  contemporáneo  intenta  leer  la  complejidad  de  lo  real  bajo  la 
apariencia  simple  de  los  fenómenos.  De  hecho,  no  hay  fenómeno  simple.  Tómese  el 
ejemplo  del  beso.  Piénsese  en  la  complejidad  que  es  necesaria  para  que  nosotros, 
39

humanos, a partir de la boca, podamos expresar un mensaje de amor. Nada parece más 
simple, más evidente. Y sin embargo, para besar, hace falta una boca, emergencia de la 
evolución del hocico. En necesario que haya habido la relación propia en los mamíferos 
en la que el niño mama de la madre y la madre lame al niño. Es necesario, pues, toda la 
evolución complejizante que transforma al mamífero en primate, luego en humano, y, 
anteriormente,  toda  la  evolución  que  va  del  unicelular  al  mamífero.  El  beso,  además, 
supone  una  mitología  subyacente  que  identifica  el  alma  con  el  soplo  que  sale  por  la 
boca:  depende  de  condiciones  culturales  que  favorecen  su  expresión.  Así,  hace 
cincuenta años, el beso en el Japón era inconcebible, incongruente.  
Dicho  de  otro  modo,  esa  cosa  tan  simple  surge  de  una  hinterland  de  una 
complejidad asombrosa. Hemos creído que el conocimiento tenía un punto de partida y 
un  término;  hoy  pienso  que  el  conocimiento  es  una  aventura  en  espiral  que  tiene  un 
punto  de  partida  histórico,  pero  no  tiene  término,  que  debe  sin  cesar realizar  círculos 
concéntricos; es decir, que el descubrimiento de un principio simple no es el término; 
reenvía  de  nuevo  al  principio  simple  que  ha  esclarecido  en  parte.  Así,  piénsese  en  el 
caso del código genético que, una vez descubierto, nos reenvía a la pregunta: ¿por qué 
existe esa diversidad extraordinaria de formas en los animales y los vegetales? Cito una 
frase de Dobzhansky, el biólogo, que dice: "Desgraciadamente la naturaleza no ha sido 
lo bastante gentil como para hacer las cosas tan simples como nosotros quisiéramos que 
fuesen.  Debemos  afrontar  la  complejidad."  Un  físico,  que  es  al  mismo  tiempo  un 
pensador,  David  Bohm,  y  que  ataca  ya  el  dogma  de  la  elementalidad  ‐sobre  el  que 
retornaré‐,  dice:  "Las  leyes  físicas  primarias  jamás  serán  descubiertas  por  una  ciencia 
que intenta fragmentar el mundo en sus constituyentes."  
Aunque  Bachelard  dijese  que,  de  hecho,  la  ciencia  contemporánea  buscaba  ‐
porque  el  pensaba  en  la  física‐  la  complejidad,  es  evidente  que  los  científicos 
desconocían  que  eso  era  lo  que  les  concernía.  Frecuentemente  tienen  una  doble 
consciencia;  creen  siempre  obedecer  a  la  misma  vieja  lógica  que  han  recibido  en  la 
escuela;  pero,  de  hecho,  sin  que  lo  sepan,  en  su  espíritu  trabaja  otra  lógica  y  otros 
principios de conocimiento.  
Pero a la complejidad le ha costado emerger. Le ha costado emerger, ante todo, 
porque  no  ha  sido  el  centro  de  grandes  debates  y  de  grandes  reflexiones,  como  por 
ejemplo ha sido el caso de la racionalidad con los debates entre Lakatos y Feyerabend o 
Popper y Kuhn. La cientificidad, la falsabilidad son grandes debates de los que se habla; 
pero la complejidad nunca ha sido debatida. La bibliografía sobre la complejidad es, al 
menos por lo que yo conozco, muy limitada. Para mí, la contribución importante es el 
artículo  de  Weaver,  colaborador  de  Shannon,  como  ustedes  saben,  en  la  teoría  de  la 
información, quien, en 1948, escribió el artículo "Science and complexity" en el Scientific 
American,  artículo  que  es  un  resumen  de  un  estudio  más  extenso.  Es  von  Neumann 
quien, en la teoría "On self reproducing automata" aborda con una visión muy profunda 
esa  cuestión  de  la  complejidad  de  las  máquinas,  de  los  autómatas  naturales  en 
comparación con los autómatas artificiales. Se refirió a ella Bachelard en Le nouvel esprit 
scientifique; von Foerster en diversos escritos, particularmente en su texto, ahora bien 
conocido,  "On  self  organizing  systems  and  their  environment".  Está  H.  A.  Simon: 
40

"Architecture  of  complexity",  que  fue  primero  un  artículo  autónomo  y  que  fue  luego 
compilado  en  su  libro.  Podemos  encontrar  la  complejidad, en  Francia, en  las  obras  de 
Henri  Atlan:  Entre  le  cristal  et  la  fumée,  y  estaba  Hayek  quien  escribió  un  artículo 
titulado  "The  theory  of  complex  phenomena"  en  Studies  in  philosophy,  politics  and 
economics, que es bastante interesante.  
Desde luego, se ha tratado mucho de la complejidad en el dominio teórico, físico, 
en el dominio sistémico; pero con frecuencia, en mi opinión, se ha tratado sobre todo 
de  lo  que  Weaver  llama  la  complejidad  desorganizada  que  hizo  irrupción  en  el 
conocimiento con el segundo principio de la termodinámica, el descubrimiento de ese 
desorden  microscópico,  microcorpuscular,  en  el  universo.  Pero  la  complejidad 
organizada es, con frecuencia, reconducida a la complicación. ¿Qué es la complicación? 
Cuando hay un número increíble de interacciones, por ejemplo entre moléculas en una 
célula  o  neuronas  en  un  cerebro,  ese  número  increíble  de  interacciones  y  de 
interretroacciones  sobrepasa  evidentemente  toda  capacidad  de  computación  ‐no 
solamente para un espíritu humano, sino incluso para un ordenador muy perfeccionado‐ 
y entonces efectivamente es mejor atenerse al input y al output. Dicho de otro modo, es 
muy  complicado;  la  complicación  es  el  enredamiento  de  interretroacciones. 
Ciertamente, es un aspecto de la complejidad, pero creo que la importancia de la noción 
está  en  otra  parte.  La  complejidad  es  mucho  más  una  noción  lógica  que  una  noción 
cuantitativa.  Posee  desde  luego  muchos  soportes  y  caracteres  cuantitativos  que 
desafían efectivamente los modos de cálculo; pero es una noción de otro tipo. Es una 
noción a explorar, a definir. La complejidad nos aparece, ante todo, efectivamente como 
irracionalidad, como incertidumbre, como angustia, como desorden.  
Dicho  de  otro  modo,  la  complejidad  parece  primero  desafiar  nuestro 
conocimiento  y,  de  algún  modo,  producirle  una  regresión.  Cada  vez  que  hay  una 
irrupción de complejidad precisamente bajo la forma de incertidumbre, de aleatoriedad, 
se produce una resistencia muy fuerte. Hubo una resistencia muy fuerte contra la física 
cuántica,  porque  los  físicos  clásicos  decían:  "es  el  retorno  a  la  barbarie,  no  es  posible 
situarse  en  la  indeterminación  cuando  desde  hace  dos  siglos  todas  las  victorias  de  la 
ciencia han sido las del determinismo". Ha sido necesario el éxito operacional de la física 
cuántica  para  que,  finalmente,  se comprenda  que  la  nueva  indeterminación  constituía 
también un progreso en el conocimiento de la misma determinación.  
La idea de la complejidad es una aventura. Diría incluso que no podemos intentar 
entrar  en  la  problemática  de  la  complejidad  si  no  entramos  en  la  de  la  simplicidad, 
porque la simplicidad no es tan simple como esto. En mi texto "Los mandamientos de la 
complejidad" publicado  enScience avec conscience, intenté extraer trece principios del 
paradigma de simplificación, es decir principios de intelección mediante simplificación, 
para poder extraer de modo correspondiente, complementario y antagonista a la vez ‐
he  aquí  una  idea  típicamente  compleja‐  principios  de  intelección  compleja.  Voy 
simplemente a retomarlos y hacer algunos comentarios. Esa será la primera parte de mi 
exposición; la segunda parte estará consagrada un poco más precisamente al problema 
del conocimiento del conocimiento o a la epistemología compleja que está relacionada 
con todo eso.  
41

Mandamientos del paradigma de simplificación  
1. Podemos decir que el principio de la ciencia clásica es: legislar. Corresponde al 
principio del derecho, quizás. Es una legislación, pero no es anónima, que se encuentra 
en el universo, es la ley. Y ese principio es un principio universal que fue formulado por 
el lugar común: "Sólo hay ciencia de lo general", y que comporta la expulsión de lo local 
y de lo singular. Ahora bien, lo que es interesante es que, en el universo incluso, en lo 
universal, ha intervenido la localidad. Quiero decir que hoy parece que nuestro universo 
es  un  fenómeno  singular,  que  comporta  determinaciones singulares  y  que  las  grandes 
leyes  que  lo  rigen,  que  podemos  llamar  leyes  de  interacción  (como  las  interacciones 
gravitacionales,  las  interacciones  electromagnéticas,  las  interacciones  fuertes,  en  el 
seno de los  núcleos atómicos), esas leyes de interacción no son leyes en sí, sino leyes 
que sólo se manifiestan, sólo se actualizan a partir del momento en que hay elementos 
en interacción; si no hubiese partículas materiales, no habría gravitación, la gravitación 
no  existe  en  sí.  Esas  leyes  no  tienen  un  carácter  de  abstracción  y  están  ligadas  a  las 
determinaciones singulares de nuestro universo; hubiese podido haber otros universos 
posibles ‐quizás los haya‐ y que tuviesen otros caracteres singulares. La singularidad está 
a  partir  de  ahora  profundamente  inscrita  en  el  universo;  y  aunque  el  principio  de 
universalidad  reside  en  el  universo,  vale  para  un  universo  singular  donde  aparecen 
fenómenos singulares y el problema es combinar el reconocimiento de lo singular y de 
lo local con la explicación universal. Lo local y singular deben cesar de ser rechazados o 
expulsados como residuos a eliminar.  
2.  El  segundo  principio  era  la  desconsideración  del  tiempo  como  proceso 
irreversible; las  primeras  leyes  físicas  pudieron  muy  bien  ser  concebidas  en  un  tiempo 
reversible.  Y,  de  alguna manera,  la explicación estaba  depurada  de  toda  evolución,  de 
toda  historicidad.  Y  también  aquí  hay  un  problema  muy  importante:  el  del 
evolucionismo  generalizado.  Hoy  el  mundo,  es  decir  el  cosmos  en  su  conjunto  y  la 
materia  física  en  su  constitución  (particular,  nuclear,  atómica,  molecular),  tiene  una 
historia.  Ya  Ullmo,  en  esa  epistemología  piagetiana  a  la  que  François  Meyer  colaboró, 
decía muy firmemente: "La materia tiene una historia"; hoy todo lo que es material es 
pensado, concebido a través de su génesis, su historia. El átomo es visto históricamente. 
El  átomo  de  carbono  es  visto  a  través  de  su  formación  en  el  interior  de  un  sol,  de  un 
astro. Todo es profundamente historizado. La vida, la célula, François Jacob lo subraya 
con frecuencia, una célula es también un corte en el tiempo.  
Dicho  de  otro  modo,  contrariamente  a  esa  visión  que  ha  reinado  durante  un 
tiempo en las ciencias humanas y sociales, según la cual se creía poder establecer una 
estructura por eliminación de toda dimensión temporal y considerarla en sí fuera de la 
historia,  hoy  de  todas  las  otras  ciencias  llega  la  llamada  profunda  para  ligar  lo 
estructural u organizacional (prefiero decir esto último y diré por qué) con lo histórico y 
evolutivo. Y lo que es importante efectivamente, es que el problema del tiempo se ha 
planteado de manera totalmente paradójica en el siglo último.  
En  efecto,  en  el  momento  mismo  en  que  se  desarrollaba  el  evolucionismo 
ascensional  bajo  su  forma  darviniana,  es  decir  una  idea  de  evolución  complejizante  y 
42

diversificante  a  partir  de  una  primera  protocélula  viviente,  en  el  momento  en  que  la 
historia humana era vista como un proceso de desarrollo y de progreso, en ese mismo 
momento, el segundo principio de la termodinámica inscribía, él mismo, una especie de 
corrupción  ineluctable,  de  degradación  de  la  energía  que  podía  ser  traducida  bajo  la 
óptica  boltzmaniana  como  un  crecimiento  del  desorden  y  de  la  desorganización. 
Estamos confrontados a una doble temporalidad; no es una flecha del tiempo lo que ha 
aparecido, son dos flechas del tiempo, y dos flechas que van en sentido contrario. Y sin 
embargo,  es  el  mismo  tiempo;  y  sin  embargo  es  la  misma  aventura  cósmica: 
ciertamente,  el  segundo  principio  de  la  termodinámica  inscribe  un  principio  de 
corrupción,  de  dispersión  en  el  universo  físico;  pero  al  mismo  tiempo,  este  universo 
físico, en un movimiento de dispersión, se ha constituido y continúa constituyéndose.  
Se  constituye  de  galaxias,  de  astros,  de  soles,  dicho  de  otro  modo,  se  desarrolla 
mediante la organización al mismo tiempo que se produce mediante la desorganización. 
El  mundo  biológico  es  un  mundo  que  evoluciona;  es  la  vida;  pero  la  vida,  al  mismo 
tiempo, se hace a través de la muerte de individuos y a través de la muerte de especies. 
Se ha querido yuxtaponer esos dos principios; es lo que Bergson hizo; Bergson, uno de 
los raros pensadores que ha mirado de frente el segundo principio; pero, según él, ese 
principio  era  la  prueba  de  que  la  materia  biológica  era  diferente  de  la  materia  física, 
puesto  que  la  materia  física  tiene  algo  de  corrupto  en  ella,  mientras  que  la  sustancia 
biológica  no  padece  el  efecto  del  segundo  principio.  Desgraciadamente  para  él,  se 
descubrió  a  partir  de  los  años  50  que  la  originalidad  de  la  vida  no  está  en  su  materia 
constitutiva, sino en su complejidad organizacional.  
Estamos,  pues,  confrontados  a  ese  doble  tiempo  que  no  solamente  tiene  dos 
flechas,  sino  que  además  puede  ser  a  la  vez  irreversible  y  reiterativo.  Ha  sido, 
evidentemente, la emergencia del pensamiento cibernético la que lo ha mostrado. No 
era solamente el hecho de que, a partir de un flujo irreversible, puede crearse un estado 
estacionario, por ejemplo el del torbellino; en el encuentro de un flujo irreversible y de 
un  obstáculo  fijo,  como  el  arco  de  un  puente,  se  crea  una  especie  de  sistema 
estacionario  que  es  al  mismo  tiempo  móvil,  puesto  que  cada  molécula  de  agua  que 
torbellinea  es  arrastrada  de  nuevo  por  el  flujo,  pero  que  manifiesta  una  estabilidad 
organizacional.  Todo  esto  se  reencuentra  en  todas  las  organizaciones  vivientes: 
irreversibilidad  de  un  flujo  energético  y  posibilidad  de  organización  por  regulación  y 
sobre todo por recursión, es decir, autoproducción de sí. Luego tenemos el problema de 
una  temporalidad  extremamente  rica,  extremamente  múltiple  y  que  es  compleja.  Nos 
hace falta ligar la idea de reversibilidad y de irreversibilidad, la idea de organización de 
complejización creciente y la idea de desorganización creciente. ¡He aquí el problema al 
que  está  confrontada  la  complejidad!  Mientras  que  el  pensamiento  simplificante 
elimina el tiempo, o bien no concibe más que un solo tiempo (el del progreso o el de la 
corrupción), el pensamiento complejo afronta no solamente el tiempo, sino el problema 
de la politemporalidad en la que aparecen ligadas repetición, progreso, decadencia.  
3.  El  tercer  principio  de  simplificación  es  el  de  la  reducción  o  también  de  la 
elementalidad.  El  conocimiento  de  los  sistemas  puede  ser  reducido  al  de  sus  partes 
simples o unidades elementales que los constituyen. Sobre esto, seré muy breve.  
43

Resumo.  Es  en  el  dominio  físico  donde  ese  principio  parecía  haber  triunfado  de 
modo incontestable, dominio que, evidentemente, se encuentra más afectado por ese 
principio.  He  hecho  alusión  al  problema  de  la  partícula  que  es  aporética  (onda  y 
corpúsculo), y por tanto la sustancia es fluctuante; nos dimos cuenta de que en lo que se 
creía  ser  el  elemento  puro  y  simple,  a  partir  de  ahora  existía  la  contradicción,  la 
incertidumbre, lo compuesto ‐aludo a la teoría de los quarks‐ y quizás lo inseparable ‐
aludo a la teoría del Bootstrap‐. Hay límites a la elementalidad; pero esos límites no son 
solamente intrínsecos; tienen también que ver con el hecho de que, una vez que hemos 
inscrito  todo  en  el  tiempo,  la  elementalidad  aparece  también  como  eventualidad,  es 
decir que el elemento constitutivo de un sistema puede también ser visto como evento. 
Por ejemplo, existe una visión estática que consiste en considerarnos nosotros mismos 
en tanto que organismos; estamos constituidos por 30 o 50 mil millones de células. En 
modo  alguno,  y  creo  lo  que  Atlan  justamente  precisó;  no  estamos  constituidos  por 
células; estamos constituidos por interacciones entre esas células.  
No  son  ladrillos  unas  al  lado  de  las  otras;  están  en  interacción.  Y  esas 
interacciones,  son  acontecimientos,  ellos  mismos  ligados  por  acontecimientos 
repetitivos que son martilleados por el movimiento de nuestro corazón, movimiento a la 
vez  regular  e  inscrito  en  un  flujo  irreversible.  Todo  elemento  puede  ser  leído  también 
como  evento.  Y  está  sobre  todo  el  problema  de  la  sistematicidad;  hay  niveles  de 
emergencia; los elementos asociados forman parte de conjuntos organizados; al nivel de 
la  organización  del  conjunto,  emergen  cualidades  que  no  existen  en  el  nivel  de  las 
partes.  
Cierto,  hemos  descubierto  que  finalmente  todo  eso  pasa  en  nuestro  ser,  no 
solamente en nuestro organismo, sino incluso en el pensamiento, en nuestras ideas, en 
nuestras decisiones, que pueden reducirse a torbellinos de electrones. Pero es evidente 
que  no  se  puede  explicar  la  conquista  de  la  Galia  por  Julio  César  sólo  por  los 
movimientos  de  torbellinos  electrónicos  de  su  cerebro,  de  su  cuerpo  y  de  los  de  los 
legionarios  romanos.  Incluso  si  un  demonio  consiguiese  determinar  esas  interacciones 
físicas, nada comprendería de la conquista de la Galia que sólo puede comprenderse al 
nivel de la historia romana y de las tribus galas. Del mismo modo, diría que en términos 
de  cambios  bioquímicos,  los  amores  de  César  y  de  Cleopatra  son  totalmente 
ininteligibles. Así pues,  es cierto que no reduciremos los fenómenos antroposociales a 
los fenómenos biológicos, ni éstos a las interacciones físico‐químicas.  
4.  El  cuarto  principio  simplificador  es  el  del  Orden‐Rey.  El  Universo  obedece 
estrictamente a leyes deterministas, y todo lo que parece desorden (es decir, aleatorio, 
agitador,  dispersivo)  sólo  es  una  apariencia  debida  únicamente  a  la  insuficiencia  de 
nuestro conocimiento.  
Las nociones de orden y ley son necesarias, pero insuficientes. Sobre esto, Hayek, 
por  ejemplo,  muestra  bien  que  cuanta  más  complejidad  hay,  menos  útil  es  la  idea  de 
ley.  Hayek  piensa,  obviamente,  en  la  complejidad  socioeconómica;  es  su  tipo  de 
preocupación;  pero  él  se  da  cuenta  de  que  es  muy  difícil,  porque  son  complejos, 
predecir los fenómenos sociales. Es evidente que las "Leyes" de la Sociedad o las "Leyes" 
44

de la Historia son tan generales, tan triviales, tan planas, que carecen de interés. Hayek 
dice:  "Por  lo  tanto,  la  búsqueda  de  leyes  no  es  marca  del  proceder  científico,  sino 
solamente  un  carácter  propio  de  las  teorías  sobre  fenómenos  simples".  Vincula  muy 
fuertemente  la  idea  de  leyes  con  la  idea  de  simplicidad.  Pienso  que  si  esta  visión  es 
bastante justa en lo que concierne a los fenómenos sociales, no lo es menos que, en el 
mundo  físico  o  biológico,  el  conocimiento  debe  a  la  vez  detectar  el  orden  (las  leyes  y 
determinaciones) y el desorden, y reconocer las relaciones entre orden y desorden. Lo 
que  es  interesante,  es  que  el  orden  y  el  desorden  tienen  una  relación  de 
complementariedad y complejidad. Tomemos el ejemplo, que frecuentemente cito, de 
un fenómeno que presenta, bajo una perspectiva, un carácter aleatorio sorprendente, y, 
bajo  otra  perspectiva,  un  carácter  de  necesidad;  ese  fenómeno  es  la  constitución  del 
átomo  de  carbono  en  las  calderas  solares.  Para  que  ese  átomo  se  constituya,  es 
necesario  que  se  produzca  el  encuentro,  exactamente  en  el  mismo  momento,  de  tres 
núcleos de helio, lo que es un acontecimiento completamente aleatorio e improbable. 
Sin embargo, desde que ese encuentro se produce, una ley entra en acción; una regla, 
una  determinación  muy  estricta  interviene;  el  átomo  de  carbono  se  crea.  Así  pues,  el 
fenómeno  tiene  un  aspecto  aleatorio  y  un  aspecto  de  determinación.  Además,  el 
número de interacciones entre núcleos de helio es enorme en el seno del sol; y además 
ha  habido  muchas  generaciones  de  soles  en  nuestro  sistema  solar;  finalmente  con  el 
tiempo, se crea una cantidad considerable de átomos de carbono, se crea en todo caso 
una amplia reserva necesaria para la creación y el desarrollo de la vida. Vemos como un 
fenómeno  que  parece  ser  extremamente  improbable,  por  su  carácter  aleatorio, 
finalmente, es cuantitativamente bastante importante y puede entrar en una categoría 
estadística. Todo lo cual depende, pues, de la perspectiva desde la cual se mire y diría 
sobre todo que es interesante ‐es necesario‐ reunir todas esas perspectivas. Es en este 
sentido  que  propongo  un  tetragrama,  que  en  modo  alguno  es  un  principio  de 
explicación,  sino  que  es  mucho  más  un  recordatorio  indispensable;  es  el  tetragrama 
orden‐desorden‐interacciones‐organización.  
Esto  debo  también  precisarlo  bien;  cuando  se  dice  tetragrama,  se  piensa  en  un 
tetragrama muy famoso, aquel que en el Monte Sinaí, el Eterno proporcionó a Moisés 
para revelarle su nombre, nombre sagrado e impronunciable: JHVH. Aquí el tetragrama 
del que hablo no es la Fórmula suprema: expresa la idea de que toda explicación, toda 
intelección  jamás  podrán  encontrar  un  principio  último;  éste  no  será  el  orden,  ni  una 
ley, ni una fórmula maestra E= MC2, ni el desorden puro. Desde que consideramos un 
fenómeno organizado, desde el átomo hasta los seres humanos pasando por los astros, 
es  necesario  hacer  intervenir  de  modo  específico  principios  de  orden,  principios  de 
desorden y principios de organización. Los principios de orden pueden incluso crecer al 
mismo tiempo que los de desorden, al mismo tiempo que se desarrolla la organización. 
Por  ejemplo,  Lwoff  escribió  un  libro  titulado  L'ordre  biologique,  es  un  libro  muy 
interesante  porque,  en  efecto,  hay principios  de  orden  que  son  válidos  para  todos  los 
seres  vivientes,  para  todo  organización  viviente.  Sólo  que  esos  principios  de  orden 
válidos para toda organización viviente pueden existir si las organizaciones vivientes son 
vivientes; así pues, no existían antes de la existencia de la vida, sino en estado virtual, y 
45

cuando la vida se extinga cesarán de existir. He aquí un orden que tiene necesidad de 
autoproducirse mediante la organización y ese orden es bastante particular puesto que 
tolera una parte importante de desorden, incluso hasta colabora con el desorden como 
von  Neumann  lo  vio  acertadamente  en  su  teoría  de  los  autómatas.  Así  pues,  hay,  al 
mismo  tiempo  que  crece  la  complejidad,  crecimiento  del  desorden,  crecimiento  del 
orden, crecimiento de la organización (y perdonen que use esa palabra cuantitativa de 
"crecimiento"). Es cierto que la relación orden‐desorden‐organización no es solamente 
antagónica, es también complementaria y es en esa dialéctica de complementariedad y 
de antagonismo donde se encuentra la complejidad.  
5. La antigua visión, la visión simplificante, es una visión en la que evidentemente 
la causalidad es simple; es exterior a los objetos; les es superior; es lineal. Ahora bien, 
hay  una  causalidad  nueva,  que  introdujo  primeramente  la  retroacción  cibernética,  o 
feedback negativo, en la cual el efecto hace bucle con la causa y podemos decir que el 
efecto retroactúa sobre la causa. Este tipo de complejidad se manifiesta en el ejemplo 
de  un  sistema  de  calefacción  de  una  habitación  provisto  de  un  termostato,  donde 
efectivamente  el  mismo  termostato  inicia  o  detiene  el  funcionamiento  de  la  máquina 
térmica. Lo que es interesante, es que no es solamente ese tipo de causalidad en bucle 
el  que  se  crea;  es  también  una  endo‐exo‐causalidad,  puesto  que  es  efectivamente 
también el frío o el calor exterior lo que va a desencadenar la detención o la activación 
del dispositivo de calefacción central; pero en este caso, la causa exterior desencadena 
un efecto interior inverso de su efecto natural: el frío exterior provoca el calor interior. 
Porque  hace  frío  fuera,  la  habitación  está  caliente.  Desde  luego,  todo  esto  puede  ser 
explicado de manera muy simple cuando se consideran los segmentos constitutivos del 
fenómeno del bucle retroactivo; pero el bucle que liga esos segmentos, el modo de ligar 
esos  segmentos  deviene  complejo.  Hace  aparecer  la  endo‐exo‐causalidad.  La  visión 
simplificante, tan pronto como se trata de máquinas vivientes, busca primeramente la 
exo‐causalidad simple; ésta ha sido la obsesión conductista, por ejemplo. Se piensa que 
el  estímulo  que  provocó  una  respuesta  (como  la  saliva  del  perro)  produjo  casi  esa 
respuesta. Después, nos dimos cuenta de que lo interesante era saber también lo que 
pasaba  en  el  interior  del  perro  y  reconocer  cuál  era  la  naturaleza  organizadora  de  la 
endo‐causalidad que estimuló al perro a alimentarse. Todo lo que es viviente, y a fortiori 
todo lo que es humano, debe comprenderse a partir de un juego complejo o dialógico 
de endo‐exo‐causalidad. Así, es necesario superar, incluido en el desarrollo histórico, la 
alternativa  estéril  entre  endo‐causalidad  y  exo‐causalidad.  En  lo  que  concierne  a  la 
extinta URSS, por ejemplo, dos visiones simplificantes se enfrentan: la primera concibe 
el estalinismo según una causalidad puramente endógena que va de Marx a Lenin y de 
éste  a  Stalin  como  una  especie  de  desarrollo  cuasi  deductivo  a  partir  de  un  cuasi‐gen 
doctrinal;  al  contrario,  otros  lo  ven  como  un  fenómeno  accidental,  es  decir,  ven  en  el 
estalinismo  el  efecto  de  las  determinaciones  del  pasado  zarista,  de  la  guerra  civil,  del 
cerco  capitalista,  etc.  Resulta  evidente  que  ni  una  ni  la  otra  de  esas  visiones  son 
suficientes;  lo  interesante  es  ver  la  espiral,  el  bucle  de  fortalecimiento  de  causas 
endógenas  y  de  causas  exógenas  que  hace  que  en  un  momento  el  fenómeno  se 
desarrolle en una dirección más que en otra, dando por presupuesto que existen desde 
46

el  comienzo  virtualidades  de  desarrollo  múltiples.  Tenemos,  pues,  sobre el  tema de  la 
causalidad una revisión muy importante por hacer.  
6.  Sobre  la  problemática  de  la  organización,  no  quiero  insistir.  Diré  que  en  el 
origen está el principio de emergencia, es decir que cualidades y propiedades que nacen 
de  la  organización  de  un  conjunto  retroactúan  sobre  ese  conjunto;  hay  algo  de  no 
deductivo  en  la  aparición  de  cualidades  o  propiedades  de  todo  fenómeno  organizado. 
En cuanto al conocimiento de un conjunto, es necesario pensar en la frase de Pascal que 
suelo  citar:  "Tengo  por  imposible  concebir  las  partes  al  margen  del  conocimiento  del 
todo, tanto como conocer el todo sin conocer particularmente las partes".  
Esto remite la cuestión del conocimiento a un movimiento circular ininterrumpido. 
El  conocimiento  no  se  interrumpe.  Conocemos  las  partes,  lo  que  nos  permite  conocer 
mejor el todo, pero el todo vuelve a permitir conocer mejor las partes. En este tipo de 
conocimiento,  el  conocimiento  tiene  un  punto  de  partida  cuando  se  pone  en 
movimiento,  pero  no  tiene  término.  Tenemos  que  vérnoslas  en  la  naturaleza,  no 
solamente  biológica  sino  física,  con  fenómenos  de  auto‐organización  que  plantean 
problemas enormes. No insisto sobre ello. Los trabajos de Pinson, que conocemos y que 
encuentro muy notables, dan nacimiento, desde el punto de vista organizacional, a una 
concepción que podemos llamar hologramática. Lo interesante es que tenemos de ello 
un  ejemplo  físico  que  es  el  holograma  producido  por  el  láser;  en  el  holograma,  cada 
parte contiene la información del todo. No la contiene, por lo demás, totalmente; pero 
la  contiene en  gran  parte,  lo  que  hace  que efectivamente podamos  romper  la  imagen 
del holograma, reconstituyéndose otros micro‐todos fragmentarios y atenuados. Thom 
dijo:  "La  vieja  imagen  del  hombre‐microcosmos,  reflejo  del  macrocosmos,  mantiene 
todo su valor; quien conozca al hombre conocerá el universo".  
Sin ir tan lejos, es notable constatar que, en la organización biológica de los seres 
multicelulares, cada célula contiene la información del todo. Contiene potencialmente el 
todo.  Y  en  este  sentido  es  un  modo  hologramático  de  organización.  En  el  lenguaje,  el 
discurso  toma  sentido  en  relación  a  la  palabra,  pero  la  palabra  sólo  fija  su  sentido  en 
relación  a  los  discursos  en  los  que  se  encuentra  encadenada.  Aquí  también  hay  una 
ruptura con toda visión simplificante en la relación parte‐todo; nos hace falta ver cómo 
el todo está presente en las partes y las partes presentes en el todo. Por ejemplo, en las 
sociedades  arcaicas,  en  las  pequeñas  sociedades  de  cazadores‐recolectores,  en  las 
sociedades  que  llamábamos  "primitivas",  la  cultura  estaba  engramada  en  cada 
individuo.  Había  en  ellas  algunos  que  poseían  la  totalidad  de  la  cultura,  esos  eran  los 
sabios, eran los ancianos; pero los otros miembros de la sociedad tenían en su espíritu el 
conocimiento de saberes, normas, reglas fundamentales.  
Hoy, en las sociedades‐naciones, el Estado conserva en él las Normas y Leyes, y la 
Universidad contiene el Saber colectivo. No obstante, pasamos, tras numerosos años en 
la familia primero, y luego sobre todo en la escuela, a engramar la cultura del todo; así 
cada individuo porta prácticamente, de un modo vago, inacabado, toda la sociedad en 
él, toda su sociedad.  
47

Los problemas de organización social sólo pueden comprenderse a partir de este 
nivel  complejo  de  la  relación  parte‐todo.  Aquí  interviene  la  idea  de  recursión 
organizacional que, a mi parecer, es absolutamente crucial para concebir la complejidad 
de la relación entre partes y todo. Las interacciones entre individualidades autónomas, 
como en las sociedades animales o incluso en las células, puesto que las células tienen 
cada  una  su  autonomía,  producen  un  todo,  el  cual  retroactúa  sobre  las  partes  para 
producirlas. Dicho de otro modo, las interacciones entre individuos hacen la sociedad; 
de hecho, la sociedad no tendría ni un gramo de existencia sin los individuos vivientes; si 
una  bomba  muy  limpia,  como  la  bomba  de  neutrones,  aniquilase  toda  Francia, 
permanecerían todos los monumentos: el Elíseo, la Cámara de los Diputados, el Palacio 
de Justicia, los Archivos, la Educación Nacional, etc.; pero no habría ya sociedad, porque, 
evidentemente,  los  individuos  producen  la  sociedad.  No  obstante,  la  sociedad  misma 
produce  los  individuos  o,  al  menos,  consuma  su  humanidad  suministrándoles  la 
educación, la cultura, el lenguaje. Sin la cultura, seríamos rebajados al más bajo rango 
de los primates.  
Dicho  de  otro  modo,  son  las  interacciones  entre  individuos  las  que  producen  la 
sociedad;  pero  es  la  sociedad  la  que  produce  al  individuo.  He  aquí  un  proceso  de 
recursividad  organizacional;  lo  recursivo  se  refiere  a  procesos  en  los  cuales  los 
productos  y  los  efectos  son  necesarios  para  su  propia  producción.  El  producto  es  al 
mismo tiempo el productor; lo que supone una ruptura total con nuestra lógica de las 
máquinas artificiales en la que las máquinas producen productos que les son exteriores. 
Ver  nuestra  sociedad  a  imagen  de  esas  máquinas,  es  olvidar  que  esas  máquinas 
artificiales están en el interior de una sociedad que se autoproduce ella misma.  
7. El pensamiento simplificante fue fundado sobre la disyunción entre el objeto y el 
medio ambiente. Se comprendía el objeto aislándolo de su medio ambiente; era tanto 
más necesario aislarlo como era necesario extraerlo del medio ambiente para colocarlo 
en  un  nuevo  medio  ambiente  artificial  que  se  controlaba,  que  era  el  medio  de  la 
experiencia,  de  la  ciencia  experimental.  Efectivamente,  gracias  a  la  experiencia,  se 
podían variar las condiciones del comportamiento del objeto, y, por lo mismo, conocerlo 
mejor. La experimentación a hecho progresar considerablemente nuestro conocimiento. 
Pero hay otro conocimiento que sólo puede progresar concibiendo las interacciones con 
el medio ambiente. Este problema se encuentra en física, donde las grandes leyes son 
leyes  de  interacción.  Se  encuentra  también  en  biología,  donde  el  ser  viviente  es  un 
sistema  a  la  vez  cerrado  y  abierto  inseparable  de  su  medio  ambiente  del  que  tiene 
necesidad para alimentarse, informarse, desarrollarse. Nos hace falta, pues, no desunir, 
sino distinguir los seres de su medio ambiente.  
Por otra parte, el pensamiento simplificante se fundó sobre la disyunción absoluta 
entre el objeto y el sujeto que lo percibe y concibe. Nosotros debemos plantear, por el 
contrario,  el  principio  de  relación  entre  el  observador‐conceptuador  y  el  objeto 
observado, concebido. Hemos mostrado que el conocimiento físico es inseparable de la 
introducción de un dispositivo de observación, de experimentación (aparato, desglose, 
reja) y por esto incluye la presencia del observador‐conceptuador en toda observación o 
experimentación. Aunque no hubiese hasta el presente ninguna virtud heurística en el 
48

conocimiento  astronómico,  es  interesante  apuntar  aquí el principio  antrópico  extraído 


por  Brandon  Carter:  "La  presencia  de  observadores  en  el  universo,  impone 
determinaciones,  no  solamente  sobre  la  edad  del  universo  a  partir  de  la  cual  los 
observadores pueden aparecer, sino también sobre el conjunto de sus características y 
de los parámetros fundamentales de la física que se despliega ahí". Añade que la versión 
débil  del  principio  antrópico  estipula  que  la  presencia  de  observadores  en  el  universo 
impone determinaciones sobre la posición temporal de estos últimos; la versión fuerte 
del principio antrópico supone que la presencia de observadores en el universo impone 
determinaciones,  no  solamente  sobre  su  posición  temporal,  sino  también  sobre  el 
conjunto de propiedades del universo. Es decir, que el universo pertenece a una clase 
de modelos de universo capaces de abrigar seres vivientes y de ser estudiados por ellos. 
Lo que es una cosa extraordinaria, puesto que todo nuestro conocimiento del cosmos, 
efectivamente,  hace  de  nosotros  seres  cada  vez  más  periféricos  y  marginales.  No 
solamente estamos en una estrella de extrarradio, de una galaxia del extrarradio, sino 
que  además  somos  seres  vivientes,  quizás  los  únicos  seres  vivientes  del  universo  ‐por 
abreviar, no tenemos prueba de que haya otros en él‐ y desde el punto de vista de la 
vida,  somos  la  única  rama  donde  ha  aparecido  esa  forma  de  conciencia  reflexiva  que 
dispone  de  lenguaje  y  que  puede  verificar  científicamente  sus  conocimientos.  El 
universo nos marginaliza totalmente.  
Ciertamente,  el  principio  antrópico  en  absoluto  suprime  esa  marginalidad;  pero 
dice que es necesario, de una determinada manera, que el universo sea capaz, incluso 
de un modo altamente improbable, de hacer seres vivientes y seres conscientes. Desde 
la versión débil, el ejemplo que da es bastante interesante; dice: "Nuestro sol tiene 5 mil 
millones de años; es un adulto; tiene asegurado, salvo error, 10 mil millones de años. La 
vida  comenzó  tal  vez  hace  4  mil  millones  de años,  es  decir,  prácticamente al  principio 
del sistema solar. Nosotros, seres humanos, aparecimos en el medio de la edad solar". 
Hay aquí algo que no es puramente arbitrario, al azar. Suponiendo que la vida hubiese 
comenzado  más  tarde,  no  habría  tenido,  sin  duda,  condiciones  de  desarrollo  posible; 
pero,  si  la  vida  hubiese empezado más  tarde,  la  consciencia  humana  habría  aparecido 
en el momento en que el sol hubiese comenzado a extinguirse, es decir en el momento 
en que quizás no habría sido más que un relámpago antes del crepúsculo final. Dicho de 
otro modo, tiene cierto interés intentar pensar nuestro sistema en relación a nosotros y 
nosotros en relación a nuestro sistema.  
Y  es  una  invitación  al  pensamiento  rotativo,  de  la  parte  al  todo  y  del  todo  a  la 
parte. Ya la reintroducción del observador en la observación había sido efectuada en la 
micro‐física  (Bohr,  Heisenberg)  y  la  teoría  de  la  información  (Brillouin).  Aún  de  modo 
más profundo el problema se plantea en sociología y en antropología: ¿cuál es nuestro 
lugar, nosotros observadores‐conceptuadores, en un sistema del que formamos parte?  
Tras la noción de observador se esconde la noción, aún deshonrosa, de sujeto. Sin 
duda, en física, puede prescindirse de la noción de sujeto, a condición de precisar bien 
que  toda  nuestra  visión  del  mundo  físico  se  hace  mediante  la  intermediación  de 
representaciones, de conceptos o de sistemas de ideas, es decir de fenómenos propios 
del espíritu humano.  
49

Pero,  ¿podemos  prescindir  de  la  idea  de  observador‐sujeto  en  un  mundo  social 
constituido por interacciones entre sujetos?  
8.  a  11.  Hay  también  otra  cuestión  que  me  parece  importante,  es  que,  en  el 
conocimiento  simplificante,  las  nociones  de  ser  y  de  existencia  estaban  totalmente 
eliminadas  por  la  formalización  y  la  cuantificación.  Ahora  bien,  creo  que  han  sido 
reintroducidas a partir de la idea de autoproducción que, ella misma, es inseparable de 
la idea de recursión organizacional. Tomemos un proceso que se autoproduce y que así 
produce  el  ser;  crea  el  "sí  mismo".  El  proceso  autoproductor  de  la  vida  produce  seres 
vivientes.  Estos  seres  son,  en  tanto  que  sistemas  abiertos  dependientes  de  su  medio 
ambiente, sometidos a aleatoriedades, existentes. La categoría de existencia no es una 
categoría  puramente  metafísica; somos  "seres‐ahí",  como  dijo  Heidegger,  sometidos  a 
las fluctuaciones del medio exterior y sometidos efectivamente a la inminencia a la vez 
totalmente  cierta  y  totalmente  incierta  de  la  muerte.  Dicho  de  otro  modo,  estas 
categorías  del  ser  y  de  la  existencia  que  parecen  puramente  metafísicas,  las 
reencontramos  en  nuestro  universo  físico;  pero  el  ser  no  es  una  sustancia;  el  ser  sólo 
puede existir a partir del momento en que hay auto‐organización. El sol es un ser que se 
autoorganiza evidentemente a partir, no de nada, sino a partir de una nube cósmica; y 
cuando el sol estalle, perderá su ser...  
Si podemos referirnos en lo sucesivo a principios científicos que permiten concebir 
el ser, la existencia, al individuo, al sujeto, es cierto que el estatus, el problema de las 
ciencias  sociales  y  humanas,  se  modifica.  Es  muy  importante,  puesto  que  el  drama,  la 
tragedia  de  las  ciencias  humanas  y  de  las  ciencias  sociales  especialmente,  es  que, 
queriendo  fundar  su  cientificidad  sobre  las  ciencias  naturales,  encontró  principios 
simplificadores y mutilantes en los que era imposible concebir el ser, imposible concebir 
la existencia, imposible concebir la autonomía, imposible concebir el sujeto, imposible 
concebir la responsabilidad.  
12. y 13. Ahora, llego al último punto, que es el más dramático. El conocimiento 
simplificante se funda sobre la fiabilidad absoluta de la lógica para establecer la verdad 
intrínseca  de  las  teorías,  una  vez  que  éstas  están  fundadas  empíricamente  según  los 
procedimientos  de  la  verificación.  Ahora  bien,  hemos  descubierto,  con  el  teorema  de 
Gödel, la problemática de la limitación de la lógica. El teorema de Gödel ha demostrado 
los  límites  de  la  demostración  lógica  en  el  seno  de  sistemas  formalizados  complejos; 
éstos  comportan  al  menos  una  proposición  que  es  indecidible,  lo  que  hace  que  el 
conjunto  del  sistema  sea  indecidible.  Lo  que  es  interesante  en  esta  idea,  es  que  se  la 
puede  generalizar:  todo  sistema  conceptual  suficientemente  rico  incluye 
necesariamente  cuestiones  a  las  que  no  puede  responder  desde  sí  mismo,  pero  a  las 
que sólo se puede responder refiriéndose al exterior de ese sistema.  
Como  dice  expresamente  Gödel:  "El  sistema  sólo  puede  encontrar  sus 
instrumentos  de  verificación  en  un  sistema  más  rico  o  metasistema".  Tarski  lo  dijo 
también claramente para los sistemas semánticos. Los metasistemas, aunque más ricos, 
comportan  también  una  brecha  y  así  seguidamente;  la  aventura  del  conocimiento  no 
puede  ser  cerrada;  la  limitación  lógica  nos  hace  abandonar  el  sueño  de  una  ciencia 
50

absoluta y absolutamente cierta, pero es necesario decir que no era sólo un sueño. Era 
el  sueño  finalmente  de  los  años  20,  el  sueño  del  matemático  Hilbert  que  creía 
efectivamente  que  podía  probarse  de  modo  absoluto  por  la  metamatemática, 
matemáticamente, lógicamente, formalmente la verdad de una teoría. Era el sueño del 
positivismo lógico que creyó fundar con certeza la teoría científica. Ahora bien, Popper, 
después Kuhn, cada uno a su modo, han mostrado que lo propio de una teoría científica 
es ser biodegradable. Hay aquí una brecha en la lógica a la que se añade otra brecha, 
que  es  el  problema  de  la  contradicción.  Es  un  problema  muy  viejo,  puesto  que  lo 
contradictorio o el antagonismo está presente en Heráclito, Hegel, Marx.  
La cuestión está en saber si la aparición de una contradicción es signo de error, es 
decir, si es necesario abandonar el camino que ha conducido a ella o, si por contrario, 
nos revela niveles profundos o desconocidos de la realidad. Existen contradicciones no 
absurdas,  a  las  que  nos  conduce  la  observación,  así  la  partícula  se  presenta  al 
observador  tanto  como  onda  tanto  como  corpúsculo;  esta  contradicción  no  es  una 
contradicción  absurda;  ella  se  funda  sobre  una  andadura  lógica;  partiendo  de 
determinadas  observaciones,  se  llega  a  la  conclusión  de  que  lo  observado  es  algo 
inmaterial,  una  onda;  pero  otras  observaciones,  no  menos  verificadas,  nos  muestran 
que,  en  otras  condiciones,  el  fenómeno  se  comporta  como  una  entidad  discreta,  un 
corpúsculo.  Es  la  lógica la  que  conduce  a  esa contradicción.  El  verdadero  problema  es 
que es la misma lógica la que nos conduce a momentos aporéticos los cuales pueden o 
no  pueden  ser  superados.  Lo  que  revela  la  contradicción,  si  ella  es  insuperable,  es  la 
presencia de un nivel profundo de la realidad que cesa de obedecer a la lógica clásica o 
aristotélica.  
Diría,  en  dos  palabras,  que  el  trabajo  del  pensamiento,  cuando  es  creador,  es 
realizar saltos, transgresiones lógicas, pero que el trabajo de la verificación es retornar a 
la  lógica  clásica,  al  nudo  deductivo,  el  cual,  efectivamente,  sólo  opera  verificaciones 
segmentarias.  Podemos  formular  proposiciones,  aparentemente  contradictorias,  como 
por ejemplo: yo soy otro. Yo "soy" otro, como decía Rimbaud, o esa hermosa frase de 
Tarde, por citar a un precursor de la sociología, que reza: "Lo más admirable de todas las 
sociedades,  esa  jerarquía  de  consciencia,  esa  feudalidad  de  almas  vasallas  de  la  que 
nuestra persona es la cima", es decir, esa multiplicidad de personalidades en el yo; en la 
identidad existe un tejido de nociones extremamente diversas, existe la heterogeneidad 
en lo idéntico. Todo esto es muy difícil de concebir, pero es así.  
Así, en el corazón del problema de la complejidad, anida un problema de principio 
de pensamiento o paradigma, y en el corazón del paradigma de complejidad se presenta 
el  problema  de  la  insuficiencia  y  de  la  necesidad  de  la  lógica,  del  enfrentamiento 
"dialéctico" o dialógico de la contradicción.  
La epistemología compleja  
El segundo problema es el de la epistemología compleja que, en última instancia, 
es  aproximadamente  de  la  misma  naturaleza  que  el  problema  del  conocimiento  del 
conocimiento.  
51

Continúa  cuestiones  de  lo  que  he  dicho,  pero  sobrepasándolas,  englobándolas. 
¿Cómo concebir ese conocimiento del conocimiento?  
Podemos decir que el problema del conocimiento científico podía plantearse a dos 
niveles.  Estaba  el  nivel  que  podríamos  llamar  empírico,  y  el  conocimiento  científico, 
gracias  a  las  verificaciones  mediante  observaciones  y  experimentaciones  múltiples, 
extrae  datos  objetivos  y,  sobre  estos  datos  objetivos,  induce  teorías  que,  se  pensaba, 
"reflejaban" lo real. En un segundo nivel, esas teorías se fundaban sobre la coherencia 
lógica  y  así  fundaban  su  verdad  los  sistemas  de  ideas.  Teníamos,  pues,  dos  tronos,  el 
trono de la realidad empírica y el trono de la verdad lógica, de este modo se controlaba 
el conocimiento. Los principios de la epistemología compleja son más complejos: no hay 
un trono; no hay dos tronos; en modo alguno hay trono. Existen instancias que permiten 
controlar los conocimientos; cada una es necesaria; cada una es insuficiente.  
La primera instancia, es el espíritu. ¿Qué es el espíritu? El espíritu es la actividad 
de  algo,  de  un  órgano  llamado  cerebro.  La  complejidad  consiste  en  no  reducir  ni  el 
espíritu  al  cerebro,  ni  el  cerebro  al  espíritu.  El  cerebro,  evidentemente,  es  un  órgano 
que  podemos  analizar,  estudiar,  pero  que  nombramos  tal  cual  por  la  actividad  del 
espíritu.  
Dicho de otro modo, tenemos algo que podemos llamar el espíritu‐cerebro ligado y 
recursivo puesto que uno coproduce al otro de alguna manera. Pero de todas formas, 
este espíritu‐cerebro ha surgido a partir de una evolución biológica, vía la hominización, 
hasta  el  homo  llamado  sapiens.  Por  lo  tanto,  la  problemática  del  conocimiento  debe 
absolutamente  integrar,  cada  vez  que  ellas  aparecen,  las  adquisiciones  fundamentales 
de  la  bio‐antropología  del  conocimiento.  Y  ¿cuáles  son  esas  adquisiciones 
fundamentales?  
La  primera  adquisición  fundamental  es  que  nuestra  máquina  cerebral  es  hiper‐
compleja.  El  cerebro  es  uno  y  múltiple.  La  menor  palabra,  la  menor  percepción,  la 
menor representación ponen en juego, en acción y en conexión miríadas de neuronas y 
múltiples  estratos  o  sectores  del  cerebro.  Éste  es  bihemisférico;  y  su  funcionamiento 
favorable acontece en la complementariedad y en el antagonismo entre un hemisferio 
izquierdo más polarizado sobre la abstracción y el análisis, y un hemisferio derecho más 
polarizado  sobre  la  aprehensión  global  y  lo  concreto.  El  cerebro  es  hipercomplejo 
igualmente en el sentido en que es "triúnico", según la expresión de Mac Lean. Porta en 
sí,  no  como  la  Trinidad  tres  personas  en  una,  sino  tres  cerebros  en  uno,  el  cerebro 
reptiliano  (celo,  agresión),  el  cerebro  mamífero  (afectividad),  el  neocórtex  humano 
(inteligencia  lógica  y  conceptual),  sin  que  haya  predominancia  de  uno  sobre  otro.  Al 
contrario, hay antagonismo entre esas tres instancias, y a veces, a menudo, es la pulsión 
quien gobierna la razón. Pero también, en y por ese desequilibrio, surge la imaginación.  
Lo más importante quizás en la bio‐antropología del conocimiento nos retorna a 
las  críticas  kantianas,  en  mi  opinión  ineludibles;  efectivamente,  se  ha  descubierto 
mediante  medios  nuevos  de  observación  y  de  experimentación  lo  que  Kant  descubrió 
mediante  procedimientos  intelectuales  y  reflexivos.  Nuestro  cerebro  está  en  una  caja 
negra  que  es  el  cráneo,  no  tiene  comunicación  directa  con  el  universo.  Esa 
52

comunicación  se  efectúa  indirectamente  vía  la  red  nerviosa  a  partir  de  las  terminales 
sensoriales. ¿Qué es lo que llega a nuestra retina, por ejemplo? Son estímulos, que en 
nuestro  lenguaje  actual  llamamos  fotones,  que  van  a  impresionar  la  retina  y  esos 
mensajes  van  a  ser  analizados  por  células  especializadas,  después  transcritos  en  un 
código  binario  el  cual  va  a  llegar  a  nuestro  cerebro  donde,  de  nuevo,  van,  según 
procesos  que  no  conocemos,  a  traducirse  en  representación.  Es  la  ruina  de  la 
concepción del conocimiento‐reflejo.  
Nuestras visiones del mundo son traducciones del mundo. Traducimos la realidad 
en  representaciones,  nociones,  ideas,  después  en  teorías.  Desde  ahora  está 
experimentalmente  demostrado  que  no  existe  diferencia  intrínseca  alguna  entre  la 
alucinación  y  la  percepción.  Podemos  efectuar  determinados  estímulos  sobre 
determinadas zonas del cerebro y hacer revivir impresiones, recuerdos con una fuerza 
alucinatoria  sentida  como  percepción.  Dicho  de  otro  modo,  lo  que  diferencia  la 
percepción  de  la  alucinación  es  únicamente  la  intercomunicación  humana.  Y  quizás  ni 
eso, pues hay casos de alucinación colectiva. A menos que se admita la realidad de la 
aparición de Fátima, es cierto que miles de personas, que una muchedumbre, pueden 
producir una misma alucinación.  
Así, del examen bio‐antropológico del conocimiento se desprende un principio de 
incertidumbre fundamental; existe siempre una relación incierta entre nuestro espíritu y 
el  universo  exterior.  Sólo  podemos  traducir  su  lenguaje  desconocido  atribuyéndole  y 
adaptándole  nuestro  lenguaje.  Así,  hemos  llamado  "luz"  a  lo  que  nos  permite  ver,  y 
entendemos  hoy  por  luz  un  flujo  de  fotones  que  bombardean  nuestras  retinas.  Es  ya 
hora  de  que  la  epistemología  compleja  reintegre  un  personaje  que  ha  ignorado 
totalmente,  es  decir,  el  hombre  en  tanto  que  ser  bio‐antropológico  que  tiene  un 
cerebro. Debemos concebir que lo que permite el conocimiento es al mismo tiempo lo 
que lo limita. Imponemos al mundo categorías que nos permiten captar el universo de 
los  fenómenos.  Así,  conocemos  realidades,  pero  nadie  puede  pretender  conocer  La 
Realidad con "L" y "R".  
No  hay  sólo  condiciones  bio‐antropológicas  del  conocimiento.  Existen, 
correlativamente,  condiciones  socioculturales  de  producción  de  todo  conocimiento, 
incluido  el  científico.  Estamos  en  los  comienzos  balbucientes  de  la  sociología  del 
conocimiento.  Una  de  sus  enfermedades  infantiles  es  reducir  todo  conocimiento, 
incluido  el  científico,  únicamente  a  su  enraizamiento  sociocultural;  ahora  bien, 
desgraciadamente,  no  se  puede  hacer  del  conocimiento  científico  una  ideología  del 
mismo  tipo  que  las  ideologías  políticas,  aunque  ‐y  volveré  sobre  ello‐  toda  teoría  sea 
una ideología, es decir construcción, sistema de ideas, y aunque todo sistema de ideas 
dependa a la vez de capacidades propias al cerebro, de condiciones socioculturales, de 
la  problemática  del  lenguaje.  En  ese  sentido,  una  teoría  científica  comporta 
inevitablemente un carácter ideológico. Existen siempre postulados metafísicos ocultos 
en y bajo la actividad teórica (Popper, Holton).  
Pero la ciencia establece un diálogo crítico con la realidad, diálogo que la distingue 
de otras actividades cognitivas.  
53

Por  otro  lado,  la  sociología  del  conocimiento  está  aún  poco  desarrollada  y 
comporta en ella una paradoja fundamental; sería necesario que la sociología fuese más 
potente que la ciencia que estudia para poderla tratar de modo plenamente científico; 
ahora  bien,  desgraciadamente  la  sociología  es  científicamente  menos  potente  que  la 
ciencia  que  examina.  Eso  quiere  decir  evidentemente  que  es  necesario  desarrollar  la 
sociología del conocimiento. Existen estudios interesantes, pero muy limitados, que son 
estudios de sociología de los laboratorios; ponen de manifiesto que un laboratorio es un 
micro‐medio  humano  donde  bullen  ambiciones,  celos,  rivalidades,  modas...  Se  dudaba 
un poco de ello. Es cierto que esto resumerge la actividad científica en la vida social y 
cultural; pero no se trata sólo de eso. Hay mucho más que hacer desde el punto de vista 
de la sociología de la cultura, de la sociología de la intelligentsia (Mannheim). Hay todo 
un  dominio  extremamente  fecundo  por  prospectar.  A  este  nivel  es  preciso  desarrollar 
una  socio‐historia  del  conocimiento,  incluida  en  ella  la  historia  del  conocimiento 
científico.  Acabamos  de  ver  que  toda  teoría  cognitiva,  incluida  la  científica,  es 
coproducida por el espíritu humano y por una realidad sociocultural. Eso no basta.  
Es necesario también considerar los sistemas de ideas como realidades de un tipo 
particular, dotadas de una determinada autonomía "objetiva" en relación a los espíritus 
que  las  nutren  y  se  nutren  de  ellas.  Es  necesario,  pues,  ver  el  mundo  de  las  ideas,  no 
sólo  como  un  producto  de  la  sociedad  solamente  o  un  producto  del  espíritu,  sino  ver 
también  que  el  producto  tiene,  en  el  dominio  complejo,  siempre  una  autonomía 
relativa. Es el famoso problema de la superestructura ideológica que ha atormentado a 
generaciones  de  marxistas,  porque,  evidentemente,  el  marxismo  sumario  y  cerrado 
hacía de la superestructura un puro producto de las infraestructuras, pero el marxismo 
complejo y dialéctico, comenzando por Marx, percibía que una ideología retroactuaba, 
evidentemente,  y  jugaba  su  papel  en  el  proceso  histórico.  Es  necesario  ir  todavía  más 
lejos. Marx creyó volver a poner la dialéctica sobre los pies subordinando el papel de las 
ideas. Pero la dialéctica no tiene cabeza ni pies. Es rotativa.  
A partir del momento en que se toma en serio la idea de recursión organizacional, 
los  productos  son  necesarios  para  la  producción  de  los  procesos.  Las  sociedades 
humanas,  las  sociedades  arcaicas,  tienen  mitos  fundacionales,  mitos  comunitarios, 
mitos sobre ancestros comunes, mitos que les explican su situación en el mundo. Ahora 
bien,  esas  sociedades  sólo  pueden  consumarse  en  tanto  que  sociedades  humanas  si 
tienen  ese  ingrediente  mitológico;  el  ingrediente  mitológico  es  tan  necesario  como  el 
ingrediente  material.  Puede  decirse:  no,  por  supuesto  tenemos  primeramente 
necesidad  de  comer  y  luego...  los  mitos,  sí,  ¡pero  no  tanto!  Los  mitos  mantienen  la 
comunidad,  la  identidad  común  que  es  un  vínculo  indispensable  para  las  sociedades 
humanas. Forman parte de un conjunto en el que cada momento del proceso es capital 
a la producción del todo.  
Dicho  esto,  quiero  hablar  del  grado  de  autonomía  de  las  ideas  y  tomaré  dos 
ejemplos  extremos;  un  ejemplo  que  me  ha  impresionado  siempre  resulta  evidente  en 
todas las religiones. Los dioses que son creados por las interacciones entre los espíritus 
de  una  comunidad  de  creyentes  tienen  una  existencia  plenamente  real  y  plenamente 
objetiva; ellos no tienen ciertamente la misma objetividad que una mesa, que la caza; 
54

pero  tienen  una  objetividad  real  en  la  medida  en  que  se  cree  en  ellos:  son  seres  que 
viven por los creyentes y éstos operan con sus dioses un comercio, un intercambio de 
amor  pagado  con  amor.  Se  les  demanda  ayuda  o  protección  y,  a  cambio,  se  les  dona 
ofrendas. Mejor aún: hay muchos cultos en los que los dioses aparecen, y lo que me ha 
fascinado  siempre  en  la  macumba  es  ese  momento  en  el  que  llegan  los  dioses,  los 
espíritus, que se apoderan de tal o cual persona, que bruscamente hablan por la boca 
del  dios,  hablan  con  la  voz  del  dios,  es  decir  que  la  existencia  real  de  esos  dioses  es 
incontestable. Pero esos dioses no existirían sin los humanos que los protegen: ¡he aquí 
la restricción que es necesario hacer a su existencia! En el límite, esta mesa puede aún 
existir  tras  nuestra  vida,  nuestro  aniquilamiento,  aunque  no  tuviese  ya  la  función  de 
mesa; eso sería lo que continuaría su existencia. Pero los  dioses morirían todos desde 
que cesásemos de existir.  
Entonces, ¡he ahí su tipo de existencia!  
Del mismo modo, diría que las ideologías existen con mucha fuerza. ¡La idea trivial 
de  que  podemos  morir  por  una  idea  es  muy  verdadera!  Claro  está,  mantenemos  una 
relación muy equívoca con la ideología. Una ideología, según la visión marxiana, es un 
instrumento que enmascara intereses particulares bajo ideales universales. Todo esto es 
verdad;  pero  la  ideología  no  es  solamente  un  instrumento;  ella  nos  instrumentaliza. 
Somos poseídos por ella. Somos capaces de actuar por ella. Así pues, existe el problema 
de  la  autonomía  relativa  del  mundo  de  las  ideas  y  el  problema  de  la  organización  del 
mundo de las ideas.  
Hay  necesidad  de  elaborar  una  ciencia  nueva  que  sería  indispensable  para  el 
conocimiento  del  conocimiento.  Esa  ciencia  sería  la  noología,  ciencia  de  las  cosas  del 
espíritu,  de  las  entidades  mitológicas  y  de  los  sistemas  de  ideas,  entendidos  en  su 
organización y su modo de ser específico.  
Los  problemas  fundamentales  de  la  organización  de  los  sistemas  de  ideas  no 
resultan solamente de la lógica, existe también lo que llamo la paradigmatología. Ésta 
significa  que  los  sistemas  de  ideas  obedecen  a  algunos  principios  fundamentales  que 
son principios de asociación o de exclusión que los controlan y comandan.  
Así,  por  ejemplo,  lo  que  podemos  llamar  el  gran  paradigma  de  Occidente,  bien 
formulado  por  Descartes,  ya  citado,  que  consiste  en  la  disyunción  entre  el  objeto  y  el 
sujeto, la ciencia y la filosofía; es un paradigma que no sólo controla la ciencia, sino que 
controla la filosofía. Los filósofos admiten la disyunción con el conocimiento científico, 
tanto como los científicos la disyunción con la filosofía. He aquí, pues, un paradigma que 
controla tipos de pensamiento totalmente diferentes, incluso antagonistas, pero que le 
obedecen  igualmente.  Ahora  bien,  tomemos  la  naturaleza  humana  como  ejemplo  del 
paradigma.  O  bien  el  paradigma  hace  que  esas  dos  nociones,  las  de  naturaleza  y 
hombre,  estén  asociadas,  como  ocurre  de  hecho  en  Rousseau,  es  decir  que  sólo  se 
puede comprender lo humano en relación con la naturaleza. O bien, esas dos nociones 
están disjuntas, es decir que sólo puede comprenderse lo humano por exclusión de la 
naturaleza; éste es el punto de vista de la antropología cultural aún reinante.  
55

Un paradigma complejo, por el contrario, puede comprender lo humano a la vez 
en  asociación  y  en  oposición  con  la  naturaleza.  Es  Kuhn  quien  ha  puesto  de  relieve 
fuertemente  la  importancia  crucial  de  los  paradigmas,  aunque  haya  definido  mal  esa 
noción.  Él  la  utiliza  en  el  sentido  vulgar  anglosajón  de  "principio  fundamental".  Yo  la 
empleo en un sentido intermedio entre su sentido lingüístico y su sentido kuhniano, es 
decir que ese principio fundamental se define por el tipo de relaciones que existen entre 
algunos  conceptos  maestros  extremadamente  limitados,  pero  cuyo  tipo  de  relaciones 
controla  todo  el  conjunto  de  los  discursos,  incluida  la  lógica  de  los  discursos.  Cuando 
digo lógica, es necesario ver que de hecho creemos en la lógica aristotélica; pero en ese 
tipo  de  discurso  que  es  el  discurso  de  nuestro  conocimiento  occidental,  es  la  lógica 
aristotélica  la  que  nos  hace  obedecer,  sin  saberlo,  a  ese  paradigma  de  disyunción,  de 
simplificación  y  de  legislación  soberana;  y  el  mundo  del  paradigma  es  evidentemente 
algo muy importante que merece ser estudiado en sí mismo, pero a condición siempre 
de  abrirlo  sobre  el  conjunto  de  las  condiciones  socioculturales  y  de  introducirlo  en  el 
corazón mismo de la idea de cultura. El paradigma que produce una cultura es al mismo 
tiempo  el  paradigma  que  reproduce  esa  cultura.  Hoy,  el  principio  de  disyunción,  de 
distinción, de asociación, de oposición que gobierna la ciencia no solamente controla las 
teorías,  sino  que  al  mismo  tiempo  comanda  la  organización  tecno‐burocrática  de  la 
sociedad.  Esa  división,  esa  hiperdivisión  del  trabajo  científico  aparece  de  un  lado, 
evidentemente, como una especie de necesidad de desarrollo intrínseco, porque desde 
que una organización compleja se desarrolla, el trabajo se especializa mientras que las 
tareas  se  multiplican  para  llegar  a  una  riqueza  más  compleja.  Pero  ese  proceso,  no 
solamente es paralelo, sino que está ligado al proceso de la división del trabajo social, al 
proceso  de  la  heterogeneización  de  tareas,  al  proceso  de  la  no‐comunicación,  de  la 
parcelación,  de  la  fragmentación  de  las  actividades  humanas  en  nuestra  sociedad 
industrial;  resulta  evidente  que  hay  en  ello  una  relación  muy  profunda  entre  el  modo 
como organizamos el conocimiento y el modo como la sociedad se organiza. La ausencia 
de complejidad en las teorías científicas, políticas y mitológicas está ella misma ligada a 
una determinada carencia de complejidad en la organización social misma, es decir, que 
el problema de lo paradigmático es extremamente profundo porque remite a algo muy 
profundo en la organización social, que no es evidente en principio; remite a algo muy 
profundo, sin duda, en la organización del espíritu y del mundo noológico.  
A modo de conclusión  
Concluyo: ¿qué sería una epistemología compleja?  
No  es  la  existencia  de  una  instancia  soberana  que  sería  el  Señor  epistemólogo 
controlando  de  modo  irreductible  e  irremediable  todo  saber;  no  hay  trono  soberano. 
Hay una pluralidad de instancias. Cada una de esas instancias es decisiva; cada una es 
insuficiente.  Cada  una  de  esas  instancias  comporta  su  principio  de  incertidumbre.  He 
hablado  del  principio  de  incertidumbre  de  la  bioantropología  del  conocimiento.  Es 
necesario  también  hablar  del  principio  de  incertidumbre  de  la  sociología  del 
conocimiento; una sociedad produce una ideología, una idea; pero eso no es signo de 
que ella sea verdadera o falsa. Por ejemplo, en la época en que Laurent Casanova (es un 
recuerdo  personal)  estigmatizaba  al  existencialismo  sartriano  diciendo  de  éste:  "Es  la 
56

expresión  de  la  pequeña  burguesía  laminada  entre  el  proletariado  y  la  burguesía",  el 
desafortunado  Sartre  decía:  "Sí,  quizás;  es  verdad;  pero  eso  no  quiere  decir,  sin 
embargo,  que  el  existencialismo  sea  verdadero  o  falso".  Del  mismo  modo,  las 
conclusiones  "sociológicas"  de  Lucien  Goldmann  sobre  Pascal,  incluso  si  ellas  están 
fundadas, no afectan a los Pensées.  
Lucien Goldmann decía: "La ideología de Pascal y de Port‐Royal es la ideología de 
la  nobleza  de  toga  laminada  entre  la  monarquía  y  la  burguesía  ascendente".  Quizás, 
pero ¿es que la angustia de Pascal ante los dos infinitos puede reducirse al drama de la 
nobleza de toga que va a perder su toga? No está tan claro.  
Dicho  de  otro  modo:  incluso  las  condiciones  más  singulares,  las  más  localizadas, 
las más particulares, las más históricas de la emergencia de una idea, de una teoría, no 
son prueba de su veracidad ‐claro está‐ ni tampoco de su falsedad. Dicho de otro modo, 
hay  un  principio  de  incertidumbre  en  el  fondo  de  la  verdad.  Es  el  problema  de  la 
epistemología; es el problema de ladialéctica; es el problema de la verdad. Pero también 
aquí la verdad se escapa; y también aquí el día en que se haya constituido una facultad 
de  noología,  con  su  departamento  de  paradigmatología,  ese  no  será  el  lugar  central 
desde donde se podría promulgar la verdad. Hay un principio de incertidumbre y, como 
decía  hace  un  instante,  hay  un  principio  de  incertidumbre  en  el  corazón  mismo  de  la 
lógica. No hay incertidumbre en el silogismo; pero en el momento del ensamblaje en un 
sistema de ideas, hay un principio de incertidumbre.  
Así, hay un principio de incertidumbre en el examen de cada instancia constitutiva 
del conocimiento. Y el problema de la epistemología es hacer comunicar esas instancias 
separadas; es, de alguna manera, hacer el circuito. No quiero decir que cada uno deba 
pasar su tiempo leyendo, informándose sobre todos los dominios. ¡No! Pero lo que digo 
es  que  si  se  plantea  el  problema  del  conocimiento,  y  por  tanto  el  problema  del 
conocimiento del conocimiento, estamos obligados a concebir los problemas que acabo 
de  enumerar.  Son  ineluctables;  y  no  porque  sea  muy  difícil  informarse,  conocer, 
verificar, etc., hay que eliminar esos problemas. Es necesario, en efecto, darse cuenta de 
que  es  muy  difícil  y  que  no  es  una  tarea  individual;  es  una  tarea  que  necesitaría  el 
encuentro, el intercambio, entre todos los investigadores y universitarios que trabajan 
en  dominios  disjuntos,  y  que  se  encierran,  por  desgracia,  como  ostras  cuando  se  les 
solicita. Al mismo tiempo, debemos saber que no hay más privilegios, más tronos, más 
soberanías  epistemológicas;  los  resultados  de  las  ciencias  del  cerebro,  del  espíritu,  de 
las ciencias sociales, de la historia de las ideas, etc., deben retroactuar sobre el estudio 
de  los  principios  que  determinan  tales  resultados.  El  problema  no  es  que  cada  uno 
pierda  su  competencia.  Es  que  la  desarrolle  bastante  para  articularla  con  otras 
competencias,  las  cuales,  encadenadas,  formarían  un  bucle  completo  y  dinámico,  el 
bucle  del  conocimiento  del  conocimiento.  Esta  es  la  problemática  de  la  epistemología 
compleja  y  no  la  llave  maestra  de  la  complejidad,  de  la  que  lo  propio, 
desgraciadamente, es que no facilita llave maestra alguna. 
 Nota:  Este  texto  corresponde  a  las  páginas  43‐77  de  L'intelligence  de  la 
complexité,  editado  por  L'Harmattan,  París,  1999.  Agradecemos  a  Edgar  Morin  su 
57

amable  autorización  para  traducir  y  publicar  el  texto.  Traducción  de  José  Luis  Solana 
Ruiz. Edgar Morin. Director honorario de investigaciones del CNRS. París, Francia.  
 

También podría gustarte