Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Pensamiento Complejo Lecturas Complementarias PDF
Pensamiento Complejo Lecturas Complementarias PDF
Introducción al
Pensamiento
Complejo
(Lecturas complemetarias)
Dr. Bernardo Fontal/ ULA‐ Ciencias.
2
De lo ecológico a lo meta‐complejo
Oscar Fernández
Universidad Pedagógica Experimental Libertador.
Centro de Investigaciones Contemporáneas (CINCO)
Línea de Investigación: viejas y nuevas racionalidades científicas. Coordinación de
investigación y postgrado
E‐Mail: Ofernandez@miximail.com.
§ Según Edgar Morin los tres principios del pensamiento complejo son:
‐ “El principio dialógico que se basa en la asociación compleja (complementaria,
concurrente, antagonista) de instancias necesarias juntas para la existencia, el
funcionamiento y el desarrollo de un fenómeno organizado.
‐ El principio recursivo: en el que todo momento es, a la vez, producto y
productor, causante y causado, y en el que el producto es productor de lo que lo
produce, el efecto causante de lo que causa.
‐ El principio hologramático: en el que no solo la parte está en el todo, sino que
el todo, en cierto modo, está en la parte”.
. La complejidad se hipercomplejiza cuando surgen nuevos paradigmas tales como el:
ecológico, el cybernético, el neurológico y el semiótico los cuales de forma aleatoria
interactúan entre sí y con el pensamiento complejo creando una filosofía
postcontemporánea y en consecuencia una nueva cultura o subculturas.
En el pensamiento cybernético distingo tres principios; éstos son:
‐ El principio de discontinuidad espacio‐temporal. Aquí las nociones clásicas de
espacio y tiempo se reconfiguran, pues el aquí y el ahora y el allá y después, se
confunden en un estado cuántico que es y no es al mismo tiempo, estamos sin
estar, existimos sin existir y todo por culpa del Internet.
‐ Principio de multidimencionalidades sensorial: en la realidad virtual con
aplicaciones diversas en simuladores, atracciones en parques temáticos, etc; el
objetivo principal es confundir los sentidos y en consecuencia crear una
dimensión paralela que hace real lo irreal e irreal lo real por lo menos por un
tiempo.
‐ Principio de realidad virtual: lo virtual existe, en condiciones de tiempo y
espacio distintas, pero tangibles y medibles. Es decir, se siente, se ve, se oye,
etc.; en consecuencia produce estímulos y genera respuestas. Se plantea
entonces el surgimiento de una nueva lógica. La lógica virtual que nos hablará de
una verdad virtual, de una ética virtual de una vida virtual.
En el pensamiento eclógico observó los siguientes principios:
‐ Principio homoestático: Este principio se refiere al continuo equilibrio
dinámico que se mantiene desde el nivel molecular hasta el sistémico en todos
los seres vivos y que les permitan realizar sus funciones y conservar una
3
estructura pero que además de todo esto nos sugiere una nueva forma de
pensar el orden y en consecuencia nuestras vidas.
‐ Principio de cooperación y competencia: Según la selección natural de Darwin
los seres vivos compiten entre sí para poder sobre vivir; pero también es cierto
que cooperan entre ellos, de hecho el segundo fenómeno es más frecuente que
el primero. De allí que encontremos ideas que compitan con otras y que logren
dominar por diversas razones tales como:
‐ Superioridad argumentativa
‐ Correspondencia histórica
‐ Correspondencia política
‐ Evidencia empírica, etc.
Más sin embargo podríamos rescatar algunos elementos de ellas y hasta la
totalidad de las ideas si las analizamos bajo otras lógicas. De igual modo la cooperación
sería más eficiente si trascendemos las barreras de las disciplinas y si nos vemos no
como creadores particulares sino copartícipes de un colectivo intelectual que a su vez
no renuncia a su mérito pero que reconoce en el colectivo la posibilidad de crear más y
más rápido. Tomando en cuenta que por nuestra condición limitada corporal o podemos
aprenderlo todo por nosotros mismos, en consecuencia la colaboración intersubjetiva se
convierte en una oportunidad para romper nuestros paradigmas.
‐ Principio de Autoorganización: “hay descubrimientos que están invitando a
que los biólogos cambien sus enfoques. Los seres vivos son sistemas de alto
orden. Poseen estructuras intrincadas, que se han mantenido y aún se han
duplicado, a través de un ballet muy preciso de actividades químicas y
comportamentales. Desde Darwin, los biólogos consideran que la selección
natural es virtualmente la sola fuente de dicho orden. Pero Darwin no podía
haber sospechado la existencia de la autoorganización, una propiedad
recientemente descubierta e innata de algunos sistemas complejos”. (Stuart A.
Kauffman, antichos and Adaptation, scientific American, agosto 1991, p.64). En
el pensamiento los procesos que conllevan a la construcción de nuevas ideas no
están claramente establecidos; pero muchas veces surgen como fenómenos
espontáneos de origen incierto pensamientos que de alguna forma buscan la
autoorganización.
“… el neocórtex humano es un prodigioso tejido anárquico, donde las
uniones sinápticas se efectúan de manera aleatoria. Aunque está constituido por
células especializadas (neuronas), el cerebro es un campo no‐especializado,
donde se implantan innumerables localizaciones y a través del cual se efectúan
interacciones laterales. Son las interacciones anárquicas las que están en la
fuente del orden central… No hay equilibrio, sino inestabilidad, tensión
permanente entre estos aspectos que, al mismo tiempo que son
fundamentalmente complementarios, resultan fácilmente concurrentes y
antagonistas”. (Edgar Morín).
“… el cerebro es el objeto material más complejo que conocemos en el
universo y muestra una enorme variabilidad entre individuos” (Edelman).
4
En el pensamiento neurocientífico observo los siguientes principios:
Principio de redes neuronales: son relaciones multivariadas de condiciones
pluridimensionales, las cuales superan la comprensión humana dadas su múltiples
interconexiones relacionales y a la vez simultáneas. La única vía posible (hasta la fecha)
para aproximarse a la comprensión de ésta dinámica, es la simulación computacional la
cual con la ayuda de supercomputadores pueden correlacionar aleatoriamente infinidad
de interconexiones que sin la ayuda de éste elemento sería prácticamente imposible
comprender la naturaleza de éste fenómeno neuro‐cibernético.
Principio Neurogenético: Apenas comenzamos a conocer el intricado universo de los
genes y aunado a esto, las neurociencias abren aún más espacio de incomprensión, que
pareciera en algunos momentos hacerse ilimitado. Sin embrago pareciera haber cierto
indicios que nos hablan de la posibilidad de ciertos comportamientos los cuales
pudieran ser influenciados por detonantes genéticos. En tal sentido sea cual sea el
futuro de esta idea; la misma ofrece en este momento un puerta que no puede dejarse
de abrir por muy incierta que nos parezca, porque de allí puede surgir toda una nueva
filosofía.
Principio de programación Neurolingûístico:
La programación neurolingüística se expresa como un modelo de conducta
orientado a través de técnicas de corte conductista y psicoanalítica, modificar de modo
satisfactorio las interpretaciones desfavorables generadas a través de los cinco sentidos
y las cuales requieren u nuevo enfoque para ser superadas. En tal sentido éste modelo
ha mostrado un aparente éxito que va desde la terapéutica sicológica (depresión, estrés,
esquizofrenia) pasando por métodos aplicados en le campo empresarial; hasta el
desarrollo de técnicas aplicadas en la enseñanza y el aprendizaje (aprender a aprender)
si se quiere éste puede considerarse como el punto cumbre del conductivismo, el cuál
podría conducirnos a la alineación total (mensajes subliminales) o a la liberación total.
De todos modos este principio sirve como conexión importante entre lo conocido y el
conocedor; y aunque aún nos falta mucho para entender el funcionamiento del sistema
nervioso (de modo integral parcial, no total). Este puede ser un interesante elemento de
interfase entre nosotros y nuestras ideas.
5
EDUCACIÓN DEL FUTURO
Por Edgar Morin
Ex director de l'École des Hautes Études en Sciencies Sociales. Paris.
Presentación del texto publicado por Unesco.
1. Una educación que cure la ceguera del conocimiento
Todo conocimiento conlleva el riesgo del error y de la ilusión. La
educación del futuro debe contar siempre con esa posibilidad. El
conocimiento humano es frágil y está expuesto a alucinaciones, a
errores de percepción o de juicio, a perturbaciones y ruidos, a la
influencia distorsionadora de los afectos, al imprinting de la propia
cultura, al conformismo, a la selección meramente sociológica de
nuestras ideas, etc.
Se podría pensar, por ejemplo que, despojando de afecto todo
conocimiento, eliminamos el riesgo de error. Es cierto que el odio,
la amistad o el amor pueden enceguecernos, pero también es
cierto que el desarrollo de la inteligencia es inseparable del de la
afectividad. La afectividad puede oscurecer el conocimiento pero
también puede fortalecerlo.
Se podría también creer que el conocimiento científico garantiza la
detección de errores y milita contra la ilusión perceptiva. Pero
ninguna teoría científica está inmunizada para siempre contra el
error. Incluso hay teorías y doctrinas que protegen con apariencia
intelectual sus propios errores.
nuestros mitos. El primer objetivo de la educación del futuro será
dotar a los alumnos de la capacidad para detectar y subsanar los
errores e ilusiones del conocimiento y, al mismo tiempo,
enseñarles a convivir con sus ideas, sin ser destruidos por ellas.
2. Una educación que garantice el conocimiento pertinente
Ante el aluvión de informaciones es necesario discernir cuáles son
las informaciones clave. Ante el número ingente de problemas es
necesario diferenciar los que son problemas clave. Pero, ¿cómo
seleccionar la información, los problemas y los significados
pertinentes? Sin duda, desvelando el contexto, lo global, lo
multidimensional y la interacción compleja.
3. Enseñar la condición humana
Una aventura común ha embarcado a todos los humanos de nuestra
era. Todos ellos deben reconocerse en su humanidad común y, al
mismo tiempo, reconocer la diversidad cultural inherente a todo lo
humano. Conocer el ser humano es situarlo en el universo y, al
mismo tiempo, separarlo de él. Al igual que cualquier otro
conocimiento, el del ser humano también debe ser
contextualizado: Quiénes somos es una cuestión inseparable de
dónde estamos, de dónde venimos y a dónde vamos.
Lo humano es y se desarrolla en bucles: a) cerebro‐ mente‐
cultura; b) razón — afecto — impulso; c) individuo — sociedad —
especie. Todo desarrollo verdaderamente humano significa
7
4. Enseñar la identidad terrenal
La historia humana comenzó con una dispersión, una diáspora de
todos los humanos hacia regiones que permanecieron durante
milenios aisladas, produciendo una enorme diversidad de lenguas,
religiones y culturas. En los tiempos modernos se ha producido la
revolución tecnológica que permite volver a relacionar estas
culturas, volver a unir lo disperso... El europeo medio se encuentra
ya en un circuito mundial del confort, circuito que aún está vedado
a tres cuartas partes de la humanidad. Es necesario introducir en
la educación una noción mundial más poderosa que el desarrollo
económico: el desarrollo intelectual, afectivo y moral a escala
terrestre.
5. Enfrentar las incertidumbres
Todas las sociedades creen que la perpetuación de sus modelos se
producirá de forma natural. Los siglos pasados siempre creyeron
que el futuro se conformaría de acuerdo con sus creencias e
instituciones. El Imperio Romano, tan dilatado en el tiempo, es el
8
Pero la incertidumbre no versa sólo sobre el futuro. Existe también
la incertidumbre sobre la validez del conocimiento. Y existe sobre
todo la incertidumbre derivada de nuestras propias decisiones.
Una vez que tomamos una decisión, empieza a funcionar el
concepto ecología de la acción, es decir, se desencadena una serie
de acciones y reacciones que afectan al sistema global y que no
podemos predecir. Nos hemos educado aceptablemente bien en un
sistema de certezas, pero nuestra educación para la incertidumbre
es deficiente. En el coloquio, respondiendo a un educador que
pensaba que las certezas son absolutamente necesarias, Morin
matizó y reafirmó su pensamiento: "existen algunos núcleos de
certeza, pero son muy reducidos. Navegamos en un océano de
incertidumbres en el que hay algunos archipiélagos de certezas, no
viceversa."
6. Enseñar la comprensión
La comprensión se ha tornado una necesidad crucial para los
humanos. Por eso la educación tiene que abordarla de manera
directa y en los dos sentidos: a) la comprensión interpersonal e
intergrupal y b) la comprensión a escala planetaria. Morin constató
que comunicación no implica comprensión. Ésta última siempre
está amenazada por la incomprensión de los códigos éticos de los
demás, de sus ritos y costumbres, de sus opciones políticas. A
veces confrontamos cosmovisiones incompatibles. Los grandes
enemigos de la comprensión son el egoísmo, el etnocentrismo y el
sociocentrismo. Enseñar la comprensión significa enseñar a no
9
reducir el ser humano a una o varias de sus cualidades que son
múltiples y complejas. Por ejemplo, impide la comprensión marcar
a determinados grupos sólo con una etiqueta: sucios, ladrones,
intolerantes. Positivamente, Morin ve las posibilidades de mejorar
la comprensión mediante: a) la apertura empática hacia los demás
y b) la tolerancia hacia las ideas y formas diferentes, mientras no
atenten a la dignidad humana.
7. La ética del género humano
Además de las éticas particulares, la enseñanza de una ética válida
para todo el género humano es una exigencia de nuestro tiempo.
Morin volvió a presentar el bucle individuo — sociedad — especie
como base para enseñar la ética venidera.
En el bucle individuo —‐ sociedad surge el deber ético de enseñar
la democracia. Ésta implica consensos y aceptación de reglas
democráticas. Pero también necesita diversidades y antagonismos.
El contenido ético de la democracia afecta a todos esos niveles. El
respeto a la diversidad significa que la democracia no se identifica
con la dictadura de la mayoría.
En el bucle individuo — especie Morin fundamenta la necesidad de
enseñar la ciudadanía terrestre. La humanidad dejó de ser una
noción abstracta y lejana para convertirse en algo concreto y
cercano con interacciones y compromisos a escala terrestre.
Publicado en El País Digital.
El texto completo en formato acrobat reader (.pdf) se encuentra
en:
Página de la Cátedra Unesco Itinerante para Pensamiento Complejo
‐ Edgar Morin.
10
INTERDISCIPLINA Y NUEVOS PARADIGMAS
La ciencia de fin de siglo
Dra. Denise Najmanovich
Desde el 23 hasta el 26 de Octubre se realizará en el Teatro Coliseo de Buenos Aires, el
Encuentro Interdisciplinario Internacional de Nuevos Paradigmas, Cultura y Subjetividad,
organizado por la fundación Interfás. Para esa fecha se harán presentes el Premio Nobel de
química Ilya Prigogine, creador de la Teoría del Caos; Edgar Morin, uno de los principales
exponentes del pensamiento interdisciplinario, que ha desarrollado su pensamiento en áreas
que van desde la antropología y la sociología hasta la epistemología; Ernst von Glaserfeld,
epistemólogo que junto a Heinz Von Foerster desarrolló aspectos centrales de la Cibernetica de
Segundo Orden, Felix Guattari, Psicoanalista y crítico de arte .Junto a ellos Mony Elkaim, Carlos
Sluzki, Harold Goolichian y otros popes de la Terapia sistemica. El encuentro contará, además,
con la presencia de teóricos de la comunicación, críticos de arte y teóricos de la arquitectura de
prestigio internacional.
Ante tal avalancha de gente importante, muchos se han preguntado: ¿ porque una
fundación sistemica decide juntar gente tan diferente ? ¿ porque ahora ? Intentaremos, en esta
nota, buscar la pauta que conecta a todas estas personas, disciplinas, búsquedas, que se darán
cita en esta ciudad ‐ aun perteneciente al tercer mundo ‐ para reflexionar sobre el siglo XX y
pensar el XXI.
LOS PARADIGMAS
Una de los hipótesis que nos pueden ayudar a comprender este encuentro es que el año
próximo se cumpliran 30 años de la publicación del libro de T. Kuhn La Estructura de las
Revoluciones científicas. Tal vez los organizadores no hayan reparado en este hecho, sin
embargo, este texto que revolucionó primero el ámbito restringido de los historiadores y
filósofos de la ciencia se ha convertido en un material de amplia consulta que desde hace 3
decadas está ubicado en las estanterías de las bibliotecas y librerías más importantes del
múndo, casi como un clásico. El concepto de paradigma, que Kuhn desarrolla en el, y que algún
crítico dijera que tiene más de 20 significados distintos, ha alcanzado hoy una difusión
fenomenal en todos los ámbitos de la cultura, pese a la férrea oposición del Positivismo Lógico
que prácticamente hasta los años sesenta era considerado como la filosofía oficial de la ciencia.
En este texto Kuhn expone una nueva concepción del desarrollo científico, explica el rol
protagónico que le cabe a la historia en el establecimiento de una nueva filosofía de la ciencia,
plantea la necesidad de revisar en profundidad los conceptos en uso sobre la ciencia, su
producción, su impacto social, sus conexiones con la filosofía y la compleja relación teoría‐
observación. Kuhn, critica la postura tradicional de la filosofía de la ciencia que considera a la
investigación científica como una larga marcha hacia la verdad a través de un método que
garantiza la objetividad y la neutralidad de la producción científica . Frente a este esquema de
desarrollo continuo y progresivo, que elaboraron los positivista lógicos, Kuhn propone su
concepción de los Paradigmas, como modelos ejemplares que guían la investigación en un área
determinada del conocimiento y que son sustituidos por otros nuevos mediante verdaderas
revoluciones científicas.
11
Un paradigma establece el marco conceptual dentro del cual se desarrollará la
investigación en un área determinada, plantea cuales serán la entidades fundamentales del
universo, que clase de interacción tendrán entre ellas, que clase de preguntas serán
consideradas legítimas y que tecnicas serán las adecuadas para buscar las soluciones.
DE LA SIMPLICIDAD A LA COMPLEJIDAD
Desde el nacimiento de la ciencia moderna hasta casi nuestro siglo reinó el paradigma de
la simplicidad. El exponente máximo de este paradigma fue la dinámica de Newton, siguiendo su
ejemplo todas las explicaciones debían ser económicas, expresadas en leyes deterministas,
basadas en modelos ideales . La mecánica newtoniana fundamentaba su poder en el metodo
analítico, en la búsqueda de unidades fundamentales y el estudio de su comportamiento, para
luego por ensamblaje de partes explicar el comportamiento del conjunto.
El siglo XIX inauguro los grandes problemas conceptuales que iban a eclosionar en el
nuestro. Darwin desarrolló la Teoría de la Evolución, en Francia Fourier crea la nueva ciencia del
calor que llevará al desarrollo del concepto de entropía y la flecha del tiempo.( Ver recuadro).
En nuestro siglo, la biología y las ciencias sociales y tambien la física, necesitaron explicar
el cambio, la transformación y la complejidad. El marco conceptual newtoniano no permitía
abordar estas problemáticas ya que los paradigmas son para los científicos como los
expedientes para los jueces, lo que no figura allí no está en el mundo
En este contexto Ludwig von Bertalanffy, un biologo centrado en la elaboración de
conceptos que pudieran explicar el comportamiento del organismo como un todo, crea la Teoría
General de los Sistemas, en 1945. La Dra. Dora Fried Schnitman explica en su libro " Aspectos
Culturales en Terapia Familiar. Un Modelo Sistemico " cómo los trabajos de Bertalanffy
confluyeron con otros desarrollos paralelos que, desde distintas perspectivas, se estaban
planteando el problema de la complejidad: " Durante este período se publicaron, casi
simultáneamente, el trabajo de Wiener sobre Cibernetica ( 1948 ), los trabajos sobre teoría de la
comunicación de Shannon y Weaver ( 1949 ) y sobre la teoría del Juego de von Neumann y
Morgenstern ( 1949 ). Todas estas teorías compartían un interes por estudiar objetos complejos
con metodologías no reduccionistas ".
Diferentes líneas de investigación han enfatizado diversos aspectos de la teoría de
sistemas, pero todas ellas aceptan el dictum aristotelico : el todo es más que la suma de las
partes. Esto se aplica tanto al organismo de los seres vivos, como al comportamiento individual,
familiar o social, a los sistemas de comunicación, incluidos los lenguajes y en general a todo
sistema complejo. Es por esto que la teoría general de sistemas es de naturaleza
interdisciplinaria, o mejor aún transdisciplinaria, ya que remite a características muy generales
que comparten sistemas muy diversos y esto nos lleva a comprender porque existen diferentes
enfoques de la perspectiva sistemica como la cibernetica, la teoría de autómatas, la de la
información, la de control, la de conjuntos, la de grafos y redes, la de juegos y decisiones, la
matemáticas relacionales, la computación y muchas otras.
La Teoría General de los Sistemas, rompe con el paradigma newtoniano de simplicidad y
analiticidad para plantearse problemas relacionados con la complejidad e interacción. Desde sus
inicios el movimiento sistemico ha sido consciente del cambio conceptual que estaba
proponiendo, la investigación ha estado ligada siempre a la reflexión epistemológica,
cuestionando la omnipotencia del metodo analitico, fijando el foco de atención en las redes de
relaciones, más que en los elementos; en los bucles de retroalimentación más que en la
causalidad lineal y unidireccional. Bertalanffy,cuestionando la teoría del conocimiento del
12
positivismo lógico, decía : la percepción no es un simple reflejo de las " cosas reales "( sea cual
fuere su status metafísico ),y el conocimiento no constituye una mera aproximación a la " verdad
" o " realidad ", sino una interacción entre cognoscente y cognoscendo, que depende de una gran
variedad de factores biológicos, psicológicosm culturales, linguisticos .
Desde la perpectiva sistemica el centro de gravedad de la investigación pasa por los
modelos de interacción, irreductibles, complejos, multicausales y no lineales, en sistemas
abiertos.
Bertalanffy eligió intuitivamente a los sistemas abiertos‐ que intercambian materia,
energía e información con el medio‐ como modelo general y la investigación posterior confirmó
las ventajas de esta decisión ya que la Teoría de Sistemas Abiertos guarda múltiples relaciones
con la cinetica química en sus diversos aspectos, desde los teóricos hasta los tecnológicos; con la
termodinámica de procesos irreversibles de Prigogine, con la fisiología y tambien con las
ciencias sociales, otorgando a la Teoría un alto grado de conexiones y generalidad.
Ilya Prigogine, por su parte, rompió con el paradigma de la simplicidad siguiendo la lógica
interna de sus investigaciones con sistemas lejos del equilibrio que lo obligaron a desarrollar
nuevas categorías conceptuales para abordar los problemas de la complejidad, la tranformación
y la evolución de los sistemas que estudiaba. Tanto la preocupación por la problemática glogal
de la complejidad como su interes en la reflexión epistemológica llevaron a un acercamiento
entre Prigogine y los sistemicos que fue el punto inicial de un fructífero intercambio que llegará
a su madurez en el siguiente período evolutivo de la Teoría de sistemas.
DEL MANTENIMIENTO AL CAMBIO
En un primer período de evolución, que va desde sus orígenes hasta finalizar la decada del
sesenta, la investigación se centró en el objetivo de comprender el equilibrio dinámico; guiados
en buena parte, por el gran enigma biológico respecto al mantenimiento de la estructura
corporal. Sabemos que nuestras celulas se recambian permanentemente, pese a ello nos
concebimos como un organismo más o menos estable , al menos durante algunos períodos de
tiempo ( arruga más, arruga menos ). Al respecto nos dice la Dra Schnitman: " El desarrollo
temprano de la Cibernetica y la Teoría General delos Sistemas se caracterizó por un enfasis en la
estructura, la adaptación, el equilibrio dinámico, con el propósito de comprender cómo una
organización dada podía ser estabilizada y mantenida por medio del cambio continuo, "(...)"Sin
embargo las estructuras vivientes y sociales no pueden ser estabilizadas permanentemente,
tambien requieren una comprensión las transformaciones espontáneas; la sistemica integró
progresivamente el estudio del cambio estructural y de la capacidad de transformaciones
espontáneas del sistema como dominio necesario.".
Este segundo período de la sistemica se inicia con la decada del 70 y su busqueda
fundamental es la comprensión del cambio. En este terreno los aportes de Prigogine han sido
profundamente relevantes, ya que su modelo de estructuras dispativas, sujetas a fluctuaciones
internas y externas, que a partir de cierto valor crítico , o umbral, se amplifican y llevan a la
formación de nuevas estructuras permite desarrollar nuevas categorías conceptuales y modelos
que integren la dinámica del cambio, el azar y la necesidad, el mantenimiento y la
transformación.
Edgar Morin, desde sus investigaciones sociológicas y antropológicas, y tambien desde la
reflexión epistemológica realizó valisísimos aportes en este período y en el siguiente, que se
reflejan en su Trilogía: " El metodo ". Morin,desde una perspectiva centrada en la complejidad,
13
se orienta hacia una concepción bio‐antropo‐cosmológica, en donde los niveles físico, viviente y
social no sean compartimentos estancos sino que se articulen e integren.
El pensar en torno al cambio y la evolución llevó en su desarrollo natural a que los
investigadores se cuestionaran sobre las condiciones de producción de conocimiento, la
aparición de novedades, la creatividad. Esto nos lleva a un tercer período evolutivo que se
expresa más fuertemente en el tercer tomo de la trilogía, El Conocimiento del Conocimiento, y
que Heinz von Foerster bautizó Cibernetica de Segundo Orden.
LA GENERATIVIDAD
La epistemología positivista se corresponde claramente con el paradigma de la
simplicidad. El sujeto ( científico ) es un observador ( neutral, objetivo ) de una naturaleza que es
independiente ( ajena a sus deseos y sufrimientos ). El conocimiento es reflejo ( en el sujeto ) de
la realidad que está allí afuera; el conocer no modifica esta realidad ya que el observador no
interfiere en absoluto con su objeto de estudio.
Esta concepción objetivista del conocimiento no fue cuestionada exclusivamente por
Kuhn. Desde otra perpectiva Jean Piaget, realizó una crítica demoledora en sus investigaciones
en psicología experimental y epistemología genetica, desarrollando una postura constructivista
del conocimiento, donde sujeto y objeto ya no son polos opuestos de una dicotomía, sino que
ambos se co‐construyen en el proceso de conocimiento.
Ya en las primeras decadas del siglo, la propia física, a traves del principio de
indeterminación de Heisemberg, introduce al observador dentro de la teoría científica; y aunque
mucho más tardiamente la biología, especialmente la neurofisiología, con los aportes de
McCulloch, Maturana y Varela, confirman que no podemos prescindir del observador como
parte del sistema de observación, desde la investigación de fenómenos fisiológicos.
La cibernetica de segundo orden da cuenta de este proceso de reflexión del conocimiento
del conocimiento, donde para conocer el cerebro utilizamos...el cerebro, para conocer el
lenguaje utilizamos...el lenguaje, es decir donde la recursividad es la norma, donde no hay
linealidad posible, solo bucles. Este tercer período contó entre sus máximos exponentes con los
aportes de Ernst von Glaserfeld y Heinz von Foerster.
INTERDISCIPLINARIEDAD, TRANSDISCIPLINARIEDAD
Hasta aquí hemos visto cómo se enlazan la Teoría de sistemas, la reflexión epistemológica
desde Kuhn a la Cibernetica de segundo Orden, las teorías de Prigogine y Morin. Sólo nos resta
pensar cual es la pauta que las conecta con la Terapia Familiar sistemica, el arte la arquitectura y
sus críticos, en esta red del pensamiento de la complejidad.
La Teoría general de los sistemas nació como una perspectiva transdiciplinaria, que
permite abordar sistemas complejos de cualquier clase. No constituye una disciplina en si, sino
una metadisciplina, pues más que una teoría sobre el mundo, es una teoría para desarrollar
teorías . Estas últimas sí nos hablaran del mundo, y de nosotros hablando del mundo, y seran
teorías sistemicas de áreas específicas. En este sentido, tanto la Teoría de Bertalanffy como la
cibernetica de Wiener han sido muy influyentes en el desarrollo de la Terapia Familiar,
especialmente gracias al grupo de Gregory Bateson y colaboradores de Palo Alto que estaban
desarrollando investigaciones sobre la comunicación en grupos humanos, que fueron derivando
en la conceptualización de una estrategia terapeutica.
14
No debe extrañarnos entonces que una fundación sistemica, como es Interfas, convoque
a este encuentro para reflexionar sobre los nuevos paradigmas, la cultura y la subjetividad. El
quiebre del paradigma newtoniano, el surgimiento de distintas perspectivas y alternativas nos
llevan a la necesidad de pensar sobre estos cambios, evoluciones y crisis que se expresan en la
historia de las ideas (paradigamas), en la historia de las sociedades ( culturas) y de los individuos
que las co‐forman ( sujetos ).
La realización de este encuentro es, tal vez, el mejor regalo que Kuhn hubiera soñado para
festejar los 30 años de la publicación de su libro clave. Este nuevo paradigama de la complejidad
se desarrolla desde una red de pensadores, que desde diversos puntos de vista tratan de
construir una perspectiva para conocer(se). En este proyecto no hay disciplinas privilegiadas ni
convidados de piedra. El arte, la ciencia, la filosofía son sólo formas en que los hombres abordan
la multiplicidad de planos y posiblidades de ser...humanos.
15
LA METAMORFOSIS DE LA CIENCIA
Dra. Denise Najmanovich
Ilya Prigogine no es un científico común. No solo porque es uno de los pocos que han
recibido el premio Nobel, sino también porque se encuentra entre los poquísimos que han
trascendido su área específica ‐ la física‐ para dejar su huella en otras disciplinas como la
filosofía de la ciencia, la psicología o la sociología.
Las teorías de Prigogine son parte la búsqueda de un nuevo paradigma, de una nueva
concepción de la ciencia y de las descripciones que ella hace de la naturaleza.
La ciencia clásica nos ha mostrado un universo mecánico, manipulable, eficaz : el universo
reloj de la Modernidad. Esta imagen mecanicista creada por Descartes y adaptada por Newton y
sus sucesores reemplazó a la descripción aristotélica de un universo vivo, orgánico y creativo.
Con el cambio ganamos muchas cosas, pero perdimos otras, al igual que cuando abandonamos
la niñez para convertirnos en adultos.
Muchos científicos consideran que ha llegado el momento de hacer una síntesis
integradora, de crear puentes entre las disciplinas que nos ayuden a componer una imagen más
armónica de la naturaleza y del hombre como parte integrante de ella.
Los aportes de Prigogine en esta búsqueda son fundamentales, tanto en su trabajo
específico , que abre las puertas de la ciencia al estudio de la complejidad y de la flecha del
tiempo ( ver recuadro ), como en su búsqueda de integración con otras disciplinas y su trabajo
en pro de una nueva alianza y de un diálogo fecundo entre la ciencia y la filosofía.
Prigogine nos ha presentado un apasionante análisis de la evolución de la ciencia a partir
de dos concepciones del universo físico en conflicto: la imagen estática y la imagen evolutiva.
Pero sus trabajos no se limitan a la perspectiva histórica, ya que no es, ni pretende ser un
historiador; sino que muestra un camino alternativo surgido de sus investigaciones científicas y
de su reflexión filosófica. "Estamos avanzando hacia nuevas síntesis, hacia un nuevo
naturalismo, que combina la tradición occidental, con su énfasis en las formulaciones
experimental y cuantitativa, con la tradición china dirigida hacia una imagen de mundo
autoorganizándose espontáneamente.", dice
El universo domesticado
Para comprender el pensamiento de Prigogine debemos seguir el camino que el construyó
junto con Isabelle Stengers y que expuso deliciosamente en su libro: "La nueva alianza.
Metamorfosis de la ciencia". Esta presentación histórica es imprescindible para delinear el
marco conceptual y la importancia de los aportes de Prigogine; y además, para poder
representarnos las enormes tensiones, batallas y revoluciones conceptuales implicadas en esta
metamorfosis de nuestra imagen del Universo.
La concepción aristotélica dominó nuestra civilización entre los siglos XII y XVI y se
derrumbó con gran estrépito mediante un traumático proceso que cambió radicalmente nuestra
manera de concebir el mundo. Esta gran modificación conceptual se denominó Revolución
Copernicana y marcó un hito en la historia del pensamiento occidental. Copérnico apenas dió un
16
puntapié inicial a esta revolución; Galileo y Kepler la encauzaron y Descartes lo encarriló dentro
de una concepción mecanicista que recién llegaría a su madurez con Newton.
Antes de la gran transformación que da surgimiento a la ciencia moderna, el universo era
concebido como un todo orgánico, cuya característica fundamental era la interdependencia de
los fenómenos materiales y espirituales. En el universo aristotélico el hombre formaba parte de
la naturaleza armónicamente y en plano de igualdad con las otras criaturas. La tarea de los
filósofos (no había división entre ciencia y filosofía), era tratar de comprender el significado y la
importancia de las cosas. No predecirlas. Mucho menos controlarlas.
La ciencia moderna, en cambio, produjo un universo donde el hombre : "...Debe por fin
despertarse de su sueño milenario; y haciendo esto, despertarse en su completa soledad, en su
aislamiento fundamental. Pero ¿ se da cuenta de que, como un gitano, vive en la frontera de un
mundo extraño ? Un mundo sordo a su música, tan indiferente a sus esperanzas como lo es a su
sufrimiento " según lo describió, de una manera trágica y bella J. Monod en el "El azar y la
necesidad". En adelante el hombre será considerado un observador separado en un universo
que le es ajeno; donde, según las normativas de Francis Bacon, el científico debía "torturar a la
naturaleza hasta arrancarle sus secretos" ,porque "saber es poder".
Sobre este proceso, I. Prigogine y I. Stengers nos dicen en "La Nueva Alianza":
" El sorprendente éxito de la ciencia moderna llevó, por lo tanto, a una transformación
irreversible de nuestra relación con la naturaleza ". ... " Reveló al hombre una naturaleza muerta
y pasiva, una naturaleza que se comporta como un autómata, que una vez programada funciona
eternamente siguiendo las reglas escritas en su programa ".
Dioses o demonios
Luego de las revoluciones, aun de las conceptuales, es necesario un nuevo período de
estabilidad. Como se sabe la tempestad no puede durar eternamente. Es así que en el siglo XVIII
sobrevino la calma; la ciencia moderna se transformó en la productora de la cosmovisión
dominante, la concepción aristotélica fue relegado a los monasterios o al olvido, y el paradigma
newtoniano iluminó la nueva aurora de la modernidad.
El universo mecanicista no se estableció en un día pero en los comienzos del siglo XIX,
tanto en Inglaterra, como en el continente Europeo brillaba con su máxima intensidad. Tal es
así, que cuando en 1805 Pierre Simón de Laplace le presentó a Napoleón; su obra "Mecánica
Celeste" ‐que completaba la obra de Newton en algunos de sus aspectos más importantes‐, fue
interpelado por el Emperador, quien le dijo: ‐ " Me dicen, M. Laplace, que a lo largo de este
voluminoso libro sobre el sistema del universo no mencionais una sola vez al Creador "
A lo que Laplace respondió:
‐ " No he necesitado de esa hipótesis "
El mecanicismo laplaciano expulsó a Dios definitivamente de la explicación científica
considerándolo una hipótesis prescindible. El Universo laplaciano es un mecanismo de relojería
eterno e increado.
Es así que en el curso de los siglos XV, XVI y XVII se produce una transformación radical en
el campo conceptual; de la concepción de un Universo poético y espiritual, armónico y pletórico
de sentido; bello de contemplar y posible de comprender, se pasó a pensar que habitamos en
un mundo mecánico, inodoro, incoloro e insípido pero manipulable eficazmente gracias al poder
que nos da la nueva ciencia .
17
En la Modernidad se ha roto la vieja alianza entre el conocimiento científico y filosófico,
entre el alma y el cuerpo, entre el arte y la ciencia. La cultura humanística se reserva para sí la
literatura, la pintura, la filosofía, el sufrimiento pero también el goce; todos separados del que
en adelante se denominará conocimiento objetivo del Universo. Se establece así la separación
del Sujeto, en adelante observador imparcial; y el Objeto, realidad independiente del sujeto. La
expresión de esta dicotomía en el campo del conocimiento es la separación entre la cultura
científica objetivista ( que se ocupa de la materia y sus leyes) y la cultura humanista subjetivista
(que se ocupa del alma y sus expresiones). Prigogine señaló con claridad el peligro que entraña
este divorcio entre las dos culturas: "Se encuentra así acentuada una tendencia al
enclaustramiento general que, en particular, corta a la filosofía de una de sus fuentes
tradicionales de reflexión, y a la ciencia de los medios de reflexionar sobre su práctica".
La ciencia moderna ha dado grandes cosas a la humanidad, desde los automóviles a las
naves espaciales, los antibióticos y los plásticos, pero nos ha separado, escindido en dos culturas
que no se yuxtaponen ni intercambian entre sí. No solo Dios ha sido expulsado del universo
newtoniano sino también la ética y la estética, la metafísica y el alma han quedado fuera de este
universo geométrico, regido por leyes matemáticas ajenas a nuestro dolor y nuestro deseo.
En el universo científico el destino está fijado por leyes mecánicas; el azar no tiene lugar,
todo acontecimiento está determinado, el mundo se rige por una dinámica de causa‐efecto.
El universo desbocado
El siglo XX cambió radicalmente su forma de ver el mundo, las concepciones estáticas
fueron cediendo el paso a las evolutivas. La imagen del Universo sufrió una gran transformación
que comenzó a esbozarse en el transcurso del siglo XIX y tomó una forma más definida en el
nuestro. La teoría de la evolución darwiniana se impuso en biología y se está imponiendo en
cosmología una concepción evolucionista que nos habla de un Universo en expansión, y en
muchas otras áreas del conocimiento científico el enfoque evolutivo es considerado
fundamental.
El trabajo científico que desarrolló Prigogine y que le valió el Premio Nobel de Química en 1977
se inscribe en el área de investigación fisicoquímica conocida como termodinámica (teoría del
calor, sus flujos y transformaciones), y ha sido un aporte fundamental para esta nueva
concepción evolutiva de la naturaleza.
Para comprender los aportes de la termodinámica a esta nueva imagen del Universo,
utilizaremos nuevamente un enfoque histórico, siguiendo los pasos de Prigogine y Stengers.
El primer gran paso de la termodinámica, nueva ciencia que se estableció en el siglo XIX,
lo dió Joule cuando postuló el principio de conservación de la energía: "La energía no se crea ni
se destruye, solo se transforma". Pero no sólo éxitos cosechó la nueva disciplina, también hubo
muchas sorpresas y se les plantearon nuevos problemas a los investigadores; pues, aunque Sadi
Carnot en 1824 consiguió reducir el estudio de las máquinas térmicas al modelo de las máquinas
clásicas, lo hizo trabajando desde el único punto de vista del rendimiento ideal, pero había
descuidado el hecho de que lo que estas máquinas consumen desaparece sin retorno. Ninguna
máquina térmica restituirá al mundo el carbón que ha utilizado.
¿Qué máquina tendrá el rendimiento ideal? Nuestra experiencia nos dice que ninguna, en
un tiempo mayor o menor todas se detienen, ya sea por falta de combustible, por fallas
mecánicas, desgaste o rotura.
18
"La obsesión por el agotamiento de las reservas y por la detención de los motores, la idea
de una decadencia no reversible, traduce ciertamente esta angustia propia del hombre
moderno" , explica Prigogine en La Nueva Alianza .
Angustia debido a que el segundo principio de la termodinámica ha estallado como una bomba
en el mundo de la ciencia; separando lo ideal reversible de los real irreversible, ya que una parte
de la energía se disipa como calor y no podemos recuperarla.
Este segundo principio puede enunciarse de distintas maneras, la más sencilla es la que nos dice
que "es imposible una máquina con movimiento perpetuo" debido a que, por ingenioso que sea
el diseño de su motor, no toda la energía se puede convertir en trabajo mecánico. La
termodinámica dejó bien en claro a los ingenieros el porqué en cada ciclo parte de la energía se
convierte (no se pierde) en una forma imposible de utilizar. En el caso de un motor, por ejemplo,
nunca volverá exactamente a su estado inicial, aunque el pistón vuelva a su posición original; el
sistema se encuentra en un estado termodinámico diferente, ya que sólo un porcentaje de la
energía química de la nafta se convierte en trabajo útil, el resto se pierde como calor,
vibraciones mecánicas, energía contenida en los gases de escape.
Carnot desarrolló el segundo principio en base a su análisis de los motores térmicos, pero
Clausius en la década de 1860 a 1870 se dió cuenta que esta dificultad cada vez mayor de
transformar calor en trabajo era un fenómeno más amplio y que además de las máquinas
térmicas abarcaba a muchos otros sistemas. Clausius se dió cuenta que había un principio
general que implicaba que al disminuirse las diferencias de nivel en un sistema (por ejemplo la
diferencia de calor entre un recipiente caliente y otro frío en las máquinas térmicas) la
posibilidad de convertir esa diferencia en trabajo mecánico era cada vez menor. Para expresar
este fenómeno desarrolló el concepto de entropía.
¿Qué es, pues, la entropía ? El termino proviene y la palabra griega "tropos" (transformación o
evolución) y mide el grado de evolución de un sistema físico; cuando más cerca estemos del
equilibrio mayor será la entropía y menor la actividad del sistema.
Como vimos, la energía mecánica nunca se transforma totalmente en trabajo sino que una parte
se disipa como calor. Clausius relacionó este fenómeno con otros aparentemente inconexos: vió
que cuando juntamos agua caliente y agua fría obtenemos agua tibia ‐y los dos líquidos nunca
pueden ser separados‐, la diferencia de temperatura entre ambos recipientes es cada vez
menor, el desequilibrio inicial va disminuyendo y con él la capacidad de producir trabajo. Algo
parecido sucede si sacamos el tabique divisorio de un recipiente que contenga arena blanca de
un lado y arena negra del otro, al cabo de un tiempo tendremos solamente arena gris, del
desequilibrio cromático blanco‐negro pasamos a la homogeneidad del gris. A la vez podemos
considerar que de un sistema estructurado pasamos a uno más desestructurado o desordenado,
los granitos de arena están repartidos homogeneamente por todo el recipiente y no "cada uno
en su lugar".
¿Qué tienen en común todos estos fenómenos? Todos proceden en la misma dirección: del
desequilibrio al equilibrio, del orden al desorden, hacia una entropía cada vez mayor.
En base a este análisis, surge la formulación más general del segundo principio: Cualquier
sistema físico aislado tomará espontáneamente el camino del desequilibrio cada vez menor, se
hará cada vez más homogéneo. En términos de entropía diremos que en cualquier sistema físico
aislado la entropía aumenta o permanece constante.
Es fácil ver cómo la evolución de entropía se traduce en una evolución irreversible del sistema,
ya que aquello que se ha disipado no se recupera y si invertimos el proceso no llegaremos nunca
a la situación inicial.
19
Nos dice Prigogine: " El crecimiento de entropía muestra una evolución espontánea del sistema.
La entropía llega a ser así un indicador de evolución, y traduce la existencia en física de una
flecha del tiempo: para todo sistema aislado el futuro está en la dirección en la cual la entropía
aumenta".
Todo esto que parece tan trivial tomó por sorpresa a los físicos newtonianos, ya que en su
descripción mecánica del universo, el tiempo y los procesos son reversibles como el
funcionamiento de un reloj. Normalmente sus agujas giran en un sentido, pero podemos hacer
que giren exactamente al revés con solo girar la cuerda.
A finales del siglo XIX, los dos principios de la termodinámica constituían leyes nuevas, base de
una nueva ciencia, que era imposible referir a la física tradicional y aunque luego se logró
compatibilizarlas surgieron nuevos inconvenientes, esta vez desde la biología.
El segundo principio de la termodinámica indica que la entropía de un sistema crece
constantemente o permanece constante, que la dirección espontánea de cualquier proceso es
siempre desde un mayor nivel de estructuración a uno menor. Todos sabemos que nuestros
departamentos se ensucian "espontáneamente" y que nos cuesta mucha energía volver a
limpiarlos y ordenarlos. Sin embargo, la teoría evolutiva dice todo lo contrario: primero
existieron los animales más simples, menos estructurados, y luego fueron evolucionando hacia
formas cada vez más complejas. En la vida de cada individuo sucede lo mismo, desde un huevo
pasamos a ser una masa de células que luego se diferencian para formar el feto, cada vez más
complejo. La flecha biológica parece tener un sentido contrario a la termodinámica.
El universo reencantado
Nuestra experiencia de vida se opone a la imagen termodinámica clásica de un universo en
permanente degradación. Pero, ¿es posible que los seres vivos vayan a contramano por la
avenida termodinámica?
Los biólogos comprendieron rápidamente que no debían extrapolar los resultados de la
termodinámica clásica a la biología, ya que para esta ciencia el equilibrio es un estado marginal
(la muerte) y el no‐equilibrio su objeto de estudio: la vida.
La evolución biológica tal cual la planteara Darwin es un acontecimiento sumamente extraño y
muy poco probable desde la concepción termodinámica mencionada y la aparición de la vida es
altamente improbable. Para los mecanicistas somos un increíble producto del juego de azar
cósmico.
Fue justamente Prigogine el encargado de reconciliar a la biología y a las ciencias humanas ‐ya
que en estas también se verifican los fenómenos de aumento de complejidad, amplificación de
innovaciones, evolución‐ con la termodinámica. Para lograrlo tuvo que desarrollar nuevas y
revolucionarias concepciones.
Toda la termodinámica clásica estaba centrada en el estudio de sistemas aislados en, o muy
cerca del equilibrio; sin embargo Prigogine trabajó con sistemas alejados de él. La
termodinámica del siglo XIX, en cambio, se centró en los procesos cercanos al equilibrio para
describir un universo en permanente degradación, Prigogine desde su Termodinámica No Lineal
de los Procesos Irreversibles (TNLPI) describe cómo, en situaciones lejos del equilibrio, se
forman nuevas estructuras (en adelante llamadas estructuras disipativas), y denominó orden
mediante fluctuaciones a la dinámica de formación de tales estructuras.
En la termodinámica clásica un sistema podía evolucionar hacia un sólo estado final: el
equilibrio, y el proceso era lineal. En la TNLPI éste no es el caso, ya que no podemos determinar
absolutamente la trayectoria evolutiva de un sistema, sino que aparecen distintas opciones, los
caminos se bifurcan y en la vecindad de las bifurcaciones interviene el azar, nuestras leyes no
nos permiten deducir cuál camino tomará un sistema al llegar a una bifurcación. El equilibrio no
es más el único estado final posible, en términos físicos, no es el único atractor. Gracias a la
20
investigaciones de Prigogine y colaboradores se han estudiado otros atractores denominados
caóticos. Sin embargo, lejos de todo lo que uno pueda imaginarse sobre estos atractores
caóticos, estos son fuente de creación, aparición de nuevas estructuras y pautas complejas de
organización.
Estas investigaciones han convergido en lo que hoy se conoce como la Ciencia del Caos, que
estudia la formación de nuevas estructuras en sistemas abiertos lejos del equilibrio, como los
seres humanos, el cerebro, algunos fenómenos atmosféricos o las sociedades humanas.
La TNLPI marca otra derrota histórica de la concepción determinista en la física, la primera la
ejecutó la teoría cuántica con su principio de indeterminación; pero Prigogine fue más allá e
introdujo el concepto de historia en física: ya no hay una sola trayectoria posible, en las
bifurcaciones el azar a elegido un camino y descartado otros, podemos construir la historia
natural del sistema; ya no somos esclavos de un destino inapelable escrito en las leyes
universales con caracteres matemáticos.
Las teorías de Prigogine nos abren las puertas a un Universo abierto que no está absolutamente
determinado, en donde el azar y la necesidad se conjugan para darnos estabilidad pero también
creatividad. Un mundo imprevisible totalmente sería inhabitable para ser vivientes y un mundo
totalmente estable sería insoportable para seres conscientes.
Las leyes de la biología son nuevamente compatibles con las de la física, la evolución biológica es
absolutamente coherente con la perspectiva evolucionista de la TNLPI de Prigogine, los seres
vivos pueden ser considerados estructuras disipativas sujetas a fluctuaciones que pueden
amplificarse hasta implicar una reorganización total en un nivel más complejo (una nueva
especie). El desarrollo humano, tanto individual como social, también puede expresarse en
términos de estructuras disipativas, fluctuaciones y creación de nuevas organizaciones.
En este universo reencantado se abren nuevas posibilidades de encuentro entre las ciencias y
las humanidades, el hombre deja de ser un espectador pasivo de las leyes eternas e inmutables
y del destino que está escrito en ellas. El tiempo y la irreversibilidad no son tan sólo una ilusión,
el caos no implica solo desorden sino también creatividad.
La ciencia posrelativista nos ha abierto nuevas perspectivas. Los fenómenos ya no son
abordados exclusivamente desde perspectivas privilegiadas, la flecha del tiempo no nos impulsa
vertiginosamente hacia un universo degradado, sino por el contrario sabemos que vamos por un
camino de creatividad y complejidad creciente. Esto nos impulsa a desarrollar nuevas categorías
conceptuales para enfrentar el desafío de comprender el Universo lejos del equilibrio con sus
permanentes sorpresas y nuevas posibilidades. La pesadilla de un destino prefijado es hoy parte
de los libros de historia. La Física del siglo XX ha entrado en una nueva etapa.
LA FLECHA DEL TIEMPO
El diablillo de Laplace es una supermente equipada con el conocimiento de las leyes
newtonianas del movimiento. Si somos capaces de suministrarle información sobre la posición
exacta de todas las partículas en un instante dado, el diablillo podrá calcular ‐a partir de esta
información exclusivamente‐ cualquier suceso pasado o futuro del universo. Para el diablillo el
antes y el después son equivalentes, no hay forma de saber cuál es cuál, ya que el aplica siempre
las mismas fórmulas; el tiempo para el es sólo una ilusión.
En nuestra vida cotidiana, sin embargo, la situación es totalmente contraria: distinguimos
claramente lo que ya ha sucedido (nuestra infancia) de lo que no aconteció (nuestra muerte).
Sin embargo, en el marco conceptual de la física clásica esta experiencia no tiene sentido. Las
leyes newtonianas son reversibles, funcionan en ambos sentidos del tiempo. La vida ,en cambio,
es irreversible: del nacimiento a la muerte; al igual que la evolución biológica que procede de la
simplicidad a la complejidad, de la ameba al homo sapiens.
21
Si nuestras experiencias y nuestras teorías biológicas van a contramano de nuestras teorías
físicas, algo anda mal y es necesario algún ajuste. La termodinámica clásica vino a poner las
cosas en su lugar al plantear por primera vez en la física moderna la existencia de una flecha del
tiempo que nos permite establecer con claridad una dirección que apunta desde el pasado hacia
el futuro.
Utilicemos la metáfora del Universo como una película, si proyectamos una secuencia donde la
tierra se mueve alrededor del sol, nunca sabremos si la estamos pasando de atrás para adelante
( o viceversa) a menos que sepamos de antemano si el giro es de este a oeste o a la inversa.
Lo mismo sucedería si pudiéramos filmar una reacción atómica, pues si vemos el choque de una
partícula alfa y un núcleo atómico, en un sentido la proyección indicará la fusión para formar un
átomo más pesado y en el otro mostrará un proceso de desintegración. Esto es así porque todos
los procesos mencionados pueden ser considerados reversibles; nada en ellos indica una
dirección en el tiempo.
En cambio, si pudiéramos filmar el flujo de calor, por ejemplo desde un recipiente a 100 º hacia
otro a 25 º, la situación sería totalmente distinta, ya que en la naturaleza sólo es espontáneo el
paso del calor en un sentido: de lo caliente a lo frío. En el ejemplo de la película, si el flujo de
calor se expresa en cambio de color, sólo habrá una forma correcta de proyectarla. Hemos
encontrado una dirección en el tiempo, sabemos cuál es el pasado y cual el futuro: hemos
descubierto una flecha en el tiempo.
www.pensamientocomplejo.com.ar
Contactos: info@pensamientocomplejo.com.ar
22
dado en llamar “wetware” (sustancia o cosa húmeda), algo –por el momento–
inimitable informáticamente. Si bien este wetware puede considerarse –en esencia–
como un complejo cableado eléctrico, también puede vérselo como un evolucionado
sistema químico. La red neuronal está sometida a la acción química de hormonas
activadoras
3 Hay que aclarar que estos contactos no son continuos, sino intermitentes.
4 Lo social está relacionado con lo lingüístico y lo cultural con lo histórico. De allí la
importancia de la comunicación y de los medios de comunicación.
e inhibidoras, que a su vez son influenciadas por aquella. Sólo que existe una notable
diferencia en los tiempos de actuación: mientras que los impulsos eléctricos tardan
segundos en transmitirse desde un punto a otro, los mensajes químicos demoran horas
en moverse y, en ocasiones, mucho más. Por otra parte, la señal sináptica también es
electroquímica: aunque la señal generada y transportada por una neurona es eléctrica,
pasa a otra mediante sustancias químicas transmisoras (los neurotransmisores) que
cruzan el espacio sináptico. En consecuencia, tal vez convendría pensar al wetware
como un complejo y dinámico sistema electroquímico y no sólo como una “simple” red
de neuronas.
Figura 1: Relación mente‐cerebro‐cuerpo‐entorno
La dinámica del sistema
Este proceso continuo, fluido, dinámico y acumulativo que se verifica en el complejo
cerebro‐mente es nada más –ni nada menos– que el “aprendizaje”. Según el psicólogo
suizo Jean Piaget, se trata de un proceso adaptativo que representa los dos lados de una
misma moneda: la “asimilación” y la “acomodación”. Mientras que la asimilación
consiste en modificar lo que es percibido para que encaje en la estructura cognitiva
existente; la acomodación consiste en modificar la estructura cognitiva existente a fin de
que encaje en lo que es percibido. Asimismo, se trata de un proceso que se desarrolla
mediante incrementos progresivos a lo largo de una sucesión de estadios de creciente
sofisticación. Sin embargo, está condicionado por el grado de maduración cerebral: hay
muchos conocimientos para cuya adquisición se necesita un determinado grado de
organización neurofisiológica. Los seres vivos se valen fundamentalmente de sus
sistemas perceptivos y motores para aprender. Pero la relación no debería considerarse
lineal sino circular: la percepción del medio ambiente externo, por ejemplo, reinterpreta
la realidad por medio de la acción motora. En otras palabras, se produce un proceso
circular y dialéctico, una realimentación de información, a través del entorno próximo.
Asimismo, no debe olvidarse del funcionamiento interno; existe un profundo mundo
psíquico donde se fermentan ideales, sueños, deseos, necesidades y valores [Morin,
1999, p. 6]. La unidad cerebro‐mente es, en definitiva, un sistema auto‐organizado que
está en perpetua elaboración y reelaboración de los datos recibidos y que –con
economía de esfuerzos– debe lograr un constante equilibrio o armonía entre dos
fuerzas a menudo contradictorias y antagónicas: sus pulsiones internas y las presiones
de su entorno.
25
El entorno físico
El sistema cerebro‐mente forma parte del cuerpo y ambos se van integrando
íntimamente
(por medio de circuitos bioquímicos y neuronales): es el proceso de “desarrollo”. Éste y
el anterior se entrelazan intrínsecamente en la corporeidad, ya que el organismo
aprende y se desarrolla al mismo tiempo. Según el neurocientífico portugués Antonio
Damasio, “el cuerpo proporciona una base referencial para la mente” [Damasio, 1996, p.
208], ya que aporta un contenido indispensable de los mecanismos de la mente. Incluso
las categorías de nuestra experiencia y pensamiento parecen estar determinadas por
factores biológicos (junto con los culturales) [Bertalanffy, 1995, p. 261]. Es decir, no son
un a priori universal, sino que dependen de la organización psicofísica del organismo,
desarrolladas a lo largo de millones de años de evolución. Por este motivo, cada especie
biológica tiene una forma particular y única de “acoplarse estructuralmente” con su
medio ambiente local y organizar su “mundo real”. Pero si el cerebro‐mente y el cuerpo
se influencian mutua e intensamente, el conjunto cerebro‐mente‐cuerpo también
interactúa constante y activamente con su entorno (tanto físico como social y cultural)
[Damasio, 1996, p. 93]. Son inseparables e interdependientes; como el sólido y el
espacio, el sonido y el silencio, la figura y el fondo... Es el entorno quien termina de
“esculpir” al encéfalo: cada estímulo y cada experiencia influye en la creación y
destrucción de las sinapsis y los circuitos. De esta forma, y aunque todos los seres
humanos tengan una estructura cerebral similar (producto de la programación
genética), las circunstancias particulares y el contexto de cada persona, hacen que cada
individuo sea único. Así, la cuaterna cerebro‐mente‐cuerpo‐entorno opera en forma
sistémica e integrada: no puede separarse la actividad y el desarrollo del cerebro de la
mente, ni del cuerpo o del contexto.
El entorno social y cultural
Si bien el complejo cerebro‐mente‐cuerpo se vale fundamentalmente de sus sistemas
perceptivos y motores para interaccionar con su entorno físico, para relacionarse con su
entorno social necesita del “lenguaje” y para relacionarse con su entorno cultural
precisa de los “medios de comunicación” … y ambos son interdependientes. De esta
manera, se organiza y modela por su entorno más inmediato: primero los padres; más
tarde los parientes, vecinos, educadores y amigos; y luego por la televisión, los
periódicos, Internet, otras culturas, etc. El lenguaje incumbe –ante todo– a las
relaciones entre las cosas y los conceptos. Cada palabra no sólo transforma el estado de
la red conceptual, sino que contribuye, además, a construir o a remodelar su misma
topología [Lévy, 2000, p. 35]. Su finalidad es permitir la comunicación. Es el medio
principal con el que los sistemas intercambian y comparten información y establecen
una comunión de significados. Con él, un grupo de sistemas equivalentes puede definir y
desarrollar planes u organizar actividades complejas. En efecto, a medida que va
aumentando el número de individuos y se van formando grupos sociales, se acentúa la
necesidad de comunicación entre sus miembros, no sólo a través de grandes distancias,
sino también a lo largo de extensos períodos de tiempo.
Bibliografía
26
• Bertalanffy, L. (1995): Teoría General de los Sistemas. México, Fondo de Cultura
Económica, 10°reimpresión.
• Calvin, W. (2001): Como piensan los cerebros. Madrid, Editorial Debate.
• Capra, F. (1994): Sabiduría Insólita. Conversaciones con personajes notables.
Barcelona, Editorial Cairos, 2° edición.
• Damasio, A. (1996): El error de Descartes. Barcelona, Editorial Crítica.
• Freedman, D. (1995): Los hacedores de cerebros. Santiago, Editorial Andrés Bello.
• García García, E. (2001): Mente y Cerebro. Madrid, Editorial Síntesis.
• Lévy, P. (2000): Las tecnologías de la inteligencia. Buenos Aires, Editorial Edicial.
• Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa.
• Maturana, H. y Varela, F. (2004): De máquinas y seres vivos. Autopoiesis: la
organización de lo vivo. Buenos Aires, Editorial Universitaria y Editorial Lumen, 6°
edición.
• Moravec, H. (1993): El hombre mecánico. Biblioteca Científica Salvat. Barcelona, Salvat
Editores.
• Moriello, S. (2001): Inteligencias Sintéticas. Buenos Aires, Editorial Alsina.
• Morin, E. (2004): Introducción al pensamiento complejo. Barcelona, Editorial Gedisa, 7°
reimpresión.
• Pinker, S. (2001): Cómo funciona la mente. Barcelona, Ediciones Destino.
• Rodríguez Delgado, R. (1997): Del universo al ser humano. Madrid, Editorial McGraw
Hill.
• Taylor, G. (1979): El cerebro y la mente. Barcelona, Editorial Planeta.
• Varela, F., Thompson, E. y Rosch, E. (1997): De cuerpo presente. Barcelona, Editorial
Gedisa, 2° edición.
Contactos: info@pensamientocomplejo.com.ar
27
abiertos”. Por supuesto, existen diferentes grados de permeabilidad; de este modo, un
sistema que interactúa poco con su entorno recibe el nombre de “parcialmente
abierto”. Asimismo, y dentro de la categoría de sistemas abiertos, están aquellos que
son influidos pasivamente por el medio ambiente, llamados “no adaptativos”, y los que
reaccionan y se adaptan al entorno, llamados “adaptativos”.
Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no
su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar
de estar inmerso en un entorno cambiante, mantiene su estado interno, se llama
“homeostático”. En otras palabras, la homeostasis define la tendencia de un sistema a
su supervivencia dinámica. Los sistemas altamente homeostáticos siguen las
transformaciones del contexto a través de ajustes estructurales internos. Un ejemplo
típico de este tipo de sistema lo constituye una compañía. No obstante, vale aclarar, si
el sistema no puede acomodarse al “esfuerzo tensional” (estrés) que padecen por parte
del medio ambiente ‐modificando su estructura o su función‐ puede transformarse o
deteriorarse parcial o totalmente, temporal o permanentemente. La resistencia de un
sistema al estrés depende tanto de su estructura como de su función.
Sistemas complejos
Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento
es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este vocablo
hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por
el momento, no existe una definición precisa y absolutamente aceptada de lo que es un
sistema complejo, pero pueden darse algunas peculiaridades comunes. En primer
término, está compuesto por una gran cantidad de elementos relativamente idénticos.
Por ejemplo, el número de células en un organismo, o la cantidad de personas en una
sociedad. En segundo lugar, la interacción entre sus elementos es local y origina un
comportamiento emergente que no puede explicarse a partir de dichos elementos
tomados aisladamente. Un desierto puede contener billones de granos de arena, pero
sus interacciones son excesivamente simples comparadas con las que se verifican en las
abejas de un enjambre. Por último, es muy difícil predecir su evolución dinámica futura;
o sea, es prácticamente imposible vaticinar lo que ocurrirá más allá de un cierto
horizonte temporal.
En la naturaleza se pueden encontrar una gran cantidad de ejemplos de sistemas
complejos que se extienden desde la física hasta la neurología, desde la economía hasta
la biología molecular, desde la sociología hasta las matemáticas. Por ese motivo, esta
clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la
inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de
su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas,
no importa su naturaleza (física, química, biológica o social); entre ellas, las leyes de
crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos
de sistemas complejos se pueden mencionar ‐entre otros‐ una célula, un cerebro, un
organismo, una computadora, un ecosistema, una sociedad de insectos, un sistema
inmunológico o una economía de mercado.
29
La mayoría de los sistemas complejos son inestables, se mantienen delicadamente
equilibrados. Cualquier variación mínima entre sus elementos componentes puede
modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento
de todo el sistema. Así, la evolución de esta clase de sistemas se caracteriza por la
intermitencia (o fluctuación), aquella situación en la que el orden y el desorden se
alternan constantemente. Sus estados evolutivos no transcurren a través de procesos
continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada
nuevo estado es sólo una transición, un período de “reposo entrópico”, en palabras del
Premio Nobel ruso‐belga Ilya Prigogine.
Estos sistemas nunca llegan a un óptimo global, al estado de mínima energía. En
general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En
ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación
del orden preexistente. Pero después, comienzan a surgir regularidades que organizan
al sistema de acuerdo con nuevas leyes, produciendo otra clase de desarrollo. Este
comportamiento es típico en los sistemas naturales: por ejemplo, el tránsito, en los
insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de
los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad
de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior.
Auto‐organización
El orden y el desorden se necesitan el uno al otro, se producen mutuamente; son
conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un
poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un
organismo puede seguir viviendo a causa de la muerte de sus células; o una
organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el
cambio son etapas inevitables e ineludibles por las cuales debe transitar todo sistema
complejo para crecer y desarrollarse. Cuando esta transformación se consigue sin que
intervengan factores externos al sistema, se hace mención a un proceso de “auto‐
organización”.
La auto‐organización se erige como parte esencial de cualquier sistema complejo. Es la
forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose
al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea
de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de
elementos en otro nivel, los cuales se comportan de una manera muy diferente. Por
ejemplo, entre otros, las moléculas a las macromoléculas, las macromoléculas a las
células y las células a los tejidos. De este modo, el sistema auto‐organizado se va
construyendo como resultado de un orden incremental espacio‐temporal que se crea en
diferentes niveles, por estratos, uno por encima del otro.
Los sistemas autoorganizados se mantienen dentro del estrecho dominio que oscila
entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia
anárquica. Una condición muy especial, con suficiente orden para poder desarrollar
procesos y evitar la extinción pero con una cierta dosis de desorden como para ser
capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce ‐desde
antaño‐ como “transiciones de fase”, o ‐más modernamente‐ como lo llama el doctor en
30
atmósfera, las reacciones químicas, la propagación de enfermedades infecciosas, los
procesos metabólicos de las células, el mercado financiero mundial, los movimientos de
grupos animales (cardúmenes o enjambres), la aparición aperiódica de epidemias, la
arritmia del corazón, la red neuronal del cerebro humano, etc.
El caos parece formar parte de la estructura misma de la materia y está muy ligado a los
fenómenos de auto‐organización, ya que el sistema puede saltar espontánea y
recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un
ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado
y, súbitamente, forma un chorro ordenado. Estos sistemas se caracterizan por su
flexibilidad y adaptación (y, en consecuencia, por su estabilidad), lo cual les permite
enfrentar las condiciones cambiantes e impredecibles del entorno. Operan bajo una
extensa gama de condiciones, ya que parecen estar formados por una compleja
estructura de muchos estados ordenados, aunque normalmente ninguno de ellos se
impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único
comportamiento). Por lo tanto, se puede controlar su evolución con ínfimas
correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se
los perturba adecuadamente, se los puede obligar a que tome uno de los muchos
posibles comportamientos ordenados.
Fractales y naturaleza
La teoría del caos estudia la evolución dinámica de ciertas magnitudes. Al representar
geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los
caracterizan. Existe un comportamiento caótico cuando dichos modelos ‐a lo largo de
extensos períodos de tiempo‐ oscilan de forma irregular, aperiódica; parecen girar
asintóticamente en las inmediaciones de ciertos valores, como si describieran órbitas
alrededor de ellos. Estos valores se conocen con el nombre de “atractores caóticos”,
“atractores extraños” o, simplemente, “atractores” (debido a que parecen atraer las
soluciones hacia ellos) y su particularidad es que presentan propiedades fractales.
Un “fractal” es una estructura geométrica que tiene dos características principales: la
“auto‐semejanza” y la “dimensión fraccionaria”. La auto‐semejanza significa que posee
la misma estructura cualquiera sea la escala en que se la observa; es decir, a través de
sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental
(conserva el mismo aspecto). Por otro lado, la dimensión fraccionaria mide el grado de
irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que
se comparten las propiedades de una recta y de un plano. No obstante, la fractal no
tiene el mismo significado que las dimensiones del tradicional espacio euclidiano:
fractales con dimensiones enteras (1 y 2), no se parecen en nada a una línea o a un
plano, respectivamente.
En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos
sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas,
franjas costeras, cauces de ríos, turbulencias de las aguas, copos de nieve, y una gran
cantidad de otros objetos difíciles de describir por la geometría convencional. Como se
puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa
una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante
32
de tiempo, congelado en una etapa precisa de su desarrollo. Y es justamente este
concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales
con la naturaleza.
Una estructura fractal es aquella que se genera por la repetición incansable de un
proceso bien especificado (o sea, está gobernado por reglas determinísticas). Así, la
naturaleza es capaz de crear eficazmente infinidad de formas ‐con diferentes grados de
complejidad únicamente reiterando innumerablemente el mismo proceso. E ínfimas
modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden
provocar imprevisibles cambios finales. Es por eso que la mayoría de los procesos
caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos
naturales aparentan tener una enorme complejidad, aunque ‐en realidad‐ poseen la
misma regularidad geométrica (concepto de autosemejanza). Sólo así se explica que
existan 6.000 millones de seres humanos diferentes, a pesar de que el proceso de
gestación sea idéntico, y que una mínima diferencia en el código genético de
chimpancés y humanos haya engendrado especies tan distintas. Este proceso también
puede esclarecer, en buena medida, cómo la escasa información contenida en una
célula germinal es capaz de originar seres tan increíblemente complejos.
El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo
(indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da
gracias a la “especialización” y a la “división del trabajo”: progresivamente algunos
elementos se encargan de acciones específicas, al tiempo que se observa una
subordinación a elementos dominantes (llamadas, a veces, “partes conductoras”). De
esta forma, se instala en el sistema un “orden jerárquico” de partes o procesos. Este
principio de diferenciación es muy frecuente tanto en biología como en psicología y,
aun, en sociología. En el desarrollo embrionario, por ejemplo, las células se van
agrupando y subordinando a los llamados “organizadores”. En el cerebro también se
comprueba una superposición de “estratos neuronales” que adoptan el papel de partes
conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse,
un conjunto de personas debe agruparse alrededor de uno o varios líderes.
Redes complejas
Muchos sistemas biológicos, sociales o de comunicación se pueden describir
adecuadamente a través de redes complejas cuyos nodos representan individuos u
organizaciones, y los enlaces simbolizan las interacciones entre ellos. Una clase
importante de redes son aquellas que cumplen con las reglas de un “mundo pequeño”,
cuya topología exhibe dos rasgos esenciales: todo nodo está fuertemente conectado
con muchos de sus vecinos pero débilmente con algunos pocos elementos alejados
(fenómeno conocido como apiñamiento, agrupamiento o “clustering”) y todo nodo
puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe
una pequeña “distancia” entre ellos)(1). Esto implica dos cosas: que la información se
transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño
número de nodos claves por donde circula un gran porcentaje del tráfico total. Son
redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de
difusión de una epidemia, la estructura de una red de transmisión eléctrica, la
33
navegación a través Internet, las proteínas en una célula humana, los patrones
lingüísticos, las redes de colaboración social, las relaciones entre especies de un
ecosistema, etc.
Muchas de estas redes de mundo pequeño son también “redes independientes de la
escala” (scale‐free networks), que se caracterizan por un escaso número de nodos con
muchos enlaces (denominados “concentradores” o “hubs”) y una enorme cantidad de
nodos con muy pocas conexiones (2). Este tipo de estructura explica por qué algunas
redes son generalmente muy estables y robustas (frente a posibles errores aleatorios),
pero muy propensas a ocasionales colapsos catastróficos (por posibles ataques
maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es
capaz de funcionar con normalidad; pero si se quita alguno de los concentradores, el
sistema puede sufrir una hecatombe. Es lo que ocurre, por ejemplo, cuando fallece o
desaparece el líder de un partido político o de un equipo de fútbol. Esta topología
también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué
algo
1 Algunos estudios afirman, por ejemplo, que la distancia entre un par cualesquiera de
páginas web es de 19.
insignificante puede transformarse en un fenómeno de colosales proporciones si
encuentra el camino adecuado.
Ahora bien, ¿cómo surge este tipo de orden? Aparentemente, estas redes siguen el
mismo patrón de auto‐organización de los sistemas complejos: los nuevos nodos
agregados tienden a formar conexiones con aquellos que ya están bien conectados (las
partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos
no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los
nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien
establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De
allí que los hubs también parecen ser los responsables de mantener la cohesión de este
tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en
ellos pueden ocasionar cambios en el funcionamiento de la red. Asimismo, algunos
investigadores especulan ‐es necesario aclarar que los sistemas naturales evolucionan
hacia redes de mundo pequeño, porque tienen una elevada tolerancia a las fallas (la
conexión de cualquier pareja de nodos puede establecerse a través de varios caminos
alternativos), y hacia redes independientes de la escala, porque utiliza más
eficientemente los recursos que las redes aleatorias (resuelve adecuadamente el
conflicto entre las necesidades de bajo costo y alto rendimiento). Aun cuando su
funcionamiento puede ser muy diferente entre una red y otra, el hecho de que
compartan la misma topología permitiría estudiar las más complejas a partir de las más
simples. Así, por ejemplo, si las redes neuronal y genética pertenecieran a la misma
categoría genérica, los científicos podrían aprender mucho más sobre el sistema
nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero
también, quizás, se podrían responder algunas preguntas de difícil respuesta: ¿cuánto
34
depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad
de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable?
Vida artificial
La vida se constituye en el ejemplo más acabado de estructuras muy complejas que
surgen a partir de estructuras mucho más simples. Se trata de una propiedad emergente
resultado de la interacción entre sus elementos y de la dinámica propia del sistema. En
efecto, cualquier forma de vida es ‐en esencia‐ un sistema altamente complejo, con una
estructura físico‐química particular, que exhibe una elevada organización y se sitúa en el
borde del caos. Entre sus características definitorias, se pueden incluir su capacidad
para: la autorreproducción, el almacenamiento de información, el crecimiento, la
adaptabilidad (al entorno), la interdependencia (con otras formas de vida) y la
evolución.
La “Vida Artificial” (en inglés Artificial Life o, abreviadamente, A‐Life) es un campo del
conocimiento muy joven (nació a fines de 1987) que tiene como objetivo el desarrollo
de sistemas artificiales que muestran las características distintivas de los sistemas vivos
naturales. De acuerdo con Christopher Langton ‐“padre” de esta disciplina‐ es “el
estudio
(2) Su nombre proviene del hecho, vale aclarar, de que la proporción entre los hubs y los
otros nodos permanece constante a medida que la red cambia de tamaño; es decir, se
trata de una característica fractal.
natural, donde ‘vida’ se entiende que incluye, más bien que excluye, de la vida a los
seres humanos y sus artefactos”. Investiga algunos procesos que transcurren a
diferentes niveles (molecular, celular, orgánico, social‐evolutivo), y su aspecto más
abarcativo incluye desarrollos meramente teóricos, experimentos biológicos y químicos,
y simulaciones sobre computadoras. La importancia de su estudio radica en que los
sistemas naturales constituyen excelentes fuentes inspiradoras para el desarrollo de la
tecnología. En efecto, el biológico es un modelo muy optimizado que ayuda al ser
humano a solucionar ‐con extraordinaria eficacia‐ muchos problemas complejos no
convencionales que surgen de la interacción con el entorno. De allí que la aplicación de
esta nueva disciplina se perfila como una de las ramas más innovadoras y
revolucionarias de lo que será la computación durante el transcurso del presente siglo.
La Vida Artificial es conceptualmente parecida a la Inteligencia Artificial, aunque –por
supuesto‐ existen una serie de diferencias clave. Mientras la última intenta comprender
y abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y
abstraer la esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre
ellas es bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto
que muchos investigadores predicen que convergerán en el futuro. La inteligencia, en
definitiva, es un producto de la evolución; y dado que la vida biológica y la inteligencia
son mutuamente dependientes, también la Vida Artificial y la Inteligencia Artificial
exhiben una cierta codependencia.
35
La arquitectura básica de estos sistemas consiste en un abrumador número de
“criaturas” relativamente simples, que forman densas redes de interacción y operan
paralela y simultáneamente sin que exista un control central. Los comportamientos
individuales no están programados implícitamente; los científicos sólo se limitan a
darles un conjunto reducido de reglas de interacción que especifican lo que debe hacer
cada una de ellas de acuerdo con la situación en que se encuentre. Nadie es capaz de
saber con precisión qué actitud tomará cualquiera de ellas en un momento dado. Y,
debido a que se verifica un fenómeno de emergencia de alto nivel (es decir, inteligente)
a partir de interacciones de bajo nivel (o sea, entre entidades no inteligentes), el
conjunto puede resolver problemas que cada uno de sus individuos componentes es
incapaz de realizar.
Inteligencia de enjambre
El comportamiento complejo, que un observador podría considerar intencional, puede
ser ‐de hecho‐ el resultado de las numerosas interconexiones que se establecen entre
una enorme cantidad de entidades individuales. Por ejemplo, considerada aisladamente
una hormiga es una criatura sumamente tonta, estúpida, capaz únicamente de ejecutar
‐aunque de forma fiel y obstinada‐ un pequeño conjunto de rutinas innatas, pero
condicionada por el entorno circundante. No obstante, tomadas en grupo, son capaces
de erigir sociedades complejas con sofisticadas actividades como agricultura, ganadería,
arquitectura, ingeniería e, incluso, prácticas de esclavitud. De esta forma, podría
considerarse al hormiguero como un macroorganismo, que presenta un
comportamiento global inteligente. Es decir, nadie planifica, nadie ordena ni controla,
pero surge un comportamiento colectivo ‐quizás instintivo‐ o una necesidad que las
“obliga” a trabajar juntas persiguiendo un fin común.
Utilizando como ejemplo la conducta social de los insectos, modernamente los
investigadores en ciencias de la computación desarrollaron algoritmos muy útiles para
resolver algunos problemas prácticos muy complicados; un enfoque conocido como
“inteligencia de enjambre”. En este caso, las hormigas artificiales son agentes de
software que se simulan en una computadora. Una aplicación interesante de esta
técnica es la de encontrar el camino más corto para establecer las rutas en Internet; en
otras palabras, cómo encaminar eficientemente los mensajes entre los nodos de la red
(los routers). Vale la pena aclarar que resolver este problema se torna actualmente muy
importante, ya que cuanto mayor es el “tráfico” de los paquetes de datos, mayor es el
costo de la conexión a Internet (ya que se incrementa el tiempo para pasar de un nodo a
otro).
El algoritmo de búsqueda funciona de la siguiente manera. Cada hormiga virtual ‐de un
conjunto enormemente grande de ellas‐ sale en busca de “alimento” alrededor de su
“hormiguero” (el punto de partida), de una forma más o menos al azar. Entonces, cada
insecto “marca” el camino realizado con una “feromona” (la cual guarda una cierta
relación con la “longitud” o distancia recorrida) que otras pueden seguir. Dado que la
feromona se “evapora” con el tiempo, las “buenas” rutas (las más cortas) se hacen más
atractivas que las “malas” para el resto de las hormigas, con lo cual se intensifica cada
vez más el rastro de feromonas en esa ruta. Al final del proceso, lo habitual es que se
36
seleccione el rastro más fuerte, que justamente es la ruta más corta entre el punto de
partida y el punto de llegada. Lo interesante de esta técnica es que las hormigas pueden
adaptarse al entorno: dado que éste es dinámico, es posible que surjan determinadas
complicaciones, como el bloqueo o la congestión en las rutas. Debido a que la
concentración de feromonas se mantiene durante un cierto tiempo y a que exploran sin
cesar nuevos trayectos, las hormigas establecen instintivamente rutas alternativas, con
lo cual siempre están preparadas para responder a los cambios del entorno.
Otros usos de esta técnica son en el análisis de datos financieros, en la resolución de
problemas de producción industrial y en la búsqueda de páginas interesantes por la
web. Sin duda, a medida que transcurra el tiempo, seguirán apareciendo más
aplicaciones prácticas de la inteligencia de enjambre. Si la computación ubicua forzará a
que todos los objetos tengan incrustado un chip (desde las alhajas hasta los muebles,
pasando por los artículos de librería y los electrodomésticos), será necesario desarrollar
algoritmos de control que permitan la comunicación eficaz y eficiente de todos estos
desperdigados pedazos microscópicos de silicio.
Amenazas
¿Puede el ser humano crear nuevas formas de vida? ¿Es imprescindible que sean de tipo
orgánico para considerarlas como tales? Más específicamente, ¿puede considerarse
como un ser vivo algo virtual, algo que carece de una existencia física? ¿Puede estar viva
una entidad o un grupo de entidades que únicamente existe como una simulación
computacional? Es decir, si algo ejecuta complicados movimientos como un insecto y se
comporta como tal, pero no tiene un cuerpo físico material, tangible, sino que adopta la
forma abstracta de microcódigos de programación en el interior de una
supercomputadora... ¿es un insecto? Y en el supuesto caso de que no lo sea, entonces
¿qué es? En otras palabras, ¿cómo exactamente debe comportarse algo ‐en este caso,
una entidad‐ para que alguien ‐en este caso, una persona‐ pueda afirmar que está vivo?
Asimismo, y por carecer de una definición unánimemente aceptada del concepto de
vida, aparecen interrogantes paradójicos. Por ejemplo: ¿están “vivos” los virus? Algunos
de ellos pueden permanecer latentes por mucho tiempo al cristalizar en una célula
orgánica muerta y volver a la actividad cuando consiguen otra oportunidad para
infectar. De igual forma, se podría preguntar si se encuentra vivo un embrión congelado.
En estos casos, la línea que divide lo viviente de lo inerte (tan evidente hace sólo unas
décadas), aparece ahora tan difusa que –a veces‐ es extremadamente difícil distinguir lo
vivo de lo muerto.
Si bien este tipo de “vida virtual” (erigida a través de programas de computadora) quizás
sea difícil de aceptar, ¿qué ocurre con la “vida seca”, aquella formada por autómatas
físicamente tangibles? Este concepto, ¿no se acerca más a la “vida húmeda”, es decir, la
compuesta por organismos biológicos? ¿Y qué pasará cuando la sinergia entre la
ingeniería genética y la nanotecnología sea capaz de producir/engendrar nuevas y
originales entidades? Miles de millones de años de evolución natural produjeron un
mundo donde la supervivencia y el bienestar de cada organismo está ligado ‐muchas
veces fuertemente‐ al de innumerables especies. Todo está tan interrelacionado y
delicadamente equilibrado que la muerte (o el nacimiento) de una especie puede causar
37
devastadores efectos sobre algunas otras (a veces, muchas). Sin dudas, el dejar
evolucionar libremente a estas “nuevas especies” dispare fantasías de descontrol, ya
que podrían evolucionar ‐siguiendo reglas lamarckianas‐ mucho más rápido que los
humanos, y quizás los condicionen como nunca antes…
www.pensamientocomplejo.com.ar
38
humanos, a partir de la boca, podamos expresar un mensaje de amor. Nada parece más
simple, más evidente. Y sin embargo, para besar, hace falta una boca, emergencia de la
evolución del hocico. En necesario que haya habido la relación propia en los mamíferos
en la que el niño mama de la madre y la madre lame al niño. Es necesario, pues, toda la
evolución complejizante que transforma al mamífero en primate, luego en humano, y,
anteriormente, toda la evolución que va del unicelular al mamífero. El beso, además,
supone una mitología subyacente que identifica el alma con el soplo que sale por la
boca: depende de condiciones culturales que favorecen su expresión. Así, hace
cincuenta años, el beso en el Japón era inconcebible, incongruente.
Dicho de otro modo, esa cosa tan simple surge de una hinterland de una
complejidad asombrosa. Hemos creído que el conocimiento tenía un punto de partida y
un término; hoy pienso que el conocimiento es una aventura en espiral que tiene un
punto de partida histórico, pero no tiene término, que debe sin cesar realizar círculos
concéntricos; es decir, que el descubrimiento de un principio simple no es el término;
reenvía de nuevo al principio simple que ha esclarecido en parte. Así, piénsese en el
caso del código genético que, una vez descubierto, nos reenvía a la pregunta: ¿por qué
existe esa diversidad extraordinaria de formas en los animales y los vegetales? Cito una
frase de Dobzhansky, el biólogo, que dice: "Desgraciadamente la naturaleza no ha sido
lo bastante gentil como para hacer las cosas tan simples como nosotros quisiéramos que
fuesen. Debemos afrontar la complejidad." Un físico, que es al mismo tiempo un
pensador, David Bohm, y que ataca ya el dogma de la elementalidad ‐sobre el que
retornaré‐, dice: "Las leyes físicas primarias jamás serán descubiertas por una ciencia
que intenta fragmentar el mundo en sus constituyentes."
Aunque Bachelard dijese que, de hecho, la ciencia contemporánea buscaba ‐
porque el pensaba en la física‐ la complejidad, es evidente que los científicos
desconocían que eso era lo que les concernía. Frecuentemente tienen una doble
consciencia; creen siempre obedecer a la misma vieja lógica que han recibido en la
escuela; pero, de hecho, sin que lo sepan, en su espíritu trabaja otra lógica y otros
principios de conocimiento.
Pero a la complejidad le ha costado emerger. Le ha costado emerger, ante todo,
porque no ha sido el centro de grandes debates y de grandes reflexiones, como por
ejemplo ha sido el caso de la racionalidad con los debates entre Lakatos y Feyerabend o
Popper y Kuhn. La cientificidad, la falsabilidad son grandes debates de los que se habla;
pero la complejidad nunca ha sido debatida. La bibliografía sobre la complejidad es, al
menos por lo que yo conozco, muy limitada. Para mí, la contribución importante es el
artículo de Weaver, colaborador de Shannon, como ustedes saben, en la teoría de la
información, quien, en 1948, escribió el artículo "Science and complexity" en el Scientific
American, artículo que es un resumen de un estudio más extenso. Es von Neumann
quien, en la teoría "On self reproducing automata" aborda con una visión muy profunda
esa cuestión de la complejidad de las máquinas, de los autómatas naturales en
comparación con los autómatas artificiales. Se refirió a ella Bachelard en Le nouvel esprit
scientifique; von Foerster en diversos escritos, particularmente en su texto, ahora bien
conocido, "On self organizing systems and their environment". Está H. A. Simon:
40
"Architecture of complexity", que fue primero un artículo autónomo y que fue luego
compilado en su libro. Podemos encontrar la complejidad, en Francia, en las obras de
Henri Atlan: Entre le cristal et la fumée, y estaba Hayek quien escribió un artículo
titulado "The theory of complex phenomena" en Studies in philosophy, politics and
economics, que es bastante interesante.
Desde luego, se ha tratado mucho de la complejidad en el dominio teórico, físico,
en el dominio sistémico; pero con frecuencia, en mi opinión, se ha tratado sobre todo
de lo que Weaver llama la complejidad desorganizada que hizo irrupción en el
conocimiento con el segundo principio de la termodinámica, el descubrimiento de ese
desorden microscópico, microcorpuscular, en el universo. Pero la complejidad
organizada es, con frecuencia, reconducida a la complicación. ¿Qué es la complicación?
Cuando hay un número increíble de interacciones, por ejemplo entre moléculas en una
célula o neuronas en un cerebro, ese número increíble de interacciones y de
interretroacciones sobrepasa evidentemente toda capacidad de computación ‐no
solamente para un espíritu humano, sino incluso para un ordenador muy perfeccionado‐
y entonces efectivamente es mejor atenerse al input y al output. Dicho de otro modo, es
muy complicado; la complicación es el enredamiento de interretroacciones.
Ciertamente, es un aspecto de la complejidad, pero creo que la importancia de la noción
está en otra parte. La complejidad es mucho más una noción lógica que una noción
cuantitativa. Posee desde luego muchos soportes y caracteres cuantitativos que
desafían efectivamente los modos de cálculo; pero es una noción de otro tipo. Es una
noción a explorar, a definir. La complejidad nos aparece, ante todo, efectivamente como
irracionalidad, como incertidumbre, como angustia, como desorden.
Dicho de otro modo, la complejidad parece primero desafiar nuestro
conocimiento y, de algún modo, producirle una regresión. Cada vez que hay una
irrupción de complejidad precisamente bajo la forma de incertidumbre, de aleatoriedad,
se produce una resistencia muy fuerte. Hubo una resistencia muy fuerte contra la física
cuántica, porque los físicos clásicos decían: "es el retorno a la barbarie, no es posible
situarse en la indeterminación cuando desde hace dos siglos todas las victorias de la
ciencia han sido las del determinismo". Ha sido necesario el éxito operacional de la física
cuántica para que, finalmente, se comprenda que la nueva indeterminación constituía
también un progreso en el conocimiento de la misma determinación.
La idea de la complejidad es una aventura. Diría incluso que no podemos intentar
entrar en la problemática de la complejidad si no entramos en la de la simplicidad,
porque la simplicidad no es tan simple como esto. En mi texto "Los mandamientos de la
complejidad" publicado enScience avec conscience, intenté extraer trece principios del
paradigma de simplificación, es decir principios de intelección mediante simplificación,
para poder extraer de modo correspondiente, complementario y antagonista a la vez ‐
he aquí una idea típicamente compleja‐ principios de intelección compleja. Voy
simplemente a retomarlos y hacer algunos comentarios. Esa será la primera parte de mi
exposición; la segunda parte estará consagrada un poco más precisamente al problema
del conocimiento del conocimiento o a la epistemología compleja que está relacionada
con todo eso.
41
Mandamientos del paradigma de simplificación
1. Podemos decir que el principio de la ciencia clásica es: legislar. Corresponde al
principio del derecho, quizás. Es una legislación, pero no es anónima, que se encuentra
en el universo, es la ley. Y ese principio es un principio universal que fue formulado por
el lugar común: "Sólo hay ciencia de lo general", y que comporta la expulsión de lo local
y de lo singular. Ahora bien, lo que es interesante es que, en el universo incluso, en lo
universal, ha intervenido la localidad. Quiero decir que hoy parece que nuestro universo
es un fenómeno singular, que comporta determinaciones singulares y que las grandes
leyes que lo rigen, que podemos llamar leyes de interacción (como las interacciones
gravitacionales, las interacciones electromagnéticas, las interacciones fuertes, en el
seno de los núcleos atómicos), esas leyes de interacción no son leyes en sí, sino leyes
que sólo se manifiestan, sólo se actualizan a partir del momento en que hay elementos
en interacción; si no hubiese partículas materiales, no habría gravitación, la gravitación
no existe en sí. Esas leyes no tienen un carácter de abstracción y están ligadas a las
determinaciones singulares de nuestro universo; hubiese podido haber otros universos
posibles ‐quizás los haya‐ y que tuviesen otros caracteres singulares. La singularidad está
a partir de ahora profundamente inscrita en el universo; y aunque el principio de
universalidad reside en el universo, vale para un universo singular donde aparecen
fenómenos singulares y el problema es combinar el reconocimiento de lo singular y de
lo local con la explicación universal. Lo local y singular deben cesar de ser rechazados o
expulsados como residuos a eliminar.
2. El segundo principio era la desconsideración del tiempo como proceso
irreversible; las primeras leyes físicas pudieron muy bien ser concebidas en un tiempo
reversible. Y, de alguna manera, la explicación estaba depurada de toda evolución, de
toda historicidad. Y también aquí hay un problema muy importante: el del
evolucionismo generalizado. Hoy el mundo, es decir el cosmos en su conjunto y la
materia física en su constitución (particular, nuclear, atómica, molecular), tiene una
historia. Ya Ullmo, en esa epistemología piagetiana a la que François Meyer colaboró,
decía muy firmemente: "La materia tiene una historia"; hoy todo lo que es material es
pensado, concebido a través de su génesis, su historia. El átomo es visto históricamente.
El átomo de carbono es visto a través de su formación en el interior de un sol, de un
astro. Todo es profundamente historizado. La vida, la célula, François Jacob lo subraya
con frecuencia, una célula es también un corte en el tiempo.
Dicho de otro modo, contrariamente a esa visión que ha reinado durante un
tiempo en las ciencias humanas y sociales, según la cual se creía poder establecer una
estructura por eliminación de toda dimensión temporal y considerarla en sí fuera de la
historia, hoy de todas las otras ciencias llega la llamada profunda para ligar lo
estructural u organizacional (prefiero decir esto último y diré por qué) con lo histórico y
evolutivo. Y lo que es importante efectivamente, es que el problema del tiempo se ha
planteado de manera totalmente paradójica en el siglo último.
En efecto, en el momento mismo en que se desarrollaba el evolucionismo
ascensional bajo su forma darviniana, es decir una idea de evolución complejizante y
42
diversificante a partir de una primera protocélula viviente, en el momento en que la
historia humana era vista como un proceso de desarrollo y de progreso, en ese mismo
momento, el segundo principio de la termodinámica inscribía, él mismo, una especie de
corrupción ineluctable, de degradación de la energía que podía ser traducida bajo la
óptica boltzmaniana como un crecimiento del desorden y de la desorganización.
Estamos confrontados a una doble temporalidad; no es una flecha del tiempo lo que ha
aparecido, son dos flechas del tiempo, y dos flechas que van en sentido contrario. Y sin
embargo, es el mismo tiempo; y sin embargo es la misma aventura cósmica:
ciertamente, el segundo principio de la termodinámica inscribe un principio de
corrupción, de dispersión en el universo físico; pero al mismo tiempo, este universo
físico, en un movimiento de dispersión, se ha constituido y continúa constituyéndose.
Se constituye de galaxias, de astros, de soles, dicho de otro modo, se desarrolla
mediante la organización al mismo tiempo que se produce mediante la desorganización.
El mundo biológico es un mundo que evoluciona; es la vida; pero la vida, al mismo
tiempo, se hace a través de la muerte de individuos y a través de la muerte de especies.
Se ha querido yuxtaponer esos dos principios; es lo que Bergson hizo; Bergson, uno de
los raros pensadores que ha mirado de frente el segundo principio; pero, según él, ese
principio era la prueba de que la materia biológica era diferente de la materia física,
puesto que la materia física tiene algo de corrupto en ella, mientras que la sustancia
biológica no padece el efecto del segundo principio. Desgraciadamente para él, se
descubrió a partir de los años 50 que la originalidad de la vida no está en su materia
constitutiva, sino en su complejidad organizacional.
Estamos, pues, confrontados a ese doble tiempo que no solamente tiene dos
flechas, sino que además puede ser a la vez irreversible y reiterativo. Ha sido,
evidentemente, la emergencia del pensamiento cibernético la que lo ha mostrado. No
era solamente el hecho de que, a partir de un flujo irreversible, puede crearse un estado
estacionario, por ejemplo el del torbellino; en el encuentro de un flujo irreversible y de
un obstáculo fijo, como el arco de un puente, se crea una especie de sistema
estacionario que es al mismo tiempo móvil, puesto que cada molécula de agua que
torbellinea es arrastrada de nuevo por el flujo, pero que manifiesta una estabilidad
organizacional. Todo esto se reencuentra en todas las organizaciones vivientes:
irreversibilidad de un flujo energético y posibilidad de organización por regulación y
sobre todo por recursión, es decir, autoproducción de sí. Luego tenemos el problema de
una temporalidad extremamente rica, extremamente múltiple y que es compleja. Nos
hace falta ligar la idea de reversibilidad y de irreversibilidad, la idea de organización de
complejización creciente y la idea de desorganización creciente. ¡He aquí el problema al
que está confrontada la complejidad! Mientras que el pensamiento simplificante
elimina el tiempo, o bien no concibe más que un solo tiempo (el del progreso o el de la
corrupción), el pensamiento complejo afronta no solamente el tiempo, sino el problema
de la politemporalidad en la que aparecen ligadas repetición, progreso, decadencia.
3. El tercer principio de simplificación es el de la reducción o también de la
elementalidad. El conocimiento de los sistemas puede ser reducido al de sus partes
simples o unidades elementales que los constituyen. Sobre esto, seré muy breve.
43
Resumo. Es en el dominio físico donde ese principio parecía haber triunfado de
modo incontestable, dominio que, evidentemente, se encuentra más afectado por ese
principio. He hecho alusión al problema de la partícula que es aporética (onda y
corpúsculo), y por tanto la sustancia es fluctuante; nos dimos cuenta de que en lo que se
creía ser el elemento puro y simple, a partir de ahora existía la contradicción, la
incertidumbre, lo compuesto ‐aludo a la teoría de los quarks‐ y quizás lo inseparable ‐
aludo a la teoría del Bootstrap‐. Hay límites a la elementalidad; pero esos límites no son
solamente intrínsecos; tienen también que ver con el hecho de que, una vez que hemos
inscrito todo en el tiempo, la elementalidad aparece también como eventualidad, es
decir que el elemento constitutivo de un sistema puede también ser visto como evento.
Por ejemplo, existe una visión estática que consiste en considerarnos nosotros mismos
en tanto que organismos; estamos constituidos por 30 o 50 mil millones de células. En
modo alguno, y creo lo que Atlan justamente precisó; no estamos constituidos por
células; estamos constituidos por interacciones entre esas células.
No son ladrillos unas al lado de las otras; están en interacción. Y esas
interacciones, son acontecimientos, ellos mismos ligados por acontecimientos
repetitivos que son martilleados por el movimiento de nuestro corazón, movimiento a la
vez regular e inscrito en un flujo irreversible. Todo elemento puede ser leído también
como evento. Y está sobre todo el problema de la sistematicidad; hay niveles de
emergencia; los elementos asociados forman parte de conjuntos organizados; al nivel de
la organización del conjunto, emergen cualidades que no existen en el nivel de las
partes.
Cierto, hemos descubierto que finalmente todo eso pasa en nuestro ser, no
solamente en nuestro organismo, sino incluso en el pensamiento, en nuestras ideas, en
nuestras decisiones, que pueden reducirse a torbellinos de electrones. Pero es evidente
que no se puede explicar la conquista de la Galia por Julio César sólo por los
movimientos de torbellinos electrónicos de su cerebro, de su cuerpo y de los de los
legionarios romanos. Incluso si un demonio consiguiese determinar esas interacciones
físicas, nada comprendería de la conquista de la Galia que sólo puede comprenderse al
nivel de la historia romana y de las tribus galas. Del mismo modo, diría que en términos
de cambios bioquímicos, los amores de César y de Cleopatra son totalmente
ininteligibles. Así pues, es cierto que no reduciremos los fenómenos antroposociales a
los fenómenos biológicos, ni éstos a las interacciones físico‐químicas.
4. El cuarto principio simplificador es el del Orden‐Rey. El Universo obedece
estrictamente a leyes deterministas, y todo lo que parece desorden (es decir, aleatorio,
agitador, dispersivo) sólo es una apariencia debida únicamente a la insuficiencia de
nuestro conocimiento.
Las nociones de orden y ley son necesarias, pero insuficientes. Sobre esto, Hayek,
por ejemplo, muestra bien que cuanta más complejidad hay, menos útil es la idea de
ley. Hayek piensa, obviamente, en la complejidad socioeconómica; es su tipo de
preocupación; pero él se da cuenta de que es muy difícil, porque son complejos,
predecir los fenómenos sociales. Es evidente que las "Leyes" de la Sociedad o las "Leyes"
44
de la Historia son tan generales, tan triviales, tan planas, que carecen de interés. Hayek
dice: "Por lo tanto, la búsqueda de leyes no es marca del proceder científico, sino
solamente un carácter propio de las teorías sobre fenómenos simples". Vincula muy
fuertemente la idea de leyes con la idea de simplicidad. Pienso que si esta visión es
bastante justa en lo que concierne a los fenómenos sociales, no lo es menos que, en el
mundo físico o biológico, el conocimiento debe a la vez detectar el orden (las leyes y
determinaciones) y el desorden, y reconocer las relaciones entre orden y desorden. Lo
que es interesante, es que el orden y el desorden tienen una relación de
complementariedad y complejidad. Tomemos el ejemplo, que frecuentemente cito, de
un fenómeno que presenta, bajo una perspectiva, un carácter aleatorio sorprendente, y,
bajo otra perspectiva, un carácter de necesidad; ese fenómeno es la constitución del
átomo de carbono en las calderas solares. Para que ese átomo se constituya, es
necesario que se produzca el encuentro, exactamente en el mismo momento, de tres
núcleos de helio, lo que es un acontecimiento completamente aleatorio e improbable.
Sin embargo, desde que ese encuentro se produce, una ley entra en acción; una regla,
una determinación muy estricta interviene; el átomo de carbono se crea. Así pues, el
fenómeno tiene un aspecto aleatorio y un aspecto de determinación. Además, el
número de interacciones entre núcleos de helio es enorme en el seno del sol; y además
ha habido muchas generaciones de soles en nuestro sistema solar; finalmente con el
tiempo, se crea una cantidad considerable de átomos de carbono, se crea en todo caso
una amplia reserva necesaria para la creación y el desarrollo de la vida. Vemos como un
fenómeno que parece ser extremamente improbable, por su carácter aleatorio,
finalmente, es cuantitativamente bastante importante y puede entrar en una categoría
estadística. Todo lo cual depende, pues, de la perspectiva desde la cual se mire y diría
sobre todo que es interesante ‐es necesario‐ reunir todas esas perspectivas. Es en este
sentido que propongo un tetragrama, que en modo alguno es un principio de
explicación, sino que es mucho más un recordatorio indispensable; es el tetragrama
orden‐desorden‐interacciones‐organización.
Esto debo también precisarlo bien; cuando se dice tetragrama, se piensa en un
tetragrama muy famoso, aquel que en el Monte Sinaí, el Eterno proporcionó a Moisés
para revelarle su nombre, nombre sagrado e impronunciable: JHVH. Aquí el tetragrama
del que hablo no es la Fórmula suprema: expresa la idea de que toda explicación, toda
intelección jamás podrán encontrar un principio último; éste no será el orden, ni una
ley, ni una fórmula maestra E= MC2, ni el desorden puro. Desde que consideramos un
fenómeno organizado, desde el átomo hasta los seres humanos pasando por los astros,
es necesario hacer intervenir de modo específico principios de orden, principios de
desorden y principios de organización. Los principios de orden pueden incluso crecer al
mismo tiempo que los de desorden, al mismo tiempo que se desarrolla la organización.
Por ejemplo, Lwoff escribió un libro titulado L'ordre biologique, es un libro muy
interesante porque, en efecto, hay principios de orden que son válidos para todos los
seres vivientes, para todo organización viviente. Sólo que esos principios de orden
válidos para toda organización viviente pueden existir si las organizaciones vivientes son
vivientes; así pues, no existían antes de la existencia de la vida, sino en estado virtual, y
45
cuando la vida se extinga cesarán de existir. He aquí un orden que tiene necesidad de
autoproducirse mediante la organización y ese orden es bastante particular puesto que
tolera una parte importante de desorden, incluso hasta colabora con el desorden como
von Neumann lo vio acertadamente en su teoría de los autómatas. Así pues, hay, al
mismo tiempo que crece la complejidad, crecimiento del desorden, crecimiento del
orden, crecimiento de la organización (y perdonen que use esa palabra cuantitativa de
"crecimiento"). Es cierto que la relación orden‐desorden‐organización no es solamente
antagónica, es también complementaria y es en esa dialéctica de complementariedad y
de antagonismo donde se encuentra la complejidad.
5. La antigua visión, la visión simplificante, es una visión en la que evidentemente
la causalidad es simple; es exterior a los objetos; les es superior; es lineal. Ahora bien,
hay una causalidad nueva, que introdujo primeramente la retroacción cibernética, o
feedback negativo, en la cual el efecto hace bucle con la causa y podemos decir que el
efecto retroactúa sobre la causa. Este tipo de complejidad se manifiesta en el ejemplo
de un sistema de calefacción de una habitación provisto de un termostato, donde
efectivamente el mismo termostato inicia o detiene el funcionamiento de la máquina
térmica. Lo que es interesante, es que no es solamente ese tipo de causalidad en bucle
el que se crea; es también una endo‐exo‐causalidad, puesto que es efectivamente
también el frío o el calor exterior lo que va a desencadenar la detención o la activación
del dispositivo de calefacción central; pero en este caso, la causa exterior desencadena
un efecto interior inverso de su efecto natural: el frío exterior provoca el calor interior.
Porque hace frío fuera, la habitación está caliente. Desde luego, todo esto puede ser
explicado de manera muy simple cuando se consideran los segmentos constitutivos del
fenómeno del bucle retroactivo; pero el bucle que liga esos segmentos, el modo de ligar
esos segmentos deviene complejo. Hace aparecer la endo‐exo‐causalidad. La visión
simplificante, tan pronto como se trata de máquinas vivientes, busca primeramente la
exo‐causalidad simple; ésta ha sido la obsesión conductista, por ejemplo. Se piensa que
el estímulo que provocó una respuesta (como la saliva del perro) produjo casi esa
respuesta. Después, nos dimos cuenta de que lo interesante era saber también lo que
pasaba en el interior del perro y reconocer cuál era la naturaleza organizadora de la
endo‐causalidad que estimuló al perro a alimentarse. Todo lo que es viviente, y a fortiori
todo lo que es humano, debe comprenderse a partir de un juego complejo o dialógico
de endo‐exo‐causalidad. Así, es necesario superar, incluido en el desarrollo histórico, la
alternativa estéril entre endo‐causalidad y exo‐causalidad. En lo que concierne a la
extinta URSS, por ejemplo, dos visiones simplificantes se enfrentan: la primera concibe
el estalinismo según una causalidad puramente endógena que va de Marx a Lenin y de
éste a Stalin como una especie de desarrollo cuasi deductivo a partir de un cuasi‐gen
doctrinal; al contrario, otros lo ven como un fenómeno accidental, es decir, ven en el
estalinismo el efecto de las determinaciones del pasado zarista, de la guerra civil, del
cerco capitalista, etc. Resulta evidente que ni una ni la otra de esas visiones son
suficientes; lo interesante es ver la espiral, el bucle de fortalecimiento de causas
endógenas y de causas exógenas que hace que en un momento el fenómeno se
desarrolle en una dirección más que en otra, dando por presupuesto que existen desde
46
el comienzo virtualidades de desarrollo múltiples. Tenemos, pues, sobre el tema de la
causalidad una revisión muy importante por hacer.
6. Sobre la problemática de la organización, no quiero insistir. Diré que en el
origen está el principio de emergencia, es decir que cualidades y propiedades que nacen
de la organización de un conjunto retroactúan sobre ese conjunto; hay algo de no
deductivo en la aparición de cualidades o propiedades de todo fenómeno organizado.
En cuanto al conocimiento de un conjunto, es necesario pensar en la frase de Pascal que
suelo citar: "Tengo por imposible concebir las partes al margen del conocimiento del
todo, tanto como conocer el todo sin conocer particularmente las partes".
Esto remite la cuestión del conocimiento a un movimiento circular ininterrumpido.
El conocimiento no se interrumpe. Conocemos las partes, lo que nos permite conocer
mejor el todo, pero el todo vuelve a permitir conocer mejor las partes. En este tipo de
conocimiento, el conocimiento tiene un punto de partida cuando se pone en
movimiento, pero no tiene término. Tenemos que vérnoslas en la naturaleza, no
solamente biológica sino física, con fenómenos de auto‐organización que plantean
problemas enormes. No insisto sobre ello. Los trabajos de Pinson, que conocemos y que
encuentro muy notables, dan nacimiento, desde el punto de vista organizacional, a una
concepción que podemos llamar hologramática. Lo interesante es que tenemos de ello
un ejemplo físico que es el holograma producido por el láser; en el holograma, cada
parte contiene la información del todo. No la contiene, por lo demás, totalmente; pero
la contiene en gran parte, lo que hace que efectivamente podamos romper la imagen
del holograma, reconstituyéndose otros micro‐todos fragmentarios y atenuados. Thom
dijo: "La vieja imagen del hombre‐microcosmos, reflejo del macrocosmos, mantiene
todo su valor; quien conozca al hombre conocerá el universo".
Sin ir tan lejos, es notable constatar que, en la organización biológica de los seres
multicelulares, cada célula contiene la información del todo. Contiene potencialmente el
todo. Y en este sentido es un modo hologramático de organización. En el lenguaje, el
discurso toma sentido en relación a la palabra, pero la palabra sólo fija su sentido en
relación a los discursos en los que se encuentra encadenada. Aquí también hay una
ruptura con toda visión simplificante en la relación parte‐todo; nos hace falta ver cómo
el todo está presente en las partes y las partes presentes en el todo. Por ejemplo, en las
sociedades arcaicas, en las pequeñas sociedades de cazadores‐recolectores, en las
sociedades que llamábamos "primitivas", la cultura estaba engramada en cada
individuo. Había en ellas algunos que poseían la totalidad de la cultura, esos eran los
sabios, eran los ancianos; pero los otros miembros de la sociedad tenían en su espíritu el
conocimiento de saberes, normas, reglas fundamentales.
Hoy, en las sociedades‐naciones, el Estado conserva en él las Normas y Leyes, y la
Universidad contiene el Saber colectivo. No obstante, pasamos, tras numerosos años en
la familia primero, y luego sobre todo en la escuela, a engramar la cultura del todo; así
cada individuo porta prácticamente, de un modo vago, inacabado, toda la sociedad en
él, toda su sociedad.
47
Los problemas de organización social sólo pueden comprenderse a partir de este
nivel complejo de la relación parte‐todo. Aquí interviene la idea de recursión
organizacional que, a mi parecer, es absolutamente crucial para concebir la complejidad
de la relación entre partes y todo. Las interacciones entre individualidades autónomas,
como en las sociedades animales o incluso en las células, puesto que las células tienen
cada una su autonomía, producen un todo, el cual retroactúa sobre las partes para
producirlas. Dicho de otro modo, las interacciones entre individuos hacen la sociedad;
de hecho, la sociedad no tendría ni un gramo de existencia sin los individuos vivientes; si
una bomba muy limpia, como la bomba de neutrones, aniquilase toda Francia,
permanecerían todos los monumentos: el Elíseo, la Cámara de los Diputados, el Palacio
de Justicia, los Archivos, la Educación Nacional, etc.; pero no habría ya sociedad, porque,
evidentemente, los individuos producen la sociedad. No obstante, la sociedad misma
produce los individuos o, al menos, consuma su humanidad suministrándoles la
educación, la cultura, el lenguaje. Sin la cultura, seríamos rebajados al más bajo rango
de los primates.
Dicho de otro modo, son las interacciones entre individuos las que producen la
sociedad; pero es la sociedad la que produce al individuo. He aquí un proceso de
recursividad organizacional; lo recursivo se refiere a procesos en los cuales los
productos y los efectos son necesarios para su propia producción. El producto es al
mismo tiempo el productor; lo que supone una ruptura total con nuestra lógica de las
máquinas artificiales en la que las máquinas producen productos que les son exteriores.
Ver nuestra sociedad a imagen de esas máquinas, es olvidar que esas máquinas
artificiales están en el interior de una sociedad que se autoproduce ella misma.
7. El pensamiento simplificante fue fundado sobre la disyunción entre el objeto y el
medio ambiente. Se comprendía el objeto aislándolo de su medio ambiente; era tanto
más necesario aislarlo como era necesario extraerlo del medio ambiente para colocarlo
en un nuevo medio ambiente artificial que se controlaba, que era el medio de la
experiencia, de la ciencia experimental. Efectivamente, gracias a la experiencia, se
podían variar las condiciones del comportamiento del objeto, y, por lo mismo, conocerlo
mejor. La experimentación a hecho progresar considerablemente nuestro conocimiento.
Pero hay otro conocimiento que sólo puede progresar concibiendo las interacciones con
el medio ambiente. Este problema se encuentra en física, donde las grandes leyes son
leyes de interacción. Se encuentra también en biología, donde el ser viviente es un
sistema a la vez cerrado y abierto inseparable de su medio ambiente del que tiene
necesidad para alimentarse, informarse, desarrollarse. Nos hace falta, pues, no desunir,
sino distinguir los seres de su medio ambiente.
Por otra parte, el pensamiento simplificante se fundó sobre la disyunción absoluta
entre el objeto y el sujeto que lo percibe y concibe. Nosotros debemos plantear, por el
contrario, el principio de relación entre el observador‐conceptuador y el objeto
observado, concebido. Hemos mostrado que el conocimiento físico es inseparable de la
introducción de un dispositivo de observación, de experimentación (aparato, desglose,
reja) y por esto incluye la presencia del observador‐conceptuador en toda observación o
experimentación. Aunque no hubiese hasta el presente ninguna virtud heurística en el
48
Pero, ¿podemos prescindir de la idea de observador‐sujeto en un mundo social
constituido por interacciones entre sujetos?
8. a 11. Hay también otra cuestión que me parece importante, es que, en el
conocimiento simplificante, las nociones de ser y de existencia estaban totalmente
eliminadas por la formalización y la cuantificación. Ahora bien, creo que han sido
reintroducidas a partir de la idea de autoproducción que, ella misma, es inseparable de
la idea de recursión organizacional. Tomemos un proceso que se autoproduce y que así
produce el ser; crea el "sí mismo". El proceso autoproductor de la vida produce seres
vivientes. Estos seres son, en tanto que sistemas abiertos dependientes de su medio
ambiente, sometidos a aleatoriedades, existentes. La categoría de existencia no es una
categoría puramente metafísica; somos "seres‐ahí", como dijo Heidegger, sometidos a
las fluctuaciones del medio exterior y sometidos efectivamente a la inminencia a la vez
totalmente cierta y totalmente incierta de la muerte. Dicho de otro modo, estas
categorías del ser y de la existencia que parecen puramente metafísicas, las
reencontramos en nuestro universo físico; pero el ser no es una sustancia; el ser sólo
puede existir a partir del momento en que hay auto‐organización. El sol es un ser que se
autoorganiza evidentemente a partir, no de nada, sino a partir de una nube cósmica; y
cuando el sol estalle, perderá su ser...
Si podemos referirnos en lo sucesivo a principios científicos que permiten concebir
el ser, la existencia, al individuo, al sujeto, es cierto que el estatus, el problema de las
ciencias sociales y humanas, se modifica. Es muy importante, puesto que el drama, la
tragedia de las ciencias humanas y de las ciencias sociales especialmente, es que,
queriendo fundar su cientificidad sobre las ciencias naturales, encontró principios
simplificadores y mutilantes en los que era imposible concebir el ser, imposible concebir
la existencia, imposible concebir la autonomía, imposible concebir el sujeto, imposible
concebir la responsabilidad.
12. y 13. Ahora, llego al último punto, que es el más dramático. El conocimiento
simplificante se funda sobre la fiabilidad absoluta de la lógica para establecer la verdad
intrínseca de las teorías, una vez que éstas están fundadas empíricamente según los
procedimientos de la verificación. Ahora bien, hemos descubierto, con el teorema de
Gödel, la problemática de la limitación de la lógica. El teorema de Gödel ha demostrado
los límites de la demostración lógica en el seno de sistemas formalizados complejos;
éstos comportan al menos una proposición que es indecidible, lo que hace que el
conjunto del sistema sea indecidible. Lo que es interesante en esta idea, es que se la
puede generalizar: todo sistema conceptual suficientemente rico incluye
necesariamente cuestiones a las que no puede responder desde sí mismo, pero a las
que sólo se puede responder refiriéndose al exterior de ese sistema.
Como dice expresamente Gödel: "El sistema sólo puede encontrar sus
instrumentos de verificación en un sistema más rico o metasistema". Tarski lo dijo
también claramente para los sistemas semánticos. Los metasistemas, aunque más ricos,
comportan también una brecha y así seguidamente; la aventura del conocimiento no
puede ser cerrada; la limitación lógica nos hace abandonar el sueño de una ciencia
50
absoluta y absolutamente cierta, pero es necesario decir que no era sólo un sueño. Era
el sueño finalmente de los años 20, el sueño del matemático Hilbert que creía
efectivamente que podía probarse de modo absoluto por la metamatemática,
matemáticamente, lógicamente, formalmente la verdad de una teoría. Era el sueño del
positivismo lógico que creyó fundar con certeza la teoría científica. Ahora bien, Popper,
después Kuhn, cada uno a su modo, han mostrado que lo propio de una teoría científica
es ser biodegradable. Hay aquí una brecha en la lógica a la que se añade otra brecha,
que es el problema de la contradicción. Es un problema muy viejo, puesto que lo
contradictorio o el antagonismo está presente en Heráclito, Hegel, Marx.
La cuestión está en saber si la aparición de una contradicción es signo de error, es
decir, si es necesario abandonar el camino que ha conducido a ella o, si por contrario,
nos revela niveles profundos o desconocidos de la realidad. Existen contradicciones no
absurdas, a las que nos conduce la observación, así la partícula se presenta al
observador tanto como onda tanto como corpúsculo; esta contradicción no es una
contradicción absurda; ella se funda sobre una andadura lógica; partiendo de
determinadas observaciones, se llega a la conclusión de que lo observado es algo
inmaterial, una onda; pero otras observaciones, no menos verificadas, nos muestran
que, en otras condiciones, el fenómeno se comporta como una entidad discreta, un
corpúsculo. Es la lógica la que conduce a esa contradicción. El verdadero problema es
que es la misma lógica la que nos conduce a momentos aporéticos los cuales pueden o
no pueden ser superados. Lo que revela la contradicción, si ella es insuperable, es la
presencia de un nivel profundo de la realidad que cesa de obedecer a la lógica clásica o
aristotélica.
Diría, en dos palabras, que el trabajo del pensamiento, cuando es creador, es
realizar saltos, transgresiones lógicas, pero que el trabajo de la verificación es retornar a
la lógica clásica, al nudo deductivo, el cual, efectivamente, sólo opera verificaciones
segmentarias. Podemos formular proposiciones, aparentemente contradictorias, como
por ejemplo: yo soy otro. Yo "soy" otro, como decía Rimbaud, o esa hermosa frase de
Tarde, por citar a un precursor de la sociología, que reza: "Lo más admirable de todas las
sociedades, esa jerarquía de consciencia, esa feudalidad de almas vasallas de la que
nuestra persona es la cima", es decir, esa multiplicidad de personalidades en el yo; en la
identidad existe un tejido de nociones extremamente diversas, existe la heterogeneidad
en lo idéntico. Todo esto es muy difícil de concebir, pero es así.
Así, en el corazón del problema de la complejidad, anida un problema de principio
de pensamiento o paradigma, y en el corazón del paradigma de complejidad se presenta
el problema de la insuficiencia y de la necesidad de la lógica, del enfrentamiento
"dialéctico" o dialógico de la contradicción.
La epistemología compleja
El segundo problema es el de la epistemología compleja que, en última instancia,
es aproximadamente de la misma naturaleza que el problema del conocimiento del
conocimiento.
51
Continúa cuestiones de lo que he dicho, pero sobrepasándolas, englobándolas.
¿Cómo concebir ese conocimiento del conocimiento?
Podemos decir que el problema del conocimiento científico podía plantearse a dos
niveles. Estaba el nivel que podríamos llamar empírico, y el conocimiento científico,
gracias a las verificaciones mediante observaciones y experimentaciones múltiples,
extrae datos objetivos y, sobre estos datos objetivos, induce teorías que, se pensaba,
"reflejaban" lo real. En un segundo nivel, esas teorías se fundaban sobre la coherencia
lógica y así fundaban su verdad los sistemas de ideas. Teníamos, pues, dos tronos, el
trono de la realidad empírica y el trono de la verdad lógica, de este modo se controlaba
el conocimiento. Los principios de la epistemología compleja son más complejos: no hay
un trono; no hay dos tronos; en modo alguno hay trono. Existen instancias que permiten
controlar los conocimientos; cada una es necesaria; cada una es insuficiente.
La primera instancia, es el espíritu. ¿Qué es el espíritu? El espíritu es la actividad
de algo, de un órgano llamado cerebro. La complejidad consiste en no reducir ni el
espíritu al cerebro, ni el cerebro al espíritu. El cerebro, evidentemente, es un órgano
que podemos analizar, estudiar, pero que nombramos tal cual por la actividad del
espíritu.
Dicho de otro modo, tenemos algo que podemos llamar el espíritu‐cerebro ligado y
recursivo puesto que uno coproduce al otro de alguna manera. Pero de todas formas,
este espíritu‐cerebro ha surgido a partir de una evolución biológica, vía la hominización,
hasta el homo llamado sapiens. Por lo tanto, la problemática del conocimiento debe
absolutamente integrar, cada vez que ellas aparecen, las adquisiciones fundamentales
de la bio‐antropología del conocimiento. Y ¿cuáles son esas adquisiciones
fundamentales?
La primera adquisición fundamental es que nuestra máquina cerebral es hiper‐
compleja. El cerebro es uno y múltiple. La menor palabra, la menor percepción, la
menor representación ponen en juego, en acción y en conexión miríadas de neuronas y
múltiples estratos o sectores del cerebro. Éste es bihemisférico; y su funcionamiento
favorable acontece en la complementariedad y en el antagonismo entre un hemisferio
izquierdo más polarizado sobre la abstracción y el análisis, y un hemisferio derecho más
polarizado sobre la aprehensión global y lo concreto. El cerebro es hipercomplejo
igualmente en el sentido en que es "triúnico", según la expresión de Mac Lean. Porta en
sí, no como la Trinidad tres personas en una, sino tres cerebros en uno, el cerebro
reptiliano (celo, agresión), el cerebro mamífero (afectividad), el neocórtex humano
(inteligencia lógica y conceptual), sin que haya predominancia de uno sobre otro. Al
contrario, hay antagonismo entre esas tres instancias, y a veces, a menudo, es la pulsión
quien gobierna la razón. Pero también, en y por ese desequilibrio, surge la imaginación.
Lo más importante quizás en la bio‐antropología del conocimiento nos retorna a
las críticas kantianas, en mi opinión ineludibles; efectivamente, se ha descubierto
mediante medios nuevos de observación y de experimentación lo que Kant descubrió
mediante procedimientos intelectuales y reflexivos. Nuestro cerebro está en una caja
negra que es el cráneo, no tiene comunicación directa con el universo. Esa
52
comunicación se efectúa indirectamente vía la red nerviosa a partir de las terminales
sensoriales. ¿Qué es lo que llega a nuestra retina, por ejemplo? Son estímulos, que en
nuestro lenguaje actual llamamos fotones, que van a impresionar la retina y esos
mensajes van a ser analizados por células especializadas, después transcritos en un
código binario el cual va a llegar a nuestro cerebro donde, de nuevo, van, según
procesos que no conocemos, a traducirse en representación. Es la ruina de la
concepción del conocimiento‐reflejo.
Nuestras visiones del mundo son traducciones del mundo. Traducimos la realidad
en representaciones, nociones, ideas, después en teorías. Desde ahora está
experimentalmente demostrado que no existe diferencia intrínseca alguna entre la
alucinación y la percepción. Podemos efectuar determinados estímulos sobre
determinadas zonas del cerebro y hacer revivir impresiones, recuerdos con una fuerza
alucinatoria sentida como percepción. Dicho de otro modo, lo que diferencia la
percepción de la alucinación es únicamente la intercomunicación humana. Y quizás ni
eso, pues hay casos de alucinación colectiva. A menos que se admita la realidad de la
aparición de Fátima, es cierto que miles de personas, que una muchedumbre, pueden
producir una misma alucinación.
Así, del examen bio‐antropológico del conocimiento se desprende un principio de
incertidumbre fundamental; existe siempre una relación incierta entre nuestro espíritu y
el universo exterior. Sólo podemos traducir su lenguaje desconocido atribuyéndole y
adaptándole nuestro lenguaje. Así, hemos llamado "luz" a lo que nos permite ver, y
entendemos hoy por luz un flujo de fotones que bombardean nuestras retinas. Es ya
hora de que la epistemología compleja reintegre un personaje que ha ignorado
totalmente, es decir, el hombre en tanto que ser bio‐antropológico que tiene un
cerebro. Debemos concebir que lo que permite el conocimiento es al mismo tiempo lo
que lo limita. Imponemos al mundo categorías que nos permiten captar el universo de
los fenómenos. Así, conocemos realidades, pero nadie puede pretender conocer La
Realidad con "L" y "R".
No hay sólo condiciones bio‐antropológicas del conocimiento. Existen,
correlativamente, condiciones socioculturales de producción de todo conocimiento,
incluido el científico. Estamos en los comienzos balbucientes de la sociología del
conocimiento. Una de sus enfermedades infantiles es reducir todo conocimiento,
incluido el científico, únicamente a su enraizamiento sociocultural; ahora bien,
desgraciadamente, no se puede hacer del conocimiento científico una ideología del
mismo tipo que las ideologías políticas, aunque ‐y volveré sobre ello‐ toda teoría sea
una ideología, es decir construcción, sistema de ideas, y aunque todo sistema de ideas
dependa a la vez de capacidades propias al cerebro, de condiciones socioculturales, de
la problemática del lenguaje. En ese sentido, una teoría científica comporta
inevitablemente un carácter ideológico. Existen siempre postulados metafísicos ocultos
en y bajo la actividad teórica (Popper, Holton).
Pero la ciencia establece un diálogo crítico con la realidad, diálogo que la distingue
de otras actividades cognitivas.
53
Por otro lado, la sociología del conocimiento está aún poco desarrollada y
comporta en ella una paradoja fundamental; sería necesario que la sociología fuese más
potente que la ciencia que estudia para poderla tratar de modo plenamente científico;
ahora bien, desgraciadamente la sociología es científicamente menos potente que la
ciencia que examina. Eso quiere decir evidentemente que es necesario desarrollar la
sociología del conocimiento. Existen estudios interesantes, pero muy limitados, que son
estudios de sociología de los laboratorios; ponen de manifiesto que un laboratorio es un
micro‐medio humano donde bullen ambiciones, celos, rivalidades, modas... Se dudaba
un poco de ello. Es cierto que esto resumerge la actividad científica en la vida social y
cultural; pero no se trata sólo de eso. Hay mucho más que hacer desde el punto de vista
de la sociología de la cultura, de la sociología de la intelligentsia (Mannheim). Hay todo
un dominio extremamente fecundo por prospectar. A este nivel es preciso desarrollar
una socio‐historia del conocimiento, incluida en ella la historia del conocimiento
científico. Acabamos de ver que toda teoría cognitiva, incluida la científica, es
coproducida por el espíritu humano y por una realidad sociocultural. Eso no basta.
Es necesario también considerar los sistemas de ideas como realidades de un tipo
particular, dotadas de una determinada autonomía "objetiva" en relación a los espíritus
que las nutren y se nutren de ellas. Es necesario, pues, ver el mundo de las ideas, no
sólo como un producto de la sociedad solamente o un producto del espíritu, sino ver
también que el producto tiene, en el dominio complejo, siempre una autonomía
relativa. Es el famoso problema de la superestructura ideológica que ha atormentado a
generaciones de marxistas, porque, evidentemente, el marxismo sumario y cerrado
hacía de la superestructura un puro producto de las infraestructuras, pero el marxismo
complejo y dialéctico, comenzando por Marx, percibía que una ideología retroactuaba,
evidentemente, y jugaba su papel en el proceso histórico. Es necesario ir todavía más
lejos. Marx creyó volver a poner la dialéctica sobre los pies subordinando el papel de las
ideas. Pero la dialéctica no tiene cabeza ni pies. Es rotativa.
A partir del momento en que se toma en serio la idea de recursión organizacional,
los productos son necesarios para la producción de los procesos. Las sociedades
humanas, las sociedades arcaicas, tienen mitos fundacionales, mitos comunitarios,
mitos sobre ancestros comunes, mitos que les explican su situación en el mundo. Ahora
bien, esas sociedades sólo pueden consumarse en tanto que sociedades humanas si
tienen ese ingrediente mitológico; el ingrediente mitológico es tan necesario como el
ingrediente material. Puede decirse: no, por supuesto tenemos primeramente
necesidad de comer y luego... los mitos, sí, ¡pero no tanto! Los mitos mantienen la
comunidad, la identidad común que es un vínculo indispensable para las sociedades
humanas. Forman parte de un conjunto en el que cada momento del proceso es capital
a la producción del todo.
Dicho esto, quiero hablar del grado de autonomía de las ideas y tomaré dos
ejemplos extremos; un ejemplo que me ha impresionado siempre resulta evidente en
todas las religiones. Los dioses que son creados por las interacciones entre los espíritus
de una comunidad de creyentes tienen una existencia plenamente real y plenamente
objetiva; ellos no tienen ciertamente la misma objetividad que una mesa, que la caza;
54
pero tienen una objetividad real en la medida en que se cree en ellos: son seres que
viven por los creyentes y éstos operan con sus dioses un comercio, un intercambio de
amor pagado con amor. Se les demanda ayuda o protección y, a cambio, se les dona
ofrendas. Mejor aún: hay muchos cultos en los que los dioses aparecen, y lo que me ha
fascinado siempre en la macumba es ese momento en el que llegan los dioses, los
espíritus, que se apoderan de tal o cual persona, que bruscamente hablan por la boca
del dios, hablan con la voz del dios, es decir que la existencia real de esos dioses es
incontestable. Pero esos dioses no existirían sin los humanos que los protegen: ¡he aquí
la restricción que es necesario hacer a su existencia! En el límite, esta mesa puede aún
existir tras nuestra vida, nuestro aniquilamiento, aunque no tuviese ya la función de
mesa; eso sería lo que continuaría su existencia. Pero los dioses morirían todos desde
que cesásemos de existir.
Entonces, ¡he ahí su tipo de existencia!
Del mismo modo, diría que las ideologías existen con mucha fuerza. ¡La idea trivial
de que podemos morir por una idea es muy verdadera! Claro está, mantenemos una
relación muy equívoca con la ideología. Una ideología, según la visión marxiana, es un
instrumento que enmascara intereses particulares bajo ideales universales. Todo esto es
verdad; pero la ideología no es solamente un instrumento; ella nos instrumentaliza.
Somos poseídos por ella. Somos capaces de actuar por ella. Así pues, existe el problema
de la autonomía relativa del mundo de las ideas y el problema de la organización del
mundo de las ideas.
Hay necesidad de elaborar una ciencia nueva que sería indispensable para el
conocimiento del conocimiento. Esa ciencia sería la noología, ciencia de las cosas del
espíritu, de las entidades mitológicas y de los sistemas de ideas, entendidos en su
organización y su modo de ser específico.
Los problemas fundamentales de la organización de los sistemas de ideas no
resultan solamente de la lógica, existe también lo que llamo la paradigmatología. Ésta
significa que los sistemas de ideas obedecen a algunos principios fundamentales que
son principios de asociación o de exclusión que los controlan y comandan.
Así, por ejemplo, lo que podemos llamar el gran paradigma de Occidente, bien
formulado por Descartes, ya citado, que consiste en la disyunción entre el objeto y el
sujeto, la ciencia y la filosofía; es un paradigma que no sólo controla la ciencia, sino que
controla la filosofía. Los filósofos admiten la disyunción con el conocimiento científico,
tanto como los científicos la disyunción con la filosofía. He aquí, pues, un paradigma que
controla tipos de pensamiento totalmente diferentes, incluso antagonistas, pero que le
obedecen igualmente. Ahora bien, tomemos la naturaleza humana como ejemplo del
paradigma. O bien el paradigma hace que esas dos nociones, las de naturaleza y
hombre, estén asociadas, como ocurre de hecho en Rousseau, es decir que sólo se
puede comprender lo humano en relación con la naturaleza. O bien, esas dos nociones
están disjuntas, es decir que sólo puede comprenderse lo humano por exclusión de la
naturaleza; éste es el punto de vista de la antropología cultural aún reinante.
55
Un paradigma complejo, por el contrario, puede comprender lo humano a la vez
en asociación y en oposición con la naturaleza. Es Kuhn quien ha puesto de relieve
fuertemente la importancia crucial de los paradigmas, aunque haya definido mal esa
noción. Él la utiliza en el sentido vulgar anglosajón de "principio fundamental". Yo la
empleo en un sentido intermedio entre su sentido lingüístico y su sentido kuhniano, es
decir que ese principio fundamental se define por el tipo de relaciones que existen entre
algunos conceptos maestros extremadamente limitados, pero cuyo tipo de relaciones
controla todo el conjunto de los discursos, incluida la lógica de los discursos. Cuando
digo lógica, es necesario ver que de hecho creemos en la lógica aristotélica; pero en ese
tipo de discurso que es el discurso de nuestro conocimiento occidental, es la lógica
aristotélica la que nos hace obedecer, sin saberlo, a ese paradigma de disyunción, de
simplificación y de legislación soberana; y el mundo del paradigma es evidentemente
algo muy importante que merece ser estudiado en sí mismo, pero a condición siempre
de abrirlo sobre el conjunto de las condiciones socioculturales y de introducirlo en el
corazón mismo de la idea de cultura. El paradigma que produce una cultura es al mismo
tiempo el paradigma que reproduce esa cultura. Hoy, el principio de disyunción, de
distinción, de asociación, de oposición que gobierna la ciencia no solamente controla las
teorías, sino que al mismo tiempo comanda la organización tecno‐burocrática de la
sociedad. Esa división, esa hiperdivisión del trabajo científico aparece de un lado,
evidentemente, como una especie de necesidad de desarrollo intrínseco, porque desde
que una organización compleja se desarrolla, el trabajo se especializa mientras que las
tareas se multiplican para llegar a una riqueza más compleja. Pero ese proceso, no
solamente es paralelo, sino que está ligado al proceso de la división del trabajo social, al
proceso de la heterogeneización de tareas, al proceso de la no‐comunicación, de la
parcelación, de la fragmentación de las actividades humanas en nuestra sociedad
industrial; resulta evidente que hay en ello una relación muy profunda entre el modo
como organizamos el conocimiento y el modo como la sociedad se organiza. La ausencia
de complejidad en las teorías científicas, políticas y mitológicas está ella misma ligada a
una determinada carencia de complejidad en la organización social misma, es decir, que
el problema de lo paradigmático es extremamente profundo porque remite a algo muy
profundo en la organización social, que no es evidente en principio; remite a algo muy
profundo, sin duda, en la organización del espíritu y del mundo noológico.
A modo de conclusión
Concluyo: ¿qué sería una epistemología compleja?
No es la existencia de una instancia soberana que sería el Señor epistemólogo
controlando de modo irreductible e irremediable todo saber; no hay trono soberano.
Hay una pluralidad de instancias. Cada una de esas instancias es decisiva; cada una es
insuficiente. Cada una de esas instancias comporta su principio de incertidumbre. He
hablado del principio de incertidumbre de la bioantropología del conocimiento. Es
necesario también hablar del principio de incertidumbre de la sociología del
conocimiento; una sociedad produce una ideología, una idea; pero eso no es signo de
que ella sea verdadera o falsa. Por ejemplo, en la época en que Laurent Casanova (es un
recuerdo personal) estigmatizaba al existencialismo sartriano diciendo de éste: "Es la
56
expresión de la pequeña burguesía laminada entre el proletariado y la burguesía", el
desafortunado Sartre decía: "Sí, quizás; es verdad; pero eso no quiere decir, sin
embargo, que el existencialismo sea verdadero o falso". Del mismo modo, las
conclusiones "sociológicas" de Lucien Goldmann sobre Pascal, incluso si ellas están
fundadas, no afectan a los Pensées.
Lucien Goldmann decía: "La ideología de Pascal y de Port‐Royal es la ideología de
la nobleza de toga laminada entre la monarquía y la burguesía ascendente". Quizás,
pero ¿es que la angustia de Pascal ante los dos infinitos puede reducirse al drama de la
nobleza de toga que va a perder su toga? No está tan claro.
Dicho de otro modo: incluso las condiciones más singulares, las más localizadas,
las más particulares, las más históricas de la emergencia de una idea, de una teoría, no
son prueba de su veracidad ‐claro está‐ ni tampoco de su falsedad. Dicho de otro modo,
hay un principio de incertidumbre en el fondo de la verdad. Es el problema de la
epistemología; es el problema de ladialéctica; es el problema de la verdad. Pero también
aquí la verdad se escapa; y también aquí el día en que se haya constituido una facultad
de noología, con su departamento de paradigmatología, ese no será el lugar central
desde donde se podría promulgar la verdad. Hay un principio de incertidumbre y, como
decía hace un instante, hay un principio de incertidumbre en el corazón mismo de la
lógica. No hay incertidumbre en el silogismo; pero en el momento del ensamblaje en un
sistema de ideas, hay un principio de incertidumbre.
Así, hay un principio de incertidumbre en el examen de cada instancia constitutiva
del conocimiento. Y el problema de la epistemología es hacer comunicar esas instancias
separadas; es, de alguna manera, hacer el circuito. No quiero decir que cada uno deba
pasar su tiempo leyendo, informándose sobre todos los dominios. ¡No! Pero lo que digo
es que si se plantea el problema del conocimiento, y por tanto el problema del
conocimiento del conocimiento, estamos obligados a concebir los problemas que acabo
de enumerar. Son ineluctables; y no porque sea muy difícil informarse, conocer,
verificar, etc., hay que eliminar esos problemas. Es necesario, en efecto, darse cuenta de
que es muy difícil y que no es una tarea individual; es una tarea que necesitaría el
encuentro, el intercambio, entre todos los investigadores y universitarios que trabajan
en dominios disjuntos, y que se encierran, por desgracia, como ostras cuando se les
solicita. Al mismo tiempo, debemos saber que no hay más privilegios, más tronos, más
soberanías epistemológicas; los resultados de las ciencias del cerebro, del espíritu, de
las ciencias sociales, de la historia de las ideas, etc., deben retroactuar sobre el estudio
de los principios que determinan tales resultados. El problema no es que cada uno
pierda su competencia. Es que la desarrolle bastante para articularla con otras
competencias, las cuales, encadenadas, formarían un bucle completo y dinámico, el
bucle del conocimiento del conocimiento. Esta es la problemática de la epistemología
compleja y no la llave maestra de la complejidad, de la que lo propio,
desgraciadamente, es que no facilita llave maestra alguna.
Nota: Este texto corresponde a las páginas 43‐77 de L'intelligence de la
complexité, editado por L'Harmattan, París, 1999. Agradecemos a Edgar Morin su
57
amable autorización para traducir y publicar el texto. Traducción de José Luis Solana
Ruiz. Edgar Morin. Director honorario de investigaciones del CNRS. París, Francia.