P. 1
ORDEN Y CAOS Las Ciencias de La Complejidad en Filosofia

ORDEN Y CAOS Las Ciencias de La Complejidad en Filosofia

5.0

|Views: 3.512|Likes:
Publicado porterapianeural1

More info:

Published by: terapianeural1 on Jan 14, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

12/13/2015

pdf

text

original

ORDEN Y CAOS

Las ciencias de la complejidad
IIIª SEMANA DE FILOSOFÍA DE LA REGIÓN DE MURCIA Murcia, del 25 al 29 de enero de 1999

Organización: Sociedad de Filosofía de la Región de Murcia Facultad de Filosofía y Departamento de Filosofía de la Universidad de Murcia Obra cultural de CajaMurcia Coordinación: Antonio Campillo

Impreso en Uqbar

Sumario
La materia 4
LA NOCION DE CAOS EN MATEMÁTICAS. UN PROBLEMA NO LINEAL Francisco Balibrea Gallego 5 DESCRIPCIÓN DE LA MATERIA Y CAOS Luis Calero Morcuende 13 LA INCERTIDUMBRE COMO MATRIZ CULTURAL José Lorite Mena 19 SOBRE LA IMPREDECIBILIDAD EN FÍSICA Miguel Ortuño Ortín 26

La vida 30
ORDEN Y CAOS: LA VIDA Javier Moscoso 31 LA VIE EN BAS, O LA VIDA COMO DESORDEN EN LA EDAD DE LA RAZÓN Javier Moscoso 35 ALGUNAS CONSIDERACIONES SOBRE LA EVOLUCIÓN GENÉTICA DE LA COMPLEJIDAD ANIMAL Francisco J. Murillo Araujo 40 BIODIVERSIDAD, CRISIS Y COMPLEJIDAD Miguel A. Esteve Selma 45 TOMANDO A DARWIN EN SERIO Enrique Ujaldón. 48

La conciencia 55
LA CONCIENCIA Y EL NATURALISMO Ángel García Rodríguez 56 EL ESTUDIO DE LA CONCIENCIA EN PSICOFISIOLOGÍA José María Martínez Selva 61 CONCIENCIA Y CAOS Ana Mas de Sanfélix 64 REFLEXION ACERCA DE LA CONCIENCIA DESDE UNA PERSPECTIVA NEUROPSICOLÓGICA Francisco Román Lapuente 72

La sociedad 76
RACIONALIDAD, MERCADO Y NUEVA ECONOMÍA POLÍTICA Francisco Alcalá Agulló 77 EL GRAN EXPERIMENTO: CIENCIA Y POLÍTICA EN LA SOCIEDAD GLOBAL Antonio Campillo 84 ORDEN Y CAOS EN LAS INTERACCIONES ECONOMIA-NATURALEZA-SOCIEDAD Carpena J. 93 COMPLEJIDAD EN LA SOCIEDAD ACTUAL José Luis Villacañas Berlanga 102

El conocimiento 109
RELATIVISMO CONCEPTUAL E INTERNISMO Jesús A. Coll Mármol 110 INFORMACIÓN, TECNOLOGÍA Y COMPLEJIDAD José Vicente Rodríguez Muñoz. 115

VERDAD Y RACIONALIDAD EN RICHARD RORTY Alfonso Galindo Hervás 121 SOBRE LA COMPLEJIDAD EN TORNO A EDGAR MORIN Juan Carlos Villanueva Pascual 129

3

La materia

La Materia

LA NOCION DE CAOS EN MATEMÁTICAS. UN PROBLEMA NO LINEAL
Francisco Balibrea Gallego
1. Introducción

E

n el mundo del cine, de la ciencia ficción o quizás en el de la divulgación científica, hemos asistido en los últimos tiempos a un bombardeo incesante en torno a unos cuantos términos provenientes- de 1a literatura científica, términos como caos, atractores extraños, efecto mariposa, impredecibilidad del tiempo atmosférico, etc., han estado en boca de muy diferentes protagonistas. De películas como “Chaos” de los hermanos Tavianni, el extravagante profesor de “Parque Jurásico” de Steven Spielberg o el formidable embrollo de la comedia “Efecto Mariposa” de Fernando Colomo. En la literatura encontramos también ejemplos de lo mismo. El cuento “¿El aleteo de una mariposa en Nueva York puede provocar un tlfón en Pekín?” está incluido en el libro de cuentos “L'ángelo Nero” (1991) de Antonio Tabucchi, aunque a decir verdad, resulta complicado encontrar relaciones entre el mismo relato y lo que su título significa. En el libro “A Sound of Thunder” de Ray Bradbury se plantea una curiosa historia. La muerte de una mariposa prehistórica, con su consiguiente falta de descendencia, cambia el resultado de la elección presidencial en Estados Unidos, en el momento presente. En la novela “Storm” de George R. Stewart, un metereólogo recuerda el comentario de uno de sus profesores acerca de. que un. hombre que estornudara en China podría dar lugar a que la gente tuviera que quitar la nieve con palas en la ciudad de New York. Los libros dedicados a la divulgación científica también han sido pródigos en estos temas. Se pueden citar algunos de ellos de entre una gran variedad que con mayor o menor fortuna abordan el tema. En la bibliografía se hace una descripción más detallada de los mismos, [L], [St], [C],[P], y [R] por citar sólo alguno de ellos. Incluso, el asunto ha llegado a las lecciones magistrales de la Universidad de Murcia con motivo de la festividad de Santo Tomás de Aquino (véase la referencia [M] Según el Diccionario de la Real Academia Española, la palabra caos proviene de la palabra griega Kaos (abertura) que originalmente en la Teogonía de Hesíodo significaba el espacio vacío infinito que existía antes de todas las cosas. del que nacieron Erebo y la Noche, cuyos hijos fueron el Eter y el Día. En latín existe la palabra chaos que originalmente se interpretaba (en Ovidio, por ejemplo) como la masa en estado bruto sin modelar, sobre la que el gran arquitecto del mundo introdujo orden y armonía generando el Cosmos. Actualmente tanto en. inglés como en castellano, la palabra caos (chaos en inglés) tiene dos significados:
5

La Materia

a) Estado amorfo e indefinido que se supone anterior a la constitución del cosmos. b) Confusión, desorden. La finalidad de este trabajo es la de aclarar el origen, la noción y la evolución del término caos desde el punto de vista de las Matemáticas. Aquí conviene advertir que desde un punto de vista más global, más filosófico, el término caos se está empleando en otros sentidos que a mi entender no resultan claros. Desde luego en Matemáticas el término y su significado son claros y no debe existir ambigüedad en su uso. La conclusión final que podemos extraer es que las ideas sobre el caos son en realidad ideas que fueron descubiertas en el siglo XIX y puestas de actualidad en los años 70 en el mundo norteamericano de la Física y las Matemáticas con otro nombre y una distinta formulación. Quizás, como en otras muchas cosas, el “marketin” norteamericano ha tenido mucha culpa en la extensión y difusión de estas ideas. En cambio, las ideas sobre los atractores extraños (como el corazón geométrico donde se desarrolla el caos) sí que son novedosas de los citados años 70 y han impulsado una forma nueva de abordar un problema muy importante en Física y .Matemáticas como es el problema de la turbulencia en los fluidos.

2. Origen y concepto de Caos
Aunque pueda haber algún precedente, en cualquier caso poco claro, la primera vez que se usó el término caos en un artículo de Matemáticas, fue en 1975 con la aparición en la revista americana American Mathematical Monthly de un artículo con el sugestivo título de “Period three implies chaos' escrito por L. Li y J. Yorke. Aunque el artículo es interesante en sí, sin embargo tuvo mucha transcendencia de cara a la investigación en Matemáticas por el hecho del empleo del término “chaos”, aunque el fenómeno estudiado en dicho artículo no coincidía con el que posteriormente se va a identificar con la noción de caos. El artículo se refería al hecho de que si una función continua real de variable real tiene un punto periódico de período 3, entonces tiene puntos periódicos de todos los períodos. Antes de la aparición del artículo de Li y Yorke, en el mundo de la Física, Meteorología, Ingeniería, etc., el término caos se estuvo usando de una forma poco precisa y muy irregular para describir fenómenos caracterizados del siguiente modo, según una descripción heurística del meteorólogo E. N .Lorenz: “Parece apropiado denominar caótico a un sistema físico real, si un modelo del mismo suficientemente realista, del que se haya suprimido la aleatoriedad inherente al mismo, sigue aparentando comportamiento aleatorio'” Lorenz estaba reproduciendo sin saberlo y haciendo alusión además a fenómenos ya considerados y a ideas ya exploradas en el mundo de las Matemáticas en el siglo XIX Antes de pasar a un análisis más fino de estas ideas, vamos a hacer algunas precisiones sobre la terminología que estamos empleando y que emplearemos en lo que sigue.

6

La Materia

Un sistema es algo que tiene partes y que se concibe como una entidad simple. Según esta definición, no todo es un sistema:
1. 2. 3.

Euclides definió un punto como aquello que no tiene partes. En la mayor parte de las teologías, Dios no tiene partes. El conjunto vacío tampoco tiene partes.

Sin embargo la mayor parte de las cosas pueden ser vistas como sistemas de muy diferentes tipos: el sistema solar, el sistema capitalista, el sistema métrico-decimal, el sistema financiero. el sistema económico mundial, el sistema cardiovascular, etc. En Matemáticas, es interesante recoger la opinión de Wittgenstein [Hi] sobre los sistemas matemáticos: “Un sistema matemático es un mundo. En Matemáticas no podemos hablar de sistemas en general, sino únicamente de la idea de estar dentro de un sistema” Los teoremas de Gödel pueden interpretarse como una formulación precisa del significado de Wittgenstein. En realidad un sistema se identifica como la colección de todos sus estados concebibles. Un sistema dinámico es uno que cambia con el tiempo. Lo que cambia en realidad es el estado del sistema. A tal respecto, el sistema capitalista es dinámico (según Marx), mientras que el sistema métrico-decimal es no dinámico. Aunque más adelante lo definiremos con más precisión, un sistema dinámico, en el sentido matemático, viene descrito por su espacio de estados junto con una regla, llamada la dinámica del sistema, que permita determinar el estado que corresponde a un tiempo futuro dado, partiendo del estado del sistema en el tiempo presente. Desde las más antiguas civilizaciones hasta la relatividad general el sistema dinámico más importante ha sido el cosmos y el problema crucial, el de encontrar su dinámica. Tradicionalmente, en Física y también en Matemáticas, los sistemas se han clasificado en dos grandes grupos:
1. 2.

Sistemas lineales. Sistemas no lineales.

Un sistema dinámico es lineal cuando su dinámica es conocida, de tal forma que el conocimiento del estado actual del mismo hace que se pueda conocer el estado en cualquier otro instante futuro o pasado. Dicho sistema se puede formular mediante una ecuación diferencial ordinaria o en derivadas parciales, ecuación en diferencias finitas, ecuación integral o sistemas de ecuaciones combinación de las anteriores pero siempre lineales. Esto significa desde un punto de vista físico, que la respuesta a una suma de efectos, es la suma de las respuestas a cada uno de ellos. La segunda ley de Newton F = ma es un buen ejemplo de tales linealidades.
7

La Materia

Los sistemas no lineales son aquellos que no presentan tal comportamiento, pero si se conoce el estado actual del sistema y una ecuación (de cualquiera de los tipos señalados anteriormente) no lineal que lo modeliza, también se podrá conocer el estado que el sistema alcanzará en el futuro. Tanto para sistemas lineales como no lineales, si el sistema está modelado por una ecuación diferencial o en diferencias finitas, se denomina sistema determinista, es decir, existe una forma de determinar su comportamiento futuro dadas unas determinadas condiciones iniciales. En tales circunstancias se puede esperar un comportamiento regular y predecible del sistema. Pero esto no resulta ser exactamente así y ya Poincaré en 1892 descubrió que algunos sistemas derivados de la Mecánica, cuya evolución en el tiempo está gobernada por las ecuaciones de Hamillton, no siguen el comportamiento regular anteriormente considerado, sino que por el contrario el comportamiento futuro es completamente impredecible. En esencia esto significa que si el estado de un punto evoluciona de una forma regular con el tiempo, es de esperar que un punto próximo al anterior lo haga de una forma parecida. Lo que posteriormente se llamó comportamiento irregular o caótico es precisamente el que puntos próximos en el instante actual. puedan tener comportamientos muy dispares en instantes futuros. Desgraciadamente, en el mundo de la Física y de las Matemáticas, esto fue considerado como una simple curiosidad hasta que unos 70 años después, hacia 1963, Lorenz encontró un sistema de tres ecuaciones diferenciales no lineales bastante sencillo cuyas trayectorias verifican la anterior condición de impredecibilidad futura. En años recientes, debido sobre todo a la ayuda de resultados teóricos nuevos, a las posibilidades de cálculo que ofrecen los modernos ordenadores y a técnicas experimentales más sofisticadas, se ha encontrado que lejos de ser una curiosidad, el fenómeno de impredecibilidad de los sistemas se presenta frecuentemente en la naturaleza y con notables consecuencias en muchas ramas de la ciencia. Sobre todo en Física, el fenómeno de la impredecibilidad se ha bautizado con el sugestivo nombre de caos determinista. Ahora podemos presentar algunos sistemas no lineales que presentan el caos determinista: el péndulo forzado, los fluidos cerca de la aparición de la turbulencia, los láseres, muchos problemas en Óptica no lineal, uniones de Josephson, algunas reacciones químicas, el problema clásico de los n-cuerpos (en particular el de los tres cuerpos), aceleradores de partículas, plasmas sometidos a ondas no lineales interactivas, modelos biológicos en dinámica de poblaciones, células del corazón sometidas a excitación exterior, ... Aquí conviene hacer notar un hecho importante; la no linealidad es una condición necesaria pero no suficiente para la presencia del caos determinista. Aunque existe probablemente una prehistoria de todas las ideas que hemos mencionado, nosotros y para centrar las nociones, vamos a seguir la actividad de tres científicos franceses del siglo XIX.
8

La Materia

Jacques Hadamard (1868 - 1963) Pierre Duhem (1861 - 1916) Henri Poincaré (1854 - 1912) Nuestros antepasados habían descubierto hace mucho tiempo que el futuro es muy difícil, si no imposible, de predecir. Pero lo que es más reciente es el descubrimiento del hecho y su demostración matemática de que en algunos sistemas, una pequeña variación en el punto inicial donde empezamos a considerar la evolución del mismo, conducen a grandes cambios en la evolución posterior, por lo que cualquier posibilidad de predicción resulta completamente imposible. Este hecho fue observado por Hadamard en [H]. El sistema considerado por Hadamard era una especie de billar alabeado, al que denominaremos el billar de Hadamard y en el que la mesa del mismo se ha sustituido por una superficie con curvatura negativa en todos sus puntos. Realmente lo que interesa considerar es el movimiento que tendría un punto ideal que estuviera ligado a dicha superficie y que se moviera por la misma sin rozamiento. De esta forma el billar de Hadamard constituye la materialización de lo que se conoce técnicamente por flujo geodésico sobre la superficie de curvatura negativa. El siguiente teorema (demostrado primeramente por Lobatchevsky para superficies de curvatura negativa constante como la esfera o la pseudoesfera, fue extendido por Hadamard a superficies de curvatura negativa en todos sus puntos, aunque no necesariamente constante) se puede enunciar en el lenguaje actual de las variedades riemanianas diferenciables. Theorem 2.1. Sea V una variedad riemaniana compacta y conexa de curvatura negativa. Entonces el flujo geodésico en el espacio tangente en cada punto a la variedad es un C-flujo. Una demostración de este teorema se puede encontrar, por ejemplo, en [AA]. C-flujo significa que las órbitas del sistema son altamente inestables en el sentido de que dos órbitas que tengan datos iniciales próximos se separan exponencialmente con el tiempo. La misma propiedad que tiene el billar de Hadamard, fue demostrada en los años 70 por el matemático soviético Jakob Sinai para el caso de un billar plano con obstáculos convexos [S]. Para tener una idea sencilla del fenómeno que ocurre en el billar de Sinai podemos utilizar el ejemplo de la máquina de bolas. Dos bolas que se lancen con aproximadamente la misma dirección y velocidad pueden tener trayectorias muy dispares. Dicha disparidad es debida a la presencia de los obstáculos en el billar. En la época en que se conocieron los trabajos de Hadamard, uno de los que entendieron las repercusiones filosóficas de los mismos fue el físico y filósofo francés Pierre Duhem (como curiosidad. a Duhem se le debe la publicación de un trabajo considerable que tituló: El Sistema del Mundo, Historia de las Doctrinas Cosmológicas de Platón a Copérnico en diez volúmenes. En uno de estos volúmenes publicado en 1906, introdujo un apartado bajo el título de: Ejemplo de una Deducción Matemática que nunca debe utilizarse [D].En este apartado, Duhem se refería al cálculo de trayectorias sobre el billar de Hadamard, Tal trayectoria “nunca debe utilizarse”, ya que cualquier pequeña incertidumbre que necesariamente está presente en la condición inicial, da lugar a una gran incertidumbre en la trayectoria cal9

La Materia

culada si se espera el tiempo suficiente, y esto convierte a la predicción en algo sin ningún valor. En Ciencia y Método, publicado en 1908, el gran matemático Henri Poincaré hace uso de algunas observaciones que él mismo había realizado tiempo antes al estudiar las órbitas de cuerpos materiales en el espacio tridimensional en el modelo conocido como el problema de los tres cuerpos que no es otra cosa que un sistema de tres ecuaciones diferenciales ordinarias con condiciones iniciales que representan los movimientos resultantes de tres cuerpos sometidos a las fuerzas gravitatorias ejercidas entre ellos. En este modelo, existen puntos fijos en los que las variedades estables e inestables de los mismos (conjuntos de puntos cuyas órbitas cuando el tiempo crece, tienden al punto fijo o puntos cuyas órbitas “proceden” de los mismos) se cortaban, Poincaré descubrió que cuando este fenómeno ocurre, las órbitas que pasan cerca de los puntos de intersección se comportan de una forma muy complicada. Tal punto de intersección se denomina un punto homoclínico del punto fijo. La órbita que pasa por un punto homoclínico se denomina una órbita homoclínica. Cualquier órbita homoclínica tiende hacia el punto fijo tanto para valores del tiempo hacia adelante como hacia atrás. Estas observaciones, propiciaron el que en el citado “Ciencia y Método”, Poincaré discutiera el problema de la impredecibilidad del movimiento de ciertos sistemas mecánicos, aunque no de una forma técnica. Llega a la conclusión de que el azar y el determinismo se pueden hacer compatibles precisamente por la impredecibilidad a largo plazo. Poincaré lo explica del siguiente modo: “Una causa muy pequeña, que se nos escapa, determina un efecto considerable que no podemos prever, y entonces decimos que dicho efecto se debe al azar”. Poincaré conocía lo útiles que son las probabilidades en la discusión del mundo físico y quería saber cuales eran las fuentes del azar. Sus reflexiones le dieron varias respuestas. Uno de tales mecanismos o fuentes posibles era el de la inestabilidad de las órbitas. Discutió dos ejemplos destacados de inestabilidad:
1.

Un gas que está compuesto de numerosas moléculas que se mueven a gran velocidad en todas las direcciones y que experimentan numerosos choques entre sí. Estos choques, según Poincaré, dan lugar a sensibilidad a las condiciones iniciales (esta terminología no fue empleada por Poincaré sino la de impredicibilidad del movimiento). La situación es análoga a la de la bola de billar chocando con un obstáculo convexo. La impredecibilidad del movimiento de las partículas en el gas justifica una descripción probabilista del mismo. El segundo ejemplo concierne a la Meteorología. También en este ejemplo existe sensibilidad a las condiciones iniciales. Por otra parte, nuestro conocimiento de las condiciones iniciales es siempre algo impreciso, y ello explica la poca fiabilidad de las previsiones del tiempo atmosférico que se pueden realizar. Esto ocurría al final del siglo XIX, pero actualmente parece que las cosas en este terreno no han mejorado sustancialmente. Así, como no podemos prever cómo se van a suceder los fenómenos meteorológicos, pensamos que su sucesión tiene lugar al azar.

2.

10

La Materia

Hay que poner de manifiesto que el esfuerzo realizado por Poincaré para tratar de entender cuáles son las fuentes del azar, tiene mucha relación con el ambiente científico que se vivía a finales del siglo XIX. En esta época, muchos físicos y químicos negaban el que la materia estuviera compuesta de átomos y de moléculas. Otros habían aceptado ya mucho tiempo atrás, el que en un litro de cualquier gas, había un número enormemente grande de moléculas que se movían a gran velocidad en todos los sentidos y que chocaban en el más espantoso de los desórdenes. Este desorden se puede cuantificar como la suma de mucho azar en un volumen pequeño. Pero ¿cuánto azar? La pregunta tiene sentido y podemos responderla gracias a la Mecánica Estadística creada hacia 1900 por el austríaco Ludwig Boltzmann y el americano J. Williard Gibbs. La contestación a la pregunta es que la cantidad de azar presente en un pequeño volumen de un gas viene dada por la entropía de ese volumen de gas. Lo que resulta interesante, es que actualmente tenemos medios de determinar con precisión estas entropías. La conclusión es que, en cierto modo, se consigue domesticar el azar y convertirlo en imprescindible para la comprensión de la estructura de la materia. Aunque no en los términos usados por la Mecánica Estadística, la noción de entropía fue introducida en 1850 por el físico alemán Clausius y ha tenido una curiosa evolución en la historia de los Sistemas Dinámicos que merece comentar, aunque solo sea brevemente. Usando las ideas de Boltzmann y Gibss, el ingeniero americano Claude Shannon creó en 1948, lo que hoy conocemos como Teoría de la Información introduciendo una nueva noción de entropía, extensión de las anteriores. Más adelante, con las ideas de la Teoría de la Información, el matemático soviético A. N. Kolmogorov introdujo en el contexto de los Sistemas Dinámicos, la noción de entropía métrica que se extendió en los años 70 a la de entropía topológica y que actualmente es usada en Sistemas Dinámicos como una medida del grado de complejidad de los mismos. Las ideas de Poincaré sobre las trayectorias homoclínicas quedaron olvidadas hasta los años 60, cuando el topólogo americano Steve Smale estaba tratando de comprender y de explicar satisfactoriamente los fenómenos estudiados durante el tiempo de la Segunda Guerra Mundial por los matemáticos británicos, Mary Cartwright y J.L.Littelwood con relación al comportamiento de ciertas ecuaciones diferenciales que aparecen en fenómenos de transmisión por radio. Smale descubrió una estructura geométrica que denominó “herradura” y que permitía explicar los fenómenos observados por Poincaré, Cartwright y Littelwood aunque fuera en diferentes problemas. No solamente esto, la “herradura” le sirvió a Smale para resolver para dimensiones a partir de 4, una famosa conjetura planteada por Poincaré: “Una variedad con los mismos invariantes algebraicos, que la esfera n-dimensional es idéntica topológicamente hablando a ella”. Por cierto que la conjetura está todavía sin resolver para dimensión 3. Las circunstancias que rodearon el descubrimiento de Smale, pueden ser seguidas en el artículo [Sm] explicado por el propio autor y que constituye sin duda un delicioso, a la vez que interesante relato. Todas estas ideas cuya génesis hemos repasado, fueron consideradas por el mundo matemático a partir sobre todo de los años 70 por dos razones, por lo sugestivas que son y por el ambiente científico general que impulsó a analizarlas en el marco teórico adecuado.

11

La Materia

Múltiples ejemplos de Sistemas Dinámicos con comportamiento ca6tico pueden ser propuestos. En las referencias que se proponen pueden estudiarse con detalle.

Bibliografía
[AA] Arnold V.I., Avez A., Ergodic Problems of Classical Mechanlcs, AddisonWesley. Advanced Book Classics, 09406, 1989. [G] Gleick J., Caos. La Creación de una Nueva Ciencia, Seix Barral, 1989. [GH] Guckenheimer J., Holmes, P., Nonlinear Oscillations, Dynamical Systems and Bifurcation of Vector Fields, Springer-Veriag, 1983. [H] Hadmard J., “Les Surfáces à Courbure s Opposées et leurs Lignes Géodésiques”, J. Math. Pures et Appliquées. 4, (1989), p.p.27-73. [He] Hénon M. “A Two Dimensional Mapping wlth a Strange Attractor“, Comm.Math.Physics., 50, (1976), p.p. 69-77. [I-L] Hirsch M. “The Dynamlcal Systems Approar-h to Differential Equations”, Bulletin of the Amer.Math.Soc., 11,Number 1 (1984), p.p.1-64. [L] Lorenz. E., La Esencia del Caos, Círculo de Lectores, 1995. [MI Muñoz Cortés, M., Summa versus Encyclopediam. Lección Magistral en Santo Tomás de Aquino, Servicio de Publicaciones. Universidad de Murcia, 1996. [P] Prigogine I., Las Leyes del Caos, Drakontos, 1997. [R] Ruelle D. Hasard et Chaos. Éditiors Odíle Jacob, 1991. [RT] RueUe D, Takens F. “On the Nature of Turbulence” Comm.MatlLPhys. 20 (1971), p.p. 167-192; 23, (1971), p.p. 343-344. [S] Sinai. J., “On the Concept of Entropy of a Dynamical System”, Doklakad. Nauk. SSSR. 124, (1959), p.p. 768-776 (En ruso). [St] Stewart I., ¿Juega Dios a los Dados?, Drakontos ,1991.

12

DESCRIPCIÓN DE LA MATERIA Y CAOS
Luis Calero Morcuende
Comunicación
omo un posible asunto para la discusión de esta tarde voy a sugerir, de una forma cualitativa y simplificada, algunas ideas respecto del modo en que las nuevas ciencias del caos han afrontado el problema de la descripción de la materia. Totalidad y elemento, orden y desorden, necesidad y azar, son algunas de las parejas de conceptos implicados que preludian el debate. Se trata de una cuestión importante porque, aparte de las expectativas que siempre despierta nuestra investigación del mundo físico, la propia noción de ley “científica” no es independiente de dicha descripción, por lo que puede incluso afirmarse que es el mismo concepto de “ciencia” (y, de paso, también el de “racionalidad”) el que pretende ser revisado. Para hacer más evidente este cambio de perspectiva me serviré de la ciencia tradicional o clásica como fondo de contraste. Mientras la ciencia clásica intenta descomponer la materia en sus elementos más simples, las ciencias del caos (ciencias de la complejidad) necesitan considerar una complicación mayor para hacer valer sus principios. El supuesto metodológico fundamental de la perspectiva clásica de la ciencia consiste en que, para comprender el mundo, hay que aislar sus partes componentes hasta llegar a sus unidades más básicas: los elementos de la materia (llámense quarks, cromosomas o neuronas). Los científicos tradicionales descomponen la materia y examinan sus componentes uno tras otro, considerando que este modo de ver analítico proporciona una visión de la realidad en su estado puro. Y si desean conocer el modo en que interactúan las partículas reúnen a unas pocas de ellas, considerando que ya hay suficiente complicación. Como ejemplo paradigmático de esta actitud, sirva el proceder de la física de partículas en su intento por explorar los bloques constructivos de la materia empleando energías cada vez más altas, escalas cada vez más reducidas y tiempos cada vez más breves. Por contra, las nueva perspectiva del caos rompe esta tendencia de lo científico a analizar la materia en términos de sus partes constitutivas y, en su lugar, propone la consideración de niveles más complejos de organización, especialmente de sistemas dinámicos que se caracterizan por un comportamiento irregular, variable y discontinuo. Por la importancia que conceden al cambio, puede decirse que las ciencias del caos son ciencias del devenir antes que del ser, del proceso antes que del estado. La física clásica (en la línea de la tradición platónica) opone “ser” a “devenir” y “verdad” a “ilusión”. Su aspiración consiste en comprender lo inmutable más allá de las simples y cambiantes apariencias fenoménicas. El símbolo de la inteligibilidad científica se cifraba en el comportamiento estable y ordenado. Pero ahora, ante la nueva perspectiva, la estabilidad y la simplicidad dejan de ser la regla se convierten en la excepción. Desde su reconocimiento de la complejidad, las nue-

C

1

2

La Materia

vas ciencias reclaman el estatuto de realidad para el cambio y su derecho a adquirir carta de naturaleza científica. Ya algunos antecesores de la teoría del caos (como Wilson, Kadanoff y Fisher) desplazaron su interés hacia el estudio de las llamadas transiciones de fase, es decir, hacia el estudio del comportamiento de la materia en las inmediaciones del punto en que cambia de un estado a otro (ebullición de líquidos, licuación de sólidos, imantación de metales, etc.). Como sabemos, las transiciones de fase tienden a ser altamente no lineales, de manera que el comportamiento estable y predecible de la materia en una fase no suele servir de mucho para entender su transición a otra. Esto no alienta, sin embargo, la proclamación del imperio del desorden absoluto. El principio del desorden remite al elemento individual, es decir, las posibilidades de desorden aumentan proporcionalmente al grado de autonomía de las partes, de manera que aquellos fenómenos materiales (o vitales) cuyos elementos constitutivos están de alguna forma relacionados no pueden exhibir nunca un desorden absoluto sino, en todo caso, desórdenes relativos. Lo cual nos lleva a distinguir dos representaciones del desorden: el desorden destructor y el desorden creativo (de un nuevo orden). Así lo explica G. Balandier: “El desorden se vuelve destructor cuando hay pérdida de orden, cuando los elementos se disocian, y tienden a no constituir más una estructura, una organización, una simple suma. El desorden se vuelve creador cuando produce una pérdida de orden acompañada de una ganancia de orden, que es generador de un orden nuevo reemplazante del antiguo y puede ser superior a él. El proceso de complejización opera según esta lógica, no por adición, sino por sustitución a un nivel más elevado. En un caso, la realidad queda amputada de las formas de orden que desaparecen sin compensación; en el otro, es enriquecida por formas nuevas de orden1”. Pues bien, frente a la visión newtoniana del mundo en la que el desenvolvimiento de los fenómenos aparece regido, a la manera de un plan, por leyes inmutables externas que les confieren un orden total mecanizado y ahistórico, los teóricos del caos reivindican un concepto de realidad que incorpore el devenir (ámbito del tiempo) y en la que, por medio de desorganizaciones y reorganizaciones sucesivas, la creación del orden pueda proceder del desorden. Respecto del tiempo, la descripción clásica de la naturaleza nos remite a un universo fundamentalmente reversible que niega la diferencia entre futuro y pasado; por contra, la nueva descripción de la naturaleza considera la irreversibilidad como una característica fundamental de la estructura del universo. La idea de un tiempo reversible se remonta a Newton. Sus ecuaciones matemáticas para el movimiento de los cuerpos (tanto terrestres como celestes) son de tal índole que, con independencia de cuáles sean las posiciones y velocidades del sistema en un momento inicial de observación, su conducta está determinada para todos los tiempos pasados y futuros. Sin embargo, lo que no hacen dichas ecuaciones es decidir que dirección constituye el pasado y el futuro de nuestro universo, despojando al

3

1

Balandier, G., El desorden, Barcelona, Gedisa, 1996, pp. 44-45. Considera este autor que las ciencias del caos ya no pueden comprometerse a dar una imagen del mundo “simple y clara”, según la prescripción de Einstein. Al abordar lo complejo y hacer hueco al devenir, las nuevas ciencias pierden globalidad (se hacen más locales)y sus representaciones del mundo se vuelven más fragmentadas.

14

La Materia

tiempo de su direccionalidad. Esta misma noción simétrica del tiempo persiste en la teoría de la relatividad de Einstein2 y en la mecánica cuántica. La aparición en el s. XIX de los paradigmas evolutivos (con ciencias como la biología y la termodinámica) mostró la necesidad de replantear el problema del tiempo, aunque todavía existía el convencimiento generalizado de que el tiempo direccional era una mera descripción fenomenológica y de que las descripciones físicas fundamentales podían plasmarse sin dificultad en leyes deterministas temporalmente reversibles. La consideración evolutiva de lo viviente preparó el principio de la reacción contra el tiempo de inspiración newtoniana porque, tratándose de la vida, la idea de irreversibilidad resulta casi inconcebible. ¿Quién puede asimilar — excepto Einstein y algunos más— la equivalencia entre, por ejemplo, un hombre que nace, crece y muere, y un hombre que resucita, rejuvenece y se hace niño? En expresión de Prigogine, “la vida es, por tanto, como una inscripción de ‘irreversibilidad’ sobre la materia3”. Por su parte, la irreversibilidad irrumpió en la física de la mano del segundo principio de la termodinámica, la ley que dice que el calor solamente puede fluir de un cuerpo más caliente a otro más frío. Nunca vemos que una taza de té se caliente espontáneamente; siempre se enfría. El crecimiento de la entropía es una señal que indica a las claras la dirección del tiempo, así como el aumento inexorable del desorden en el universo. Esta idea del universo caminando hacia su desorganización total parece, no obstante, contradecir la teoría de la evolución de Darwin, pues ésta muestra cómo con el paso del tiempo, formas simples de vida han originado formas complejas, lo que supone que la vida se ha ido haciendo cada vez más organizada y no menos. Sin embargo, el descubrimiento por Prigogine y sus colaboradores de las estructuras de no equilibrio o “disipativas4” ha puesto de manifiesto la compatibilidad entre un universo donde crece la entropía y la aparición de entidades tan complejas y refinadas como el cerebro humano. Aunque el estado final de la materia pueda ser el derrumbamiento inexorable en el desorden, el segundo principio de la termodinámica no pretende que ello tenga lugar uniformemente en el espacio y en el tiempo, por lo que, al menos en principio, el caos puede llevar a nuevos estados ordenados de la materia. El crecimiento local del orden (y la consecuente disminución entrópica del sistema concreto) se saldaría con un incremento global de la entropía.

Cuando Einstein se enteró de la muerte de su amigo y confidente Michelangelo Besso, a modo de consuelo para la familia del difunto, cuéntase que escribió lo siguiente: “Para nosotros, físicos convencidos, la distinción entre el pasado, el presente y el futuro es solamente una ilusión, por persistente que sea...”. Su creencia en la intemporalidad de las leyes de la física era tan firme que, como vemos, hasta la muerte quedaba relativizada. 3 Prigogine,I., “Enfrentándose con lo irracional”, en Proceso al azar (edición de Jorge Wagensberg), Barcelona, Tusquets, 1996, p.170. 4 En las condiciones de no equilibrio, cuando el sistema disipa energía e interactúa con el exterior, la materia se comporta de una forma radicalmente distinta, originando fenómenos irreversibles que ponen de relieve el papel constructivo del tiempo. Algunos ejemplos bien conocidos son la inestabilidad de Bénard y los osciladores químicos. Paralelamente, el descubrimiento de los sistemas dinámicos caóticos ha operado una profunda renovación en la dinámica que parece haber invertido el punto de vista clásico según el cual los sistemas estables eran la regla y los inestables excepciones. Como afirma Prigogine, “el carácter inestable e irreversible pasan a ser parte integrante de la descripción en el nivel fundamental” (Las leyes del caos, Barcelona, Crítica, 1997, p.45).

2

15

La Materia

Para la ciencia tradicional, el gran libro del Universo está escrito con las figuras de la geometría clásica (líneas y planos, círculos y esferas, triángulos) y conocemos5 para las ciencias del caos, esta geometría no se corresponde con el carácter de lo complejo, pues resulta demasiado abstracta. La materia está asociada a la extensión y, por tanto, a una geometría, pero la esencia de las formas irregulares no se deja apresar por medio de las mediciones euclídeas, sino por medio de la denominada geometría fractal. No en vano, Benoît Mandelbrot solía decir que las nubes no son esferas ni los montes conos. La nueva geometría ha de ser capaz de reflejar un universo áspero, escabroso, retorcido, quebrado, enmarañado. Para Mandelbrot, la dimensión efectiva de una cosa resultaba distinta de sus tres dimensiones mundanas habituales (largura, anchura y espesor): la dimensión efectiva es la dimensión fraccional, que representa el medio de ponderar cualidades como el grado de irregularidad o discontinuidad de un objeto6. Así surge la geometría fractal como un procedimiento de descripción y cálculo sobre las figuras irregulares y fragmentadas, figuras que iban desde la línea de un litoral hasta las líneas cristalinas de los copos de nieve.

4

Este descubrimiento llevó aparejado la modificación de las reglas de confección de las figuras geométricas. Ante una ecuación, la geometría clásica busca la serie de números que la satisfagan y las soluciones producen distintas figuras como circunferencias, elipses, parábolas, hipérbolas. Pero cuando, en vez de resolverla, el geómetra la itera en un bucle de realimentación, la ecuación deja de describir un estado estático y se transforma en un proceso dinámico que causa como comportamiento la convergencia de una repetición periódica de los estados y la carrera desenfrenada hacia el infinito (como muestra el “conjunto de Mandelbrot”). La ciencia clásica, con sus preguntas acerca del tamaño y la duración de las cosas, presupone que para la comprensión o representación de un objeto tiene importancia la escala. Por el contrario, los defensores de las ciencias del caos aseguran que algunos fenómenos son escalares, es decir, su irregularidad peculiar (descriptible en términos de dimensión fractal) no se altera sea cual sea la escala en que se los observe. Un hombre cuyo tamaño se duplicase, so pena de no ver aplastados sus huesos, necesitaría una arquitectura corporal distinta. Aquí sí que tiene importancia la escala. Mas, por ejemplo, un seísmo intenso y otro débil, una nube grande y otra pequeña, un remolino de polvo formado en una calle y un huracán visible desde el espacio, tienen ambos la misma estructura. En estos casos, buscar su hipotética escala característica no hace sino provocar confusión. A través de sus exploraciones de objetos reales7, de pautas irregulares en los procesos naturales (ruido en las transmisiones electrónicas, riadas del Nilo y precios del algodón) y de formas infinitamente complejas (como la curva de Koch, figura con el resultado paradójico de que una línea infinitamente larga rodea un área finita) Mandelbrot llegó a la conclusión de que el grado de irregularidad permanecía constante a diferentes
Recordemos la conocida aseveración de Galileo en Il Saggiatore (1623): “La filosofía está escrita en este gran libro que está abierto continuamente ante nuestros ojos (me refiero al Universo), pero no puede ser comprendido a menos que antes se aprenda su lenguaje y se conozcan los caracteres en que está escrito. Está escrito en lenguaje matemático, y los caracteres son triángulos, círculos y otras figuras geométricas”. 6 Con libros como Los objetos fractales (Barcelona, Tusquets, 1987), Mandelbrot atrajo la atención de la comunidad científica sobre la presencia de las formas fractales entre los objetos naturales. 7 Mandelbrot escribió un curioso artículo con el retador título de “How long is the coast of Britain?” en el que puso de manifiesto que, al paso que la escala de medición se hacía más pequeña (desde la medición efectuada por un satélite hasta la que, hipotéticamente, realizaría un caracol que pudiera deslizarse por todos sus contornos, pasando por la que podríamos llevar a cabo recorriendo sus playas), la longitud media de un litoral aumenta sin límite.
5

5

16

La Materia

escalas. También desde el nuevo enfoque geométrico el mundo exhibe, pues, una irregularidad regular: hay orden dentro del caos. Al abordar el problema de las mediciones y considerar que éstas nunca serían exactas, la perspectiva clásica de la ciencia supuso que podía prescindirse de los errores mínimos; los teóricos del caos, por contra, demostraron que muchos sistemas físicos presentaban “dependencia sensitiva de las condiciones iniciales”. La ciencia tradicional no ignoraba que nuestro conocimiento de las condiciones iniciales de un sistema siempre estaría empañado por ciertas imprecisiones pero, dada la convergencia en el modo como ocurren las cosas, pensaron que un input aproximadamente exacto tendría que rendir siempre un output aproximadamente exacto. Por ejemplo, un error mínimo al fijar la posición de un cometa sólo causaría minúsculos errores en la predicción de su próxima llegada, desviación que continuaría siendo insignificante en el futuro. Sin embargo, ya finales del s. XIX el matemático francés Jacques Hadamard demostró que, para ciertos sistemas, un pequeño cambio en la condición inicial conducía rápidamente a una modificación sustancial de la evolución posterior del sistema, lo cual significaba que cualquier leve error en la fijación de las condiciones iniciales haría inviable su predicción a largo plazo. Poincaré también se hizo eco de esta misma circunstancia en Ciencia y método (1908), excusando por su razón la poca fiabilidad de las predicciones meteorológicas. Curiosamente, 50 años más tarde y de forma independiente, Edward Lorenz redescubrió las ideas de Poincaré sobre las previsiones meteorológicas8 Lorenz concluyó que cualquier sistema físico de comportamiento no periódico (aquellos que jamás alcanzan estabilidad y nunca se repiten de forma completa), por presentar sensibilidad a las condiciones iniciales, sería del todo impredecible. El popularmente conocido como “efecto mariposa” terminaba así con la fantasía laplaciana de la predecibilidad determinista.9 La noción se ha revelado tan importante en el plano conceptual que, precisamente, lo que ahora entendemos por caos puede definirse como la evolución temporal de un sistema con sensibilidad a las condiciones iniciales.

6

7
8

La ciencia clásica asocia el concepto de “ley de la naturaleza” a una descripción determinista y reversible en el tiempo; las ciencias del caos pretenden generalizar dicho concepto incorporando las nociones de probabilidad e

Según cuenta J. Gleick en su libro Caos (Barcelona, Seix Barral, 1998, pp. 19 y ss.), a principio de los años 60 E. Lorenz trabajaba con su ordenador Royal McBee en problemas de simulación numérica del tiempo atmosférico. Con su tiempo de juguete demostró que una ligerísima variación de los datos producía pautas que, representadas en la pantalla, se alejaban cada vez más una de otra hasta que desaparecía cualquier atisbo de semejanza. El sistema de ecuaciones que Lorenz utilizaba era estrictamente determinista. Dado un especial punto de partida, el tiempo se desarrollaría siempre del mismo modo; dado un punto de partida levemente distinto, el tiempo se desarrollaría de manera ligeramente diferente. Pero en el sistema de ecuaciones de Lorenz los errores ínfimos (que él cometió al pretender repetir una secuencia olvidando introducir la totalidad de las cifras decimales) resultaron catastróficos. 9 Debemos a Laplace la formulación más celebrada del determinismo clásico. En su Ensayo filosófico sobre las probabilidades (Alianza Editorial, Madrid, 1985) afirma: “Una inteligencia que en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sóla fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos”.

17

La Materia

irreversibilidad. Es indudable que a nuestro alrededor existen objetos y sistemas físicos que obedecen a leyes clásicas deterministas y reversibles, pero, según defensores del caos como Prigogine10 dichos objetos y sistemas corresponden a casos simples, casi a excepciones (como el movimiento planetario). Son muchos más, declaran, y de mayor interés, los objetos a los que se aplica el segundo principio de la termodinámica y los sistemas cuyo comportamiento es sensible a las condiciones iniciales. Ahora bien, en estos sistemas inestables las leyes de la naturaleza se tornan fundamentalmente probabilistas: expresan lo que es posible y no lo que es cierto. A lo sumo, cuando el sistema presenta sucesivas bifurcaciones, se combinan estadios descritos por leyes deterministas (entre los puntos de bifurcación) y leyes probabilistas (en el mismo punto de bifurcación11). Una de las consecuencias esperables de la ampliación del concepto de “ley científica” en el sentido expresado sería la superación de la división tradicional entre ciencias “duras” y “blandas”. Es notorio que el creciente interés por los sistemas dinámicos ha estimulado muchas investigaciones en biología, ecología, economía y otras ciencias sociales, pero la precisión cuantitativa que puede obtenerse en estas investigaciones es mucho menor que la que se alcanza en física, por lo que el impacto del caos en dichas ciencias, como ha puesto de relieve D. Ruelle12 queda más al nivel de la filosofía de la ciencia que al nivel de la ciencia cuantitativa.

Las leyes del caos, p.111. Contrariamente a lo que sostiene Prigogine, autorizado portavoz de las doctrinas del caos, René Thom, en polémica controversia, sostiene que las leyes científicas son necesariamente deterministas. (Una visión divulgativa de la opinión de Thom sobre la ciencia se ofrece en Parábolas y catástrofes, Barcelona, Metatemas, 1993). 12 Ruelle, D., Azar y Caos, Madrid, Alianza Editorial, 1993, pp. 85-86. Rouelle señala que en las ciencias ‘blandas’ todavía no se conocen ecuaciones apropiadas de evolución temporal del sistema (como ocurre en astronomía, hidrodinámica e, incluso, meteorología) ni tampoco registros experimentales largos y precisos que pudieran sustituirlas.
11

10

18

LA INCERTIDUMBRE COMO MATRIZ CULTURAL José Lorite Mena
Comunicación
1. Caos: algo familiar. El 8 de noviembre de 1998, el diario El País presentaba en la página 3 de su «Sección internacional» un mapa donde se mostraba la evolución del huracán «Mitch». A la angustia permanente de ver y oír todos los días, en diferentes medios de comunicación, su efecto demoledor, se añadía entonces, con la claridad sintética de los mapas y los pormenores analíticos que los explicaban, una incertidumbre total. Nunca se supo con seguridad la dirección que tomaría el huracán en las horas siguientes .su trayectoria había sido errática, con bruscos cambios impredecibles.; tampoco se lograba precisar con seguridad si amainaría o arreciaría .por momentos se debilitaba y repentinamente tomaba fuerzas.; menos aún se podía establecer su velocidad .las barreras montañosas, las fracturas costeras o las hondonadas de los ríos parecían acelerarlo o paralizarlo caprichosamente1. Los servicios meteorológicos, con el apoyo de la más refinada tecnología de los satélites, se afanaban por cruzar los datos tomados a escasos metros del huracán o a cientos de kilómetros de altura. La más mínima variación en la temperatura atmosférica, en la dirección del viento, en la humedad ambiental..., e incluso en la posición de la Luna, todo era tenido en cuenta. Y sin embargo, la conjunción de estos datos, recogidos con un rigor instrumental excepcional y un refinamiento matemático incuestionable, sólo podía ofrecer previsiones probabilistas, de ninguna manera predicciones deterministas. Esto es un sistema caótico. Había un abismo entre el deseo científico de proporcionar explicaciones causales lineales, continuas y reversibles, y el comportamiento no-lineal, discontinuo e irreversible del huracán. No se debía a deficiencia de los datos, a imprecisión insLa información resumida por El País, a pie de foto en la fecha indicada, era siguiente: «Mi.21. Nace el «Mitch» como una onda tropical cerca de las costas de Colombia, que más tarde pasa a ser una gran depresión. Ju.22. Se transforma en una tormenta tropical. De una manera rápida e inesperada toma fuerza al captar vapor de agua del cálido mar Caribe y se transforma en huracán. Sa.24. Roza la isla de Jamaica, que se salva de él. Lu.26. Avanza lentamente hacia el noroeste, pero gira hacia el oeste y se detiene. Mi.28. Se pone de nuevo en marcha, cuando pasa frente a las costas hondureñas gira al sur y se adentra en tierra. Pierde fuerza, pero su poder de destrucción sigue intacto. Vientos de 170-200 Km/h y lluvias torrenciales devastan Nicaragua y Honduras. Sa.31-Lu 2. Durante tres días [después de girar al oeste] continúa su recorrido por Guatemala, El Salvador, [toma dirección norte] el sur de México y Belice, que se salva del «Mitch» en su máxima virulencia. Ma.3. Finalmente empieza a perder fuerza y se dirige hacia Florida (EE.UU.) sin provocar grandes daños»
1

La Materia

trumental o a errores de cálculo, sino a la naturaleza misma del fenómeno. Un huracán es un sistema complejo, donde cualquier variación mínima en los múltiples elementos que lo componen puede modificar, de manera imprevisible, las relaciones entre ellos y, por consiguiente, el comportamiento de la totalidad del sistema. La materia no se presenta como un estado, sino como un proceso. Paradójicamente, y aunque las diferencias sean insalvables .tanto por los métodos como por las conceptualizaciones y el mismo vocabulario., nuestro sentido común está más próximo de las expectativas del conocimiento científico clásico que de la evolución inestable del huracán. Nuestras representaciones culturales y su vocabulario se ordenan siguiendo las secuencias de regularidad de los sólidos y establece relaciones causales lineales y continuas. Se trata, básicamente, de una geometría euclidiana elemental a la que se superpone una física newtoniana simplificada que regulan nuestra capacidad de hacernos familiar el mundo y marcan las pautas del lenguaje cotidiano que habla de él. Es la forma mentis que se nos ha inculcado .se inculca. en la escuela, en nuestro mundo familiar, y que a través de los paradigmas aceptables académicamente se nos presenta como una normatividad estructurante e incuestionable de nuestra realidad. Es una forma tan insistente y amplia de hacernos presentes en las cosas que parece formar parte de la naturalidad del mundo. Y sin embargo estamos mucho más envueltos por fenómenos semejantes al huracán «Mitch» que por realidades geométricas: los movimientos de las nubes y los cambios climáticos, la evolución de las relaciones afectivas y los cambios en las cotizaciones de la bolsa, la propagación de una epidemia y el vuelo de un pájaro, el desplazamiento de clientes en el interior de «El Corte Inglés» y la caída de una hoja en otoño empujada por el viento... Estamos más cerca de una dinámica de fluidos que de una mecánica de sólidos. Lo irregular, lo discontinuo, lo divergente, lo no-lineal... se entremezcla en nuestra vida cotidiana con lo regular, lo continuo, lo convergente y lo lineal. Vivimos en el centro del caos. Más aún, podemos considerarnos a nosotros mismos como un sistema privilegiado de caos. I. Prigogine hace una constatación que, no por conocida, es menos contundente: «Es bien sabido que el corazón tiene que ser regular, de lo contrario morimos. Pero el cerebro tiene que ser irregular, de lo contrario tenemos epilepsia». A partir de ahí hace una extrapolación teórica tajante y con una gran carga polémica: «Esto demuestra que la irregularidad, el caos, conduce a sistemas complejos. No se trata de desorden. Por el contrario, yo diría que el caos posibilita la vida y la inteligencia. El cerebro ha sido seleccionado para volverse tan inestable que el menor efecto puede conducir a la formación de orden»2. Dos dimensiones resaltan en esta cita de Prigogine3. La primera, la conjunción de regularidad e irregularidad en un sistema complejo como nuestro organismo. La articulación de dos, o más, sistemas divergentes en el interior de un sistema más global produce como resultante .es un hecho. un equilibrio constantemente recompuesto que determina esa totalidad que llamamos vida humana. Es como si tuviéramos en nuestro interior un reloj mecánico y permanentes corrientes de flujos variables, y los dos sistemas se entrelazaran continuamente para dar resultados tan distintos y tan complementarios como el riego sanguíneo de las células y la elaboraCitado por J. Briggs y F.D. Peat, Espejo y reflejo: del caos al orden. Guía ilustrada de la teoría del caos y de la ciencia de la totalidad, Barcelona, Gedisa, 19942, 166. 3 Esto independientemente de que su teoría «Orden a partir del Caos» sea o no asumida. I. Prigogine e I. Stengers, La nueva alianza. Metamorfosis de la ciencia, Madrid, Alianza, 1983; I. Prigogine, La fin des certitudes, París, O. Jacob, 1996. Ver la reflexión crítica de N.K. Hayles, La evolución del caos, Barcelona, Gedisa, 1998, 123-151.
2

20

La Materia

ción de conceptos abstractos. Al mismo tiempo, tanto por la dinámica existente entre estos dos subsistemas (el corazón/el cerebro), como por la de cada uno de ellos con la totalidad del organismo (corazón ↔ totalidad ↔ cerebro), las relaciones entre la parte y el todo, entre lo local y lo general, no son ni uniformes ni generalizables. La aspiración a situarse en estos registros de interacción diferenciada hace surgir el concepto de «auto-organización», que se instalaría hermenéuticamente en ese espacio de re-equilibrio redundante de un sistema que tiene que alimentarse permanentemente de dos, o más, subsistemas con estructuras operativas divergentes4. La segunda dimensión es una dislocación radical en la separación tradicional del orden y del desorden. Nuestras representaciones más arraigadas los sitúan como dos absolutos irreconciliables: un interior real y significativo, y un exterior irreal e insignificante. La teoría del caos rompe esta dicotomía tajante, obligándonos a escudriñar el desorden como tensión inmanente al orden, y el orden como función subyacente al desorden o como su resultante5. No es extraño, pues, que los estudiosos del caos en diferentes disciplinas tengan como preocupación común la búsqueda del orden .pero, claro, el concepto de orden ya ha sido modificado. Esta nueva mirada sobre la interacción orden-desorden tiene una primera consecuencia básica: el caos, contrariamente a la inercia de nuestras representaciones, no es sinónimo de desorden, sino opuesto a determinismo o a linealidad inviolable, unívoca y reversible en los acontecimientos6. El caos hace impracticable el reduccionismo, al menos en los sistemas complejos. 2. El archipiélago del caos7. Nos hemos referido a un huracán y después hemos mencionado el cerebro para situar dos sistemas que operan de forma «caótica». De hecho, el caos atraviesa en diagonal multitud de sistemas .desde las partículas elementales hasta las intenciones de voto en las campañas electorales.8. El caos parece formar parte de la estructura misma de la materia, y, sin embargo, en cada nuevo nivel de organización se conjuga de manera diferente. Aunque se pueda detectar unas constantes básicas, cuando se pasa de un nivel a otro en la organización de la materia, el comportamiento caótico cambia, de tal forma que, inmediatamente, surge un cohorte de variables que hacen irreductibles los análisis de un nivel a otro. Si la materia fuera lineal, homogénea y determinista en su composición más profunda, el concepto de caos no sólo no sería operativo, sencillamente no habría aparecido. Pero como lo

Cf. H. Atlan, Entre le cristal et la fumée, París, Seuil, 1979; Id., A tort et à raison, París, Seuil, 1986; P. Dumouchel et J.-P. Dupuy (dir.), L'auto-organisation. De la physique au politique, París, Seuil, 1983; G. Nicolis e I. Prigogine, La estructura de lo complejo, Madrid, Alianza, 1994; S. Weinberg, El sueño de una teoría final, Barcelona, Gedisa, 19942; E. Klein et M. Spiro, Le temps et sa flèche, París, Ed. Frontières, 19952. 5 De manera general, se puede decir que hay dos grandes teorías en el análisis del caos. Una defiende el caos como una ausencia de orden de la cual puede surgir algo. El eje principal de estos análisis es «la interpretación de la aleatoriedad como información máxima». Uno de los representantes más conocidos de esta corriente es I. Prigogine. La otra corriente interpreta el caos como «una compleja configuración dentro de la cual el orden está implícitamente codificado». Esta corriente está vinculada al estudio de los «atractores extraños». Uno de los autores más conocidos de esta corriente es B. Mandelbrot. 6 Cf. T. Xuan Thuan, Le Chaos et l'harmonie. La fabrication du réel, París, Fayard, 1998. 7 La expresión de N.K. Hayles, La evolución del caos, 21. También lo es «matriz cultural», que aparecerá después. 8 Cf. J. Briggs y F.D. Peat, Espejo...; G. Balandier, El desorden. La teoría del caos y las ciencias sociales, Barcelona, Gedisa, 19942; J. Gleick, Chaos: Making a New Science, New York, Viking, 1987; D. Ruelle, Chance and Chaos, Princeton University Press, 1991.

4

21

La Materia

afirma M. Serres, «Todo es desviación del equilibrio, salvo la nada»9. Este el eje del problema del caos: la fisura entre ser y nada, la bifurcación constante entre identidad y diferencia. El concepto de caos es, pues, bastante caótico: su espacio son los intersticios, las bifurcaciones, y, como tal, contiene una información máxima, una acumulación de ruido. Exceso en el significante y deficiencia en el significado. De ahí que se hable de «archipiélago del caos»: una constelación representativa con profundas semejanzas topográficas en su distribución conceptual, pero con grandes diferencias, e incluso incomunicabilidad teórica, en la relación de esos conceptos y en el alcance hermenéutico que se les confiere. Por eso el caos no es un conocimiento disciplinario; ninguna rama del conocimiento puede considerarse el portavoz privilegiado de un saber que acaba de empezar su desarrollo, que abarca simultáneamente a diferentes áreas y que en sí mismo parece rebelde a una determinación unívoca. Es cierto que los físicos evitan cuidadosamente hablar de «teoría del caos», y prefieren llamarla dinámica no-lineal, teoría de sistemas dinámicos o metodología de sistemas lejos del equilibrio. Y no faltan razones para esa prudencia. Pero parece preferible, desde nuestra perspectiva, mantener la designación de «teoría del caos» por varias razones. Caos es una nueva condensación significativa donde gira una gran cantidad de conceptos que obliga, desde el momento en que se introduce epistemológicamente en un análisis, a una recomposición de las representaciones en numerosos aspectos. Reducirlo operativamente al solo significado de una disciplina privilegiada sería restringir drásticamente su capacidad hermenéutica. Al mismo tiempo, y por su efecto heurístico, el caos está permitiendo una comunicación entre disciplinas inexistente hasta el momento; este concepto-programa se instala, justamente, en aquellos espacios donde la ciencia clásica había establecido la separación entre disciplinas o las había condenado a un reduccionismo estricto10. Caos es una propiedad hermenéutica que obliga a la interdisciplinariedad11. Finalmente, si se tiene en cuenta el interés que esta «teoría» ha despertado desde la física de partículas elementales hasta la meteorología, pasando por la biología y la literatura, o la economía y la antropología, podemos pensar que se trata de una «matriz cultural». Un espacio que coagula las preguntas de una época y que dinamiza diferentes áreas de conocimiento, aunque las respuestas sólo puedan ser provisionales y forzadamente divergentes. Como el caos. 3. La visibilidad del caos. Parece ser que la «ciencia» del caos comienza en la encrucijada de la meteorología y de los ordenadores. Concretamente un día del invierno de 1961. Es un momento con gran fuerza ilustrativa. Edward Lorenz había conseguido, con la ayuda de un enorme ordenador de la época, reducir la meteorología a su más simple expresión ateniéndose sólo a la descripción de los movimientos del aire y del agua por medio de ecuaciones. Así, su ordenador imprimía curvas que transcribían la variación del fenómeno físico: en momentos de tranquilidad total, la curva mostraba valles; con fuertes ráfagas de viento, trazaba colinas. Un día, Lorenz quiso prolongar el cálculo de un boletín meteorológico interrumpido bruscamente. Pero para ganar algo de tiempo lo volvió a empezar a mitad de camino, en vez de recuperar el cálLa naissances de la physique dans le texto de Lucrèce, París, Minuit, 1977. Cf. J. Lorite Mena, La metáfora moderna del pensamiento, Universidad de Murcia, 1996, 301 ss. 10 Así se pronunciaba ya en 1977 E. Morin: La méthode, vol. 1: La nature de la nature, París, Seuil. 11 T. Xuan Thuan, profesor de astrofísica en la Universidad de Virginia, afirma, en un parágrafo titulado significativamente «La fin des certitudes», lo siguiente: «La science du chaos séduit aussi parce c'est une science du global qui abat les cloisons entre les divers disciplines» (Le chaos..., 98).
9

22

La Materia

culo desde el comienzo. Puso en marcha el programa y se fue a tomar un café. Al volver se encontró con un resultado sorprendente que iba a dar lugar al nacimiento de la actual ciencia del caos. Lorenz esperaba que la nueva curva, iniciada a mitad de camino de la inicial, se superpusiera milímetro a milímetro sobre ella. Ocurría lo contrario. Al principio las dos curvas coincidían, pero rápidamente sus trazados se separaban y desaparecía cualquier semejanza. Lorenz pensó en un fallo de su ordenador. Pero múltiples comprobaciones le hicieron ver que la causa de las diferencias residía en las cifras que había introducido en el ordenador como condiciones iniciales de la segunda curva. Cuando había interrogado al ordenador, éste le había dado la cifra 0,145237 para el modelo interrumpido, ya que la máquina sólo era capaz de almacenar 6 cifras después de la coma. Pero cuando Lorenz reintrodujo ese número como condición inicial de la nueva curva, había, por pereza o por prisa, redondeado la cifra y se había contentado con escribir 0,145, convencido de que una diferencia de una milésima no tendría ninguna consecuencia. Ese fue su error y su éxito: un pequeñísimo cambio en las condiciones iniciales conduce a un cambio considerable e impredecible12. Este es el núcleo de la «ciencia» del caos: la influencia de las condiciones iniciales en la evolución de un sistema. Caos viene a significar así imprevisibilidad del estado final en un sistema complejo13. Entonces tomaron un valor profético las afirmaciones de H. Poincaré en 1908 (Science et méthode): «Una causa muy pequeña, que nos escapa, determina un efecto considerable que no podemos prever. (...) Incluso si las leyes naturales no tuvieran ningún secreto para nosotros, sólo podríamos conocer aproximadamente la situación inicial [de un sistema]. (...) La predicción se hace imposible». Volvámonos hacia Poincare. Todo empieza cuando la atención se concentra, a través de un concurso internacional, en resolver un problema de la mecánica newtoniana. Newton estaba convencido de que sin una permanente intervención divina, la gravedad, que atraía a todos los cuerpos, terminaría por producir el colapso del universo. Dios no sólo era el creador del mundo, también era un minucioso y paciente relojero que aseguraba la regularidad de la máquina14. El problema provenía de la Luna15. Desde el siglo XVI se había constatado que la Luna se desviaba progresivamente de la posición marcada en las tablas de cálculo, de tal manera que era necesario volver a calcular periódicamente su órbita para establecer nuevas tablas. En 1666, Newton da la respuesta al enigma del movimiento de los cuerpos celestes por medio de la ley de la gravedad: los planetas se desplazan en órbitas elípticas alredeCf. E. Lorenz, «Deterministic Nonperiod Flow», Journal of the Atmospheric Sciences, 20, 1963, 130-141. Ver J. Gleick, Chaos..., 15 ss.; D. Ruelle, Chance..., cap. 10. 13 A partir de ahí empiezan los trabajos sobre un nuevo paradigma que es bautizado «Chaos» por T. Li and J.A. Yorke: «Period three implies chaos», American Mathematical Monthly, 82, 1975, 985-992. 14 De manera general se puede decir que hay tres grandes modelos epistemológicos que condicionan la formulación de las preguntas y la capacidad de responderlas. El siglo XVIII está dominado por la representación del universo como un mecanismo de relojería; el siglo XIX, como una entidad orgánica; y a lo largo del siglo XX, se empieza a ver como un inmenso flujo turbulento. En la transición del reloj al organismo se empieza a liberar un nuevo tipo de preguntas que permiten insistir en los enigmas del sistema newtoniano. Ver J. Schlanger, Les métaphores de l'organisme, París, Vrin, 1971; o su aportación como editora de Thought and Novation, University of Wisconsin Press, 1990. Su reflexión crítica se precisa en el trabajo con I. Stengers, Les concepts scientifiques, París, Gallimard, 1991. 15 Newton llegó a afirmar que «nunca le dolía tanto la cabeza como cuando trabajaba sobre el problema de la Luna». Algunos historiadores consideran que Newton abandonó su puesto de profesor en la Universidad de Cambridge en 1696, para ocupar un cargo administrativo cuya función consistía en vigilar la acuñación de monedas en la Tesorería real, ante la imposibilidad de resolver ese complejo problema. Cf. I. Peterson, Newton's Clock: Chaos in the Solar System, New York, W.H. Freeman, 1993.
12

23

La Materia

dor del Sol porque están atraídos por su fuerza gravitatoria. Pero hay un problema: sus cálculos sólo son satisfactorios cuando se trata de dos cuerpos; cuando hay un tercer cuerpo siembra la discordia y los cálculos tienen deficiencias. Este es el caso de la Luna, que soporta la fuerza de atracción del Sol y de la Tierra. Así el cálculo más preciso que consiguió difería en 1/6 de grado de la posición real de la Luna. Este es «el problema de los tres cuerpos» al que se enfrenta Poincaré cuando, en 1890, se presenta a un concurso convocado por la Universidad de Estocolmo. En su trabajo, Poincaré prueba que no es posible hallar una solución al problema por medio de las ecuaciones newtonianas16. Aunque las complicadas demostraciones de Poincaré sean el terreno privilegiado de los grandes especialistas, sus consecuencias epistemológicas son de alcance general. La base de su nueva perspectiva puede resumirse, para un profano, de la manera siguiente: el método tradicional aísla fragmentos de realidad para analizarlos en su más mínimo detalle; a partir de ahí, la totalidad de lo real es reconstruida yuxtaponiendo esos fragmentos como si hubiera una conexión continua, homogénea y necesaria. Así se pierde la memoria puntual y, con ella, la incertidumbre que introducen las pequeñas perturbaciones en la dinámica del sistema. Como indicaba Poincaré, el estado final de un sistema depende de una manera tan sensible del estado inicial, que una pequeña perturbación puede modificar la trayectoria total del sistema. Es pues, imposible de prever el estado final. A partir de ahí se puede analizar la incidencia que tuvo en esta perspectiva la transformación, desde Darwin hasta Boltzmann, que supuso analizar no el individuo, sino la población, y la influencia que se atribuye en este proceso al «hommemoyen» de Quetelet. Pero supongo que estos aspectos serán tomados en consideración los próximos días. Por el momento se imponen unas conclusiones mínimas que ya forman parte, hoy en día, de nuestra representación del mundo, y que podrían ser consideradas como las invariantes del caos. Ante todo, el caos es un ingrediente del funcionamiento mismo de la naturaleza, y no una deficiencia atribuible a los límites de nuestro conocimiento. La reciente presencia del caos en nuestro conocimiento muestra .si tenemos la memoria de los diferentes paradigmas que han posibilitado el conocimiento de la naturaleza a través de nuestra historia. que la ciencia no es una simple descripción de la naturaleza, sino una hermenéutica cuyos instrumentos siempre estarán con respecto a ella en una distancia artificial, cultural. Al mismo tiempo, esta fractura continúa en el interior de la naturaleza que el caos permite señalar y estudiar, nos obliga a prestar atención a lo irregular, a lo fraccionario, a las bifurcaciones, a esas fluctuaciones mínimas que determinan la composición que puede tomar un sistema. Lo cual quiere decir que nuestras representaciones deben conjugar permanentemente la determinación y la indeterminación, situarse tan próxima de la dinámica de los fluidos como de la mecánica de los sólidos, y que nuestro mismo vocabulario debe asumir sus perturbaciones internas. La historia de la materia cambia, la de nuestras teorías también. Finalmente, pero esto únicamente como proyección interrogativa inevitable, habría que analizar en detalle cómo la nueva relación partes↔todo, local↔global, esto es, la influencia de las condiciones iniciales y los mecanismos de auto-organización, que ponen de manifiesto las teorías del caos, han sido extrapoladas ideológicamente para alimentar nuevas concepciones políticas nacionalistas.

H. Poincaré, «Sur le problème des trois corps et les équations de la dynamique», Acta Mathematica, 13, 1890, 1-270.

16

24

La Materia

Bibliografía
- Atlan, H.: Entre le cristal et la fumée, París, Seuil, 1979; A tort et à raison, París, Seuil, 1986. - Balandier, G.: El desorden. La teoría del caos y las ciencias sociales, Barcelona, Gedisa, 19942. - Briggs, J. y Peat, F.D.: Espejo y reflejo. Guía ilustrada de la teoría del caos y de la ciencia de la totalidad, Barcelona, Gedisa, 19942. - Davies, P. y Gribbin, J.: The Matter Myth, New York, Simon & Schuster, 1992. - Dupuy, J.-P. (dir.): L’auto-organisation. De la physique au politique, París, Seuil, 1983. - Gigerenzer, G. (comp.): The Empire of Chance: How Probability Changed Science and Every Day Life, Cambridge University Press, 1989. - Gleick, J.: Chaos: Making a New Science, New York, Viking, 1987. - Hacking, I.: La domesticación del azar. La erosión del determinismo y el nacimiento de las ciencias del caos, Barcelona, Gedisa, 1991. - Hayles, N.K.: La evolución del caos. El orden dentro del desorden en las ciencias contemporáneas, Barcelona, Gedisa, 1998. - Klein, E. y Spiro, M.: Le temps et sa flèche, París, Ed. Frontières, 19952. - Mandelbrot, B.B.: The fractal Geometry of nature, New York, W.H. Freeman, 1983. - Nicolis, G. y Prigogine, I.: La estructura de lo complejo, Madrid, Alianza, 1994. - Peitgen, H.-O. y Richter, P.H. (comps.): The Beauty of Fractals: Images of Complex Dinamical System, Berlin, New York, Springer, 1986. - Peterson, I.: Newton’s Clock: Chaos in The Solar System, New York, Freeman, 1993. - Prigogine, I.: La fin des certitudes, París, O. Jacob, 1996. - Prigogine, I. y Stengers, I.: La nueva Alianza. Metamorfosis de la ciencia, Madrid, Alianza, 1983. - Ruelle, D.: Chance and Chaos, Princeton University Press, 1991. - Thom, R.: Stabilité structurelle et morphogènese, París, Ediscience, 1972; Parábolas y catástrofes. Entrevistas sobre matemáticas, filosofía y ciencia, a cargo de G. Giorello y S. Morini, Barcelona, Tusquets, 1985. - Woodcock, A. y Davis, M.: Teoría de las catástrofes, Madrid, Cátedra, 1989. - Xuan Thuan, X.: Le chaos et l’harmonie. La fabrication du réel, París, Fayard, 1998.

25

SOBRE LA IMPREDECIBILIDAD EN FÍSICA
Miguel Ortuño Ortín
Comunicación

L

os éxitos de la teoría de Newton fueron de tal magnitud y engendraron tal confianza en la ciencia que se llegó a pensar que todos los fenómenos naturales podrían ser explicados en un período de tiempo relativamente breve. Además, los teoremas de existencia y unicidad de las ecuaciones matemáticas que gobernaban los fenómenos conocidos de la época indujeron al error de pensar que con un conocimiento suficientemente preciso de la situación inicial de un sistema cualquiera (incluido el Universo) se podría calcular su evolución temporal con tanta precisión como se deseara. El conocimiento de las fuerzas entre partículas y de las posiciones de éstas nos permitiría predecir el futuro e incluso determinar el pasado. Un ejemplo típico de esta situación nos lo ofrece la posición de los planetas, que puede ser calculada con una precisión increíble; podemos, por ejemplo, datar hechos históricos a partir de sucesos astronómicos. El exponente más claro de este paradigma mecanicista del Universo fue el matemático y físico francés Pierre Simon de Laplace. La siguiente frase suya expresa elocuentemente dicho paradigma: Un ser inteligente que en un instante dado conociera todas las fuerzas que animan la Naturaleza y las posiciones de los seres que la forman, y que fuera lo suficientemente inmenso como para poder analizar dichos datos, podría condensar en una única fórmula el movimiento de los objetos más grandes del universo y el de los átomos más ligeros: nada sería incierto para dicho ser; y tanto el presente como el futuro estarían presentes ante sus ojos. Termodinámica El primer problema serio a la anterior visión del mundo surgió con el carácter irreversible de las leyes de la termodinámica. Una ley física es reversible si no depende del sentido del tiempo; es decir, si en un instante cambiamos el sentido de las velocidades de la partículas de un sistema sujeto a dicha ley, éste evoluciona hacia atrás deshaciendo exactamente los pasos del movimiento original. Mientras que todas las leyes físicas que describen fenómenos simples son reversibles, la segunda ley de la termodinámica establece una flecha del tiempo. Esta ley nos dice que todo sistema macroscópico aislado tiende a la situación de máximo desorden. La termodinámica se encarga del estudio de los agregados de muchas partículas y trata de conocer sólo algunas magnitudes globales de dichos sistemas, dado que su complejidad no nos permite un detalle mayor de momento. En este sentido, posee un carácter muy distinto al de las otras leyes físicas, que estudian fenómenos simples y tratan de obtener toda la información de los mismos. La física estadística

La Materia

se encarga de deducir las leyes de la termodinámica a partir de las leyes físicas básicas y de un análisis estadístico del problema. Una cuestión clave consiste en dilucidar el origen de la pérdida de simetría temporal. Una primera posibilidad es que existan fuerzas, aún desconocidas, entre partículas cuyas leyes no sean simétricas respecto del tiempo. Recientemente se ha investigado mucho en esta dirección, ya que se trata de una cuestión fundamental ligada también al predominio en el universo de la materia sobre la antimateria. Se han encontrado ligerísimas irreversibilidades en los procesos físicos básicos que, si bien podrían resolver la paradoja del predominio de la materia sobre la antimateria, no pueden explicar la enorme asimetría que establece la segunda ley de la termodinámica. La explicación a esta paradoja que parece más plausible hoy en día es la siguiente. Una situación ordenada corresponde a un número de configuraciones microscópicas tremendamente menor que el de una situación desordenada. A igual energía total, cada configuración microscópica posee la misma probabilidad de aparición. Si consideramos estados macroscópicos, los más desordenados poseen una probabilidad tremendamente mayor que los ordenados. La asimetría temporal de la segunda ley de la termodinámica se debe a la pérdida de información que necesariamente hemos de asumir debido al enorme número de partículas involucradas. Siempre que rehusamos (o no podemos) determinar un problema de forma exacta damos lugar a una impredecibilidad. Un ejemplo típico nos lo proporciona el lanzamiento de una moneda. Se trata de un problema determinista y, de hecho, con pocos grados de libertad o variables. Si midiéramos la velocidad con la que se lanza la moneda y el rozamiento del aire con precisión podríamos decir qué cara saldría. En este problema no existe el azar; se trata simplemente de que decidimos no conocer el problema en detalle. Para medir el grado de desorden de un sistema Boltzmann introdujo el concepto de entropía. Dicho concepto fue extendido por Kolmogorov a los sistemas dinámicos abstractos y representa la mejor medida del grado de desorden de estos. Shannon aplicó el concepto de entropía a la teoría de la información, de forma que este se constituyó en uno de sus pilares básicos.

Mecánica cuántica
La mecánica cuántica supuso una revolución en nuestra concepción de la medida. Al asociar una onda con el movimiento de cada partícula, implicaba no poder conocer simultáneamente la posición y la velocidad de una partícula. Esta restricción quedó recogida en el denominado principio de incertidumbre de Heisenberg, que establecía que el producto del error mínimo en la posición por el error mínimo en la velocidad debía de ser mayor que la constante de Planck, magnitud fundamental en la física moderna. Hasta la fecha no se ha encontrado ni una sola experiencia que viole dicho principio de incertidumbre, que constituye así pues una limitación fundamental, no de carácter tecnológico, sobre la máxima precisión con la que podemos determinar el estado de una partícula. En un instante dado, el estado de una partícula no viene determinado por su posición y su velocidad, como ocurre en la mecánica clásica, sino por su función de onda. La probabilidad de que la partícula se encuentre en un punto es proporcional al cuadrado de la función de onda. El resultado de cualquier medida, y en concreto el de su posición, es siempre de carácter probabilístico. Aunque determinemos el estado de una partícula al máximo posible, nunca podemos determinar con preci27

La Materia

sión el resultado de una medida. Lo único que podemos conocer son las probabilidades de los distintos resultados posibles.

Caos
El concepto de caos clásico ha supuesto una revolución cultural en las últimas décadas. Nos dice que las soluciones analíticas que conocíamos de muchos problemas físicos, descritos por ecuaciones diferenciales, no constituyen la norma general, sino que por el contrario son una excepción. A dichas soluciones les habíamos asociado una importancia excesiva, debido a que eran las únicas que sabíamos resolver y a que nos centrábamos en modelos simplificados que pudieran ser resueltos analíticamente. La mayoría de las soluciones de las ecuaciones diferenciales que describen a la naturaleza no poseen solución analítica y, además, suelen presentar características muy diferentes a las de las soluciones analíticas. Entre dichas características sobresale la naturaleza caótica de las mismas, que conlleva necesariamente a una impredecibilidad del problema, a pesar de que éste sea determinista. En un movimiento caótico la incertidumbre de cualquier predicción crece de manera exponencial con el tiempo de manera que, por pequeña que sea nuestra imprecisión inicial, estamos abocados a no poder determinar con la más mínima confianza ningún suceso para tiempos grandes. Un ejemplo excelente de este tipo de situaciones nos lo proporcionan las predicciones meteorológicas. Este nuevo paradigma de caos clásico ha eliminado gran parte de la predecibilidad de la mayoría de los problemas que por su carácter clásico, no cuántico, aún pensábamos que podíamos resolver con tanta precisión como deseáramos. El caos clásico nos ha ayudado a entender mejor muy diversos tipos de problemas. En un movimiento regular existe una o varias longitudes típicas que caracterizan el problema. Por ejemplo, el radio medio caracteriza la órbita de un planeta. En un movimiento caótico, por el contrario, están presentes todas las longitudes. Esta ausencia de longitudes típicas es característica de los objetos fractales, aquellos cuya dimensión efectiva no es entera, con los que el caos guarda una estrecha relación. Es conveniente señalar de nuevo que el lanzamiento de una moneda no es un problema caótico. Siempre que el rozamiento del aire no sea muy importante, el movimiento de la moneda es predecible, de acuerdo con el grado de error de la determinación del estado situación inicial. El caos no ha cambiado nuestro entendimiento de esta situación. No conocemos el resultado final porque no medimos con precisión la situación inicial, cosa que podríamos hacer sin demasiadas dificultades.

Caos cuántico
La mecánica cuántica evita el comportamiento caótico de muchos sistemas simples debido a que establece, a través del principio de incertidumbre, una longitud mínima que rompe la estructura fractal del comportamiento caótico. Ello hace que las soluciones periódicas adquieran una importancia mayor que en la física clásica. Los síntomas del caos son difíciles de ver en un tratamiento cuántico. Lo primero que se intentó en el estudio del caos cuántico fue determinar rasgos que diferenciaran funciones de onda caóticas y no caóticas. Aunque las funciones de onda (estacionarias) correspondientes a situaciones clásicas caóticas muestran una compleja estructura con picos y depresiones bastante irregulares, en vez de unas
28

La Materia

ondulaciones suaves y regulares, es difícil definir un criterio objetivo que de verdad nos diga si presentan un comportamiento caótico o no. Este problema se ve agraviado por la dificultad de simular la dinámica de paquetes de onda. En mecánica cuántica no se sabe cómo definir de forma adecuada el concepto de entropía, y quizá resida en ello nuestra dificultad de caracterizar en este marco los comportamientos caóticos. Esta falta de una entropía cuántica también afecta a nuestro entendimiento final del problema de la irreversibilidad en física estadística. El análisis estadístico de los niveles de energía se ha convertido en una importante herramienta empírica para la determinación del caos. Paradójicamente, mientras que los niveles de energía de los sistemas clásicamente regulares están distribuidos casi aleatoriamente, los de los sistemas clásicos caóticos siguen una distribución universal (independiente del sistema concreto considerado) bastante más regular. Por último, quisiera señalar la existencia de sugerencias sobre la posible explicación de la mecánica cuántica en términos de caos clásico. No obstante, creo que dichas sugerencias carecen hasta la fecha de la más mínima base científica.

29

La vida

ORDEN Y CAOS: LA VIDA
Javier Moscoso
Taedet animam meam vitae meae dimittam adversum me eiloquium meum1 Victoria, Requiem En tus ojos, vida, he mirado hace un momento F. Nietzsche, Así habló Zaratustra. Comunicación

P

ara la mayor parte de nosotros, la vida es, antes que nada, lo que se opone a la muerte. Las fronteras entre ambos dominios han experimentado, sin embargo, serias variaciones y modificaciones históricas, de las que, entre otras cosas, surgió la necesidad de una medicina forense capaz de atestiguar públicamente la cesación del movimiento, de la sensibilidad, del pulso cardiaco o del impulso nervioso, según las escuelas y las modas. Ya sea que hablemos de la diferencia entre lo vivo y lo inerte, entre lo animado y lo inanimado, entre lo orgánico y lo inorgánico, para el naturalista, para el médico o para el biólogo, la vida ha sido un enigma tan intrincado y polifacético como para los literatos, pensadores y artistas. Sería difícil saber dónde acaba la ciencia y dónde comienza la poesía: Vivir es morirse, decía el médico Bichat; vivir es dolerse, decía el fisiólogo Claude Bernard. La equiparación entre la vida y el dolor, o la vida como la sensibilidad del nervio y la irritabilidad del músculo se desarrolla al tiempo que la vida como vanidad en los cuadros de Valdes Leal, o que la vida como camino de salvación en una conocida doctrina religiosa, o como sueño en Calderón, o como envejecimiento en las Edades de la vida de Durero, o como condena o como trampa. De la vida que se equipara al alma en la fisiología de Stahl, podríamos pasar a la vida como sexo, como erección vital, o a la vida como palabra y como memoria en la obra, por ejemplo, de Marcel Proust. La solución al problema de la vida se nota en la desaparición de ese problema, decía un pensador austríaco en un conocido libro de poemas. Los integrantes de esta sección hemos considerado interesante encuadrar nuestras contribuciones en un marco unificado. Lo que sigue son sólo unas indicaciones sobre el desarrollo de la biología, y no específicamente de la vida, que se completan con algunas, pocas, referencias bibliográficas. Confiamos en que estas notas puedan ser de utilidad a algunos de los asistentes. Lo primero que hay que tener presente es que la “biología” como tal no surge como una ciencia institucionalizada hasta las primeras décadas del siglo XIX, mientras que algunas de sus disciplinas, como la biología molecular, la citología, la etología, la genética o la ecología sólo aparecen de manera desarrollada en el siglo XX. Antes del período clásico la vida era esencialmente una forma de organización
1

Mi alma está· cansada de la vida /y me arriesgo a hablar a pesar de todo.

La Vida

de la materia. A finales del siglo XVII la mecanización de la “imagen del mundo” se había extendido también a la fisiología que, utilizando descubrimientos anatómicos, consideró la digestión como un fenómeno de trituración o la secreción glandular como un tamizado de partículas. La publicación en 1628 de los resultados de Harvey sobre la circulación de la sangre contribuyeron a extender la concepción según la cual todas las acciones corporales podían ser explicadas sin referencias a poderes o facultades espirituales. Hacia 1700, la mayor parte de las explicaciones químicas de la función vital habían quedado reducidas a mecanicismos de corpúsculos o a los análisis más o menos sofisticados de interacciones de materia y movimiento. Esta transposición de la mecánica al ámbito de la fisiología no fue exclusivamente cartesiana, sino que provenía del programa de Borelli en su De motu animalium, o de Friedrich Hoffmann en su Medicina rationale systematica y cristalizó, sobre todo, en la química de Boerhaave que, retomando elementos de la tradición iatroquímica de Sanctorio Sanctorius y Lorenzo Bellini, describió las funciones vitales en términos de movimientos mecánicos e interacción entre partes. Quedó, eso sí, para Descartes el formular una teoría general que describiera la actividad integradora del animal en términos de automatismo. Hacia la mitad del siglo XVIII, naturalistas de muy diversa índole habían comenzado a reclamar una separación más estricta entre lo viviente y lo no viviente, basada en una variable distinta que un diferente nivel de organización. Desde el punto de vista de Buffon, de Blumenbach, de Daubenton, de Vicq d’Azyr o de Antoine-Laurent de Jussieu, la reducción de la materia orgánica a mera res extensa ya no se sostenía y lo viviente parecía consistir en algo más que en una específica disposición orgánica de mayor o menor complejidad. Hacia mediados de siglo, la reducción de la fisiología a la anatomía, de la función a la estructura o del viviente a la máquina parecía haber tocado fondo. Se produce así la primera gran reacción anti-mecanicista en el seno de las ciencias de la vida. Los opositores a la reducción de los procesos vitales a meros procesos físicos proceden, en su mayor parte, de las facultades de medicina de Edimburgo y de Montpellier, esto es: de dos instituciones periféricas. El fisiólogo Robert Whytt, los médicos Lacaze, Bordeu y Sauvages ejercerán una influencia considerable en luminarias de la Ilustración como David Hume, Diderot o Lessing. Pocos de estos vitalistas mantuvieron una posición académica de prestigio. A comienzos del siglo XIX, la biología se encuentra sometida al imperio de la diversidad. La embriología sigue dominada por teorías pre-existencialistas, la zoología por el fijismo, la fisiología, al menos en Inglaterra, por teorías vitalistas. En la primera mitad del siglo, se desarrollan la mayor parte de las disciplinas que componen las ramas de la biología moderna. Lamarck y Treviranus introdujeron el término “biología” hacia 1800. La vida comenzó a entenderse como aquello que compartían las células, los tejidos, los órganos, los organismos, las variedades y las especies. Fue durante la primera mitad del siglo XIX que se desarrolló la embriología con los trabajos de von Baer, que Schwann y Scheleiden crearon una teoría celular, posteriormenente mejorada por Virchow, y que un monje checo, Johann Mendel, trabajando sobre hibridación, descubría las llamadas leyes de la herencia. Mientras tanto, la Naturphilosophie se sintió heredera del Kant de la Crítica del Juicio, en donde el filósofo de Königsberg, siguiendo las teorías vitalistas de Blummenbach, había postulado un principio adicional de causalidad teleológica capaz dar cuenta de los fenómenos del mundo orgánico. Esta Naturzwecke, esta comprensión de los organismos en términos de finalidades, fue también el punto de partida de morfólogos como Karl Friedrich Kielmayer y se extendió durante el siglo XIX a los estudios embriológicos de von Bauer y de Johannes Müller. Hacia 1840, la visión teleológica de la totalidad orgánica recibió una nueva oleada de criticas por parte de un conjunto de científicos mecanicistas agrupados en
32

La Vida

torno a diversos estudios de física orgánica encabezados por las prominentes figuras de Hermann von Helmholz, Emil du Boys-Reymond, Ernst Brücke y Karl Ludwig. Desde el punto de vista de estos nuevos científicos, lo orgánico podía reducirse perfectamente a lo inorgánico. No se encontraron más fuerzas que las físico-químicas presentes en el organismo; solamente había procesos mecánicos, sin espíritus rectores o inteligencias rectrices, la irrompible necesidad, escribía Virchow, de causas y efectos. A estas denuncias se unió la voz del químico Justus von Liebig, que consideró el vitalismo como la gran epidemia, la peste negra del siglo XIX. Dos nuevos frentes se abrieron contra la interpretación holista y vitalista de los fenómenos orgánicos. El primero de ellos fue, obviamente, el mecanismo de selección natural después de la publicación en 1859 del Origen de las Especies de Charles Darwin; y, en el caso de Alemania, la popularización que de la llamada “revolución darwiniana” llevó a cabo el zoólogo Ernst Haeckel. El segundo fue el programa abierto por Wilhelm Roux y su famosa mecánica evolutiva. Fue a finales del siglo XIX y principios del XX que la genética mendeliana de transmisión o reelaborada por De Vries, Tschermak y Corrensó se distinguió plenamente de una genética del desarrollo. Los primeros trabajos importantes en este campo fueron obra de Richard Goldschmidt y del norteamericano Oswald Avery, quien en 1955 consiguió demostrar que el ADN, identificado por Levene y Mori en 1924, era el portador de la información genética. Era el nacimiento de la biología molecular. En 1962, Watson y Crick obtenían el premio Nobel por su descubrimiento de la estructura molecular del ADN.

Algunas recomendaciones bibliográficas.2
Historias de la biología Para un recorrido sucinto de la biología en los siglos XIX y XX, los libros clásicos son los de Colleman, Biología en el siglo XIX, y G.E Allen, Ciencias de la vida en el siglo XX, publicados ambos en los breviarios del FCE. La mejor obra de historia de las ciencias de la vida en los siglos XVII y XVIII, de Jacques Roger, no está traducida al castellano. Este texto puede sustituirse por el de Emile Guyènot, Las ciencias de la vida. México, Uteha, 1956. Sobre ciencias de la vida en el Renacimiento, no hay un solo libro que pueda citarse expresamente. Una buena introducción es M. Grmek, La première révolution biologique, París, Payot, 1990. También es útil la obra de Radl, Historia de la biología, Madrid, Alianza, 1988, 2 vols., aunque, por supuesto, esta obra, como las clásicas de Singer, History of Biology, y Rostand, La formation de l’Ítre. Histoire des idèes sur la gènèration. París, 1930, ha quedado muy trasnochada. Interpretaciones más recientes de la biología en el siglo XIX son las de Timoty Lenor, The Strategy of Life, Dorcdrecht, Reidel, 1982 y Fran›ois Jacob, The Logic of Life: A History of Heredity, New York, Pantheon, 1977 o, para el siglo XX, Richard Lewontin, Biology as Ideology, The Doctrine of DNA, NY, Harper, 1993. Para un examen de la evolución, véase Peter J. Bowler, Evolution. The history of an Idea, California, UCP, 1989. Un libro interesante para el desarrollo de la bioquímica es La historia de la bioquímica, de Faustino Cordón, Madrid, Compañía Literaria, 1997. Sobre aspectos parciales de las ciencias de la vida en el siglo XX, Morange, Histoire de la biologie molèculaire, París, La decouverte, 1994, y A. Pichot, Histoire de la notion de vie, Gallimard, París, 1993.

2

Es posible que algunos de los libros que se citan aquí en su lengua original hayan sido traducidos al castellano.

33

La Vida

Dentro de la sociología de la biología ha habido también contribuciones importantes. podríamos citar las obras de B. Latour, La pasteurización de Francia, publicado en Alianza, y Evelyn Fox Keller, Seducida por lo vivo, Valencia, Fontalba, 1985, pero también podrían incluirse otras obras de Donna Haraway o de Londa Schiebinger, por ejemplo. Filosofías de la biología. La filosofía de la biología, al modo americano, tiene una historia reciente, con reflexiones sobre metodología o epistemología evolutiva. Los clásicos son los libros de Michael Ruse, Philosophy of Biology Today, New York, Suny Press, 1988, David Hull y M. Ruse, Philosophy of Biology, Oxford, OUP, 1998, y Eliott Sober, Philosophy of Biology, Oxford, OUP, 1993. Aun cuando no es exactamente una filosofía de la biología, remitimos también al libro de Ernst Mayer, recientemente traducido al castellano, Así es la biología, Madrid, Debate, 1998. El lector interesado, pero no especialista, encontrará·muchas reflexiones de interés en las obras de S. J. Gould. Otras obras de interés La historia y filosofía de la ciencia francesa ha producido un ingente número de pensadores interesados por las ciencias de la vida, desde Teilhard de Chardin hasta Jacques Monod. Más recientemente, las obras de Michel Foucault, aunque muy discutidas históricamente, constituyen un lugar de reflexión obligatorio. El profesor de Foucault en el Collège de France, George Canguilhem, ha escrito, a decir de muchos, las reflexiones más incisivas sobre la historia de las ciencias de la vida en lengua francesa.

34

LA VIE EN BAS, O LA VIDA COMO DESORDEN EN LA EDAD DE LA RAZÓN
Javier Moscoso
Comunicación
"Mucho le ha ocurrido al concepto de signo al pasar del lenguaje del mèdico a la expresión deliberada, consciente y sobreentendida de la evidencia". (Ian Hacking, El surgimiento de la probabilidad, Gedisa, pág. 66). "Un monstruo es una perversión del orden que garantiza la continuidad de las causas naturales, una ruptura de la virtud, de la salud del pueblo, de la autoridad del rey" Jean Riolan, De monstro nato Lutetiae anno Domini 1605. Disputatio Philosophica, Parisiis, ap. Oliv, Varennauem, 1605, pp. 1-2.

I. Introducción
De los tres conceptos que nos ocupan en la presente sesión de este ciclo de conferencias -el orden, el caos y la vida-, tan sólo el primero de ellos puede legítimamente aplicarse al mundo moderno. La crisis de los conceptos de determinación y causalidad, el desarrollo de la estadística, la aparición de procesos estocásticos en física y en biología, son todos posteriores a la Ilustración. El equivalente del caos, una noción perfectamente extraña a la modernidad, es la desviación, el desorden natural o moral, la perversión ética o política, el salto de la naturaleza, el èclat de la nature. Al menos desde el siglo XIII y hasta el siglo XVIII, los fenómenos físicos son más o menos naturales, no más o menos determinados. Por eso se los clasifica, a partir del libro III de la Summa contra gentiles, en naturales, preternaturales y sobrenaturales. En este contexto sólo nos interesan los segundos: el dominio de los mirabilia, de las singularidades y de los accidentes de los que Aristóteles había negado la posibilidad de una ciencia en el libro VI de su Metafísica Tampoco la vida es un concepto apropiado antes del siglo XIX. Con anterioridad a la obra de Lamarck y Treviranus, la vida se equipara y se confunde con el orden anatómico, con la disposición estructural de las distintas partes. Es por esa razón que la historia natural del período clásico no hablará de seres vivos, como Lamarck, que por primera vez menciona sistemáticamente la expresión étres vivants, sino de cuerpos organizados. Una simetría entre vida y organización que oculta lo viviente en la maquinaria de relojería de la que hablaba Fontenelle y que la anatomía animal y humana, de Borelli por ejemplo, explotará hasta la saciedad. La fisiología no era otra cosa, según la definición que el médico Pierre Tarin ofreció para la Encyclopèdie, que el estudio de la economía animal, el tratado del uso de las

La Vida

partes descritas por la anatomía. “El estudio de la conservación de la vida, [escribió Fontenelle en 1720], pertenece de pleno derecho al campo de la física”. No hay una biología porque no sería una ciencia sin objeto. Siguiendo con la tradición de Santorio Sanctorius y Lorenzo Bellini, el animal continuó representándose como una máquina hidráulica cuyas funciones podían describirse en términos de movimientos mecánicos e interacción entre partes. Es esta correspondencia la que permitió al fundador de la fisiología experimental, Albrecht von Haller, describir en 1747 la nueva disciplina como el galénico usu partium. Salvo que pequemos de anacronismo, no tenemos entonces nada parecido al caos, ni tampoco a la vida antes del siglo XIX. Para desarrollar nuestro tema nos queda pues el orden, y sobre todo el orden anatómico como expresión del orden natural. Ambos posibilitan la preservación del cuerpo fisiológico tanto, por cierto, como la del cuerpo político. Disponemos, por la otra, del desarrollo de una historia preternatural, de una colección de singularidades, de objetos y acontecimientos que se encuentran praeter naturam, más allá de la naturaleza, y cuya reunión antecede al desarrollo de la museística en los gabinetes de Calzolari de Verona o de Ulysses Aldrovandi. Estas singularidades, sin embargo, nos interesan tan sólo en tanto que hayan pasado de ser signos de una ruptura sin parangón del universo normativo a convertirse en evidencias. Evidencia pública desde luego. ¿Pero evidencias de qué? Evidencias de la vida, por supuesto. Pero no de una vida reducida a razones mecánicas o, parafraseando a Leibniz, inteligibles, sino de una vie en bas, según la descripción del médico y naturalista Ambroise Parè: de esa vida más baja que se muestra en el cuerpo desorganizado, en el miembro mutilado, en los disjecta membra de donde surge la idea de normalidad y, por supuesto, de donde nacer· la propia biología.

II. Singularidades como signos o como evidencias
El equivalente epistemológico del caos en el mundo moderno sería la desviación, el desorden; su equivalente ontológico: la singularidad o el accidente. Las personas totalmente ignorantes en filosofía o en historia de las ciencias o del pensamiento suelen representarse las cosas más dispares cuando se les menciona la palabra con la que el mundo moderno se refiere a estas singularidades; como si la palabra “monstruo” pudiera estar ella misma estigmatizada en la modernidad por los referentes cinematográficos o televisivos del siglo XX, como si Pomponazzi, Cardano o della Porta —tres de los grandes filósofos de lo preternatural del mundo moderno— no hubieran existido nunca. Los monstruos, sin embargo, no sólo son individuos deformes, sino cualquier signo de un desorden natural, moral o social. El monstruo se conforma como la respuesta universal a la pregunta quid miras? ¿De qué te asombras?, de la que nacía la ciencia en Aristóteles. Forman el contenido mismo de “la ciencia baja” de la que habla Hacking en El surgimiento de la probabilidad, de la ciencia preternatural que floreció en Europa durante el siglo XVI, son los elementos de esa Academia imaginaria, ideada por Leibniz, que comprendería el estudio de “todo tipo de maravillas ópticas, de animales raros e infrecuentes, de meteoritos y cometas”, es decir, de todo aquello que podía subvertir la cuidadosa regularidad de los efectos y sus causas. Durante el siglo XVII, la acumulación de curiosidades en gabinetes, como la expresión cortesana del gusto por lo exótico, es la antesala de una reforma en historia y en filosofía natural emprendida, sobre todo, por el canciller Bacon y que se refleja en la más importantes de las publicaciones científicas de finales del siglo XVII y de todo el siglo XVIII. Hace falta recordar a quien no lo sepa que el número de artículos relativos a fenómenos preternaturales publicados en las comunicaciones
36

La Vida

científicas de la Académie des Sciences de París y de la Royal Society de Londres se cuentan por los cientos y superan en número a los que versan, por ejemplo, sobre astronomìa o sobre óptica. A esas crónicas, informes y memorias de Sociedades y Academias científicas habrá que añadir además los opúsculos y suplementos de fisiólogos y anatomistas, los capítulos correspondientes de las historias y filosofías naturales y otras muchas obras de eclesiásticos, de juristas, de literatos relevantes o de escritores obscuros. No hay una sola de las grandes figuras de la Ilustración que no haya reflexionado sobre su incómoda presencia: Diderot, desde luego, pero también Voltaire, Rousseau, d'Alembert, Fontenelle, d'Holbach, La Mettrie, Maupertuis, Buffon, por citar sólo a los llamados philosophes. Las historias preternatuales se compran y se venden en las nouvelles à la main a uno y otro lado del Canal: desde la Gazette de France hasta el Gentelman's Magazine, desde el Journal des savants, hasta el Ladies Museum. ¡Y todavía habría que incluir la literatura popular, los almanaques y calendarios, los manuales populares de obstetricia o de comportamiento marital, sus apariciones en los códigos de derecho civil o penal, o los informes de viajeros y su representación iconográfica! No son, desde luego, un fenómeno marginal. Entre el enorme compendio de teratología de Ulysses Aldrovandi publicado en 1642 y la ciencia teratológica de los Geofrroy Saint-Hilaire, entre el Ricardo III de Shakespeare y el Frankestein de Mary Shelley, entre los enanos de Velázquez y los Caprichos de Goya, entre la fisiognomíaa animal de Cureau de Chambre y la fisiognomía humana de Johan Caspar Lavater, los monstruos avanzan, literal y figuradamente, desde la periferia geográfica hasta el centro de la preocupación social y cognitiva. Su doble raíz latina los señala como signo y como admonición. No tiene razón Foucault cuando los describe como elementos de exhibición. El mostruo no es lo que se exhibe, sino lo que muestra. Todavía en el siglo de las luces se contempla la posibilidad de su nacimiento como consecuencia de una transgresión de las leyes del Levítico. La historia y la filosofía de las ciencias nos los describen, sin embargo, como los primeros hechos científicos en la medida en que su reconocimiento involucra la puesta en escena de una comunidad testimonial desconocida hasta la fecha. Si exceptuamos los milagros y los juicios civiles, los monstruos son los primeros fenómenos públicamente atestiguados en sesiones académicas y los primeros materiales con los que se edifican las llamadas ciencias baconianas. Lo que se certifica mediante la comparecencia de notables, o en las sociedades científicas, es sobre todo su existencia. Pero no una existencia cualquiera. Por lo que respecta al tema de nuestra ponencia, el monstruo que Diderot describe en sus Elementos de Fisiología como un ser contradictorio, aquél cuya organización no se ajusta con el resto del universo, sorprende por la confusión entre su viabilidad orgánica y su estructura anatómica aberrante. Lo que realmente asusta no es su diferencia, sino la similitud que mantiene con el organismo normal que lo juzga. La vida del ser desorganizado cuestiona, como ningún otro fenómeno, la reducción de los procesos vitales a la interacción de las distintas partes. Pone en tela de juicio el orden taxonómico y fisiológico que su propia vida contradice. Esta perspectiva que enfatiza el estudio de la estructura anatómica aberrante es la que comparten los trabajos de módicos y anatomistas como Mauriceau, como Jean Mery, como Duverney, quien en 1706 estudia por primera vez el monstruo en tanto que organización vital singular y no por relación a un patrón de formación anatómica. Para quien disecciona al deforme y observa sus características anatómicas en relación con sus más que precarias funciones vitales, si es cierto que hay malfunción, también lo es que es hay una réfontionnalisation en el sentido de la preservación de los procesos de la economía animal de la estructura anatómica aberrante. La monstruosidad es esencialmente viable y si la deformidad está anunciada por las características anormales de su medio de desarrollo, hay también una compensación del viviente a la condición morfológica que posibilita su sobrevivencia. Los monstruos ya no son, ni pueden ser, simples desviaciones, sino
37

La Vida

meras variaciones, excéntricas quizás, de un proceso que no depende de un modelo prefijado, sino del azar de un conjunto de fibras sometidas a cambios y mutaciones; es decir, sometidas a los mismos procesos efímeros que el resto de las criaturas Lo que diferencia la reflexión teratológica del siglo XVIII de la consideración médico-jurídica de la monstruosidad en el mundo moderno es que la primera comprende que la desviación anatómica opera a través de un plan que explica la asimetría morfológica como síntoma de la compensación funcional. Si el monstruo sigue atrayendo la mirada, ya no es como signo y efecto de una conducta contra natura, sino como evidencia de su carácter armónico, de la perfección de su estructura anatómica. En tanto que evidencia, los monstruos ya no son lusus naturae, juegos de la naturaleza, sino experimentos controlados. No tienen, nunca tuvieron, valor en sí mismos, sino en tanto que modelos experimentales de una nueva ciencia de la organización.

III. La vie en bas
La aparición de la vida a principios del siglo XIX responde a la aproximación detenida de la mirada médica, de Xavier Bichat por ejemplo, a la cesación de la vida, a la amputación del órgano vital, en Lèmery, al estudio de la desviación de la ley que rige la formación orgánica, en los Geoffroy Saint-Hilaire. Si para una filosofía natural en la que el ser vivo se presenta como un corps organisé comprender es construir la máquina, en cualquier otra aproximación al viviente en la que su unidad primordial sea cuestionada, la investigación procede exactamente en el sentido inverso: comprender la vida es desmembrar al viviente. Pasamos así en el mundo moderno de las temidas experiencias de Vesalio, de Boerhaave, de De Graff, de Malphigi, a las vivisecciones sistemáticas de Albrecht von Haller, de Robert Whytt, de Tissot, de Unzer y Prochascka. La distancia que separa la filosofía iatromecánica del estudio de la función vital en la segunda mitad del siglo XVIII es la que hay entre la disección anatómica y la vivisección experimental. Una cadena delirante que comienza en los límites de la animalidad, en ese vegetal animalizado que fue el pólipo, la hydra, de Trembley en la década de los cuarenta, y que se extiende progresivamente a todos los animales de forma vermicular por recomendación de Réaumur en 1744; a gasterópodos por los trabajos de Spallanzani en 1765; a las serpientes de Felice Fontana, a los mamíferos superiores de Haller en 1755, a los debates en la medicina termidoriana sobre el arrière-doleur de los guillotinados que tuvieron lugar en 1793 en la Acadèmie Royale de Chirurgie y en el Magazine Encyclopédique. A finales del siglo XVIII, la vida ya no puede confundirse con el resultado del ensamblaje providencial de piezas de la historia natural de Michelloti, por ejemplo, sino que aparece como la potencia o la fuerza, como la facultad de ciertas estructuras a responder activa y unilateralmente a la excitación o al dolor. Para quien ha observado impertérrito durante minutos el ojo de una ternera cuya cabeza había sido separada experimentalmente del resto de su cuerpo, la vida aparece tan sólo como el resultado de la irritación muscular de las partes seccionadas cuando son sometidas a calores excesivos, a corrientes galvánicas o a descargas eléctricas. El auge de la vivisección en la segunda mitad del siglo XVIII, todo lo brutal que se quiera, dirigió la mirada del fisiólogo no al conjunto de la unidad orgánica, sino a la vida particular de cada uno de sus órganos; a la vie en bas que ha dejado ser resultado de la organización y que pasa a ser ella misma principio organizador. Esto comparten el desarollo de la fisiología experimental con los debates teratológicos que inundan las publicaciones académicas del siglo XVIII. Los monstruos nunca fueran estudiados porque fueran únicos o irrepetibles también la Ilustración renegó de la curiosidad que se presenta bajo la forma de stupiditas, sino en tanto
38

La Vida

que resultaban valiosos, o potencialmente valiosos, para investigaciones anatómicas o fisiológicas. Por supuesto que las comunicaciones teratológicas nunca incluyeron los procedimientos experimentales que establecieran reglas metodológicas para la reproducción de estos fenómenos. No hay tampoco teratogénesis experimental en sentido estricto hasta la obra de Camile Dareste en el siglo XIX. Pero la ausencia de replicabilidad no impidió entenderlos como experimentos de la naturaleza y describirlos mediante la misma estructura narrativa que rodeaba cualquier otra práctica experimental. Esa es la razón fundamental por la que no hubo durante el mundo moderno una ciencia de los singular o de lo irrepetible. Pero también es una de las razones por las que la vida pudo presentarse, antes los ojos del fisiólogo o del taxonomista, como un fenómeno complejo en la diversidad de sus producciones e irreductible a la disposición armónica de las partes. Los monstruos, como los cometas, como la piedra de Bolonia, como los fenómenos eléctricos, dejaron de ser signos, y pasaron a convertirse en evidencias. ¿Pero evidencias de qué? La respuesta está· cantada: evidencias de una norma que todavía no es. Si hemos comenzado por Haking, es porque este filósofo de la ciencia comparte nuestra preocupación por la epistemología histórica. El surgimiento de la biología a comienzos del siglo XIX no solamente se sigue de la reflexión teratológica. Otros muchos factores deberían tenerse en cuenta —como el desarrollo de la morfología y de la anatomía comparadas, la preocupación renovada por el concepto de clasificación natural, la profundización en la idea de refuncionalización, o el estudio del registro fósil—, pero ninguno de estos hechos por sí solo explica cómo lo que no es reductible a la organización ha pasado a ser objeto de la mirada penetrante del médico y del naturalista. Lo invisible, la vida, como la enfermedad, lo que en su día fue también un signo de la presencia de un principio inmaterial vegetativo, sensitivo o racional, se ha hecho evidente. La relación entre lo normal y lo patológico, como otras muchas de las oposiciones clásicas del pensamiento, no se resuelve por el establecimiento definitivo de la norma, sino desde el momento en que lo patológico se convierte en un principio normativo.

Bibliografía
Señalo aquí tan sólo algunas, pocas, referencias bibliográficas para el público interesado. En estas referencias no se incluyen las que sirven para apoyar este pequeño texto, que se ha escrito deliberadamente sin notas. -G. Canguilhem: “La monstruosidad y lo monstruoso” en El conocimiento de la vida. Barcelona, Anagrama, 1976. -K. Parkáand L. Daston, Wonders and the Order of Nature: 1450-1750, New York, Zone Books, 1998. -K Parkáand L. Daston: “Unnatural conceptions: The Study of Monsters in 16th and and 17th centuries”, en Past and Present 92 (1981): 20-54. -J. Moscoso: “TeratologÌa e imaginación maternal” en Dynamis, 16 (1996): 465472. -J. Moscoso: “Volkommene Monstren und unheilvolle Gestalten: Zur Naturalisierung der Monstrosit‰t im 18th Jahrhundert”, en M. Hagner, Der falsche Kˆrper. Beitr‰ge zu einer Geschichte der Monstrosit‰ten, Gˆtttingen, Wallstein, 1995. -J. Moscoso: “Monsters as evidence: the uses of the abnormal body during the early 18th century”, Journal of the History of Biology, 31 (1998): 355-382.

39

ALGUNAS CONSIDERACIONES SOBRE LA EVOLUCIÓN GENÉTICA DE LA COMPLEJIDAD ANIMAL
Francisco J. Murillo Araujo

L

a generación de un organismo adulto multicelular, con la enorme complejidad estructural y funcional evidente en muchas especies, a partir de una única célula y mediante el proceso que conocemos como desarrollo, es sin duda uno de los fenómenos biológicos más enigmáticos y fascinantes. No es de extrañar que desde el renacimiento de la Genética, a principios de siglo, muchas investigaciones en esta disciplina científica se enfocaran al estudio de las bases genéticas del desarrollo. Entre otros, un objetivo importante de esas investigaciones era identificar los genes “rectores” de tan complejo proceso y desentrañar su modo de operación. La “Genética del desarrollo” experimentó un impulso definitivo con la identificación del material del que están hechos los genes (un polímero de cuatro tipos distintos de ciertas moléculas conocidas como nucleótidos) y con la aparición de las modernas técnicas de manipulación genética y de análisis celular y molecular. Entre otras aplicaciones, esas técnicas permiten aislar un gen individual, analizar su secuencia de nucleótidos, estudiar la estructura y modo de acción del producto génico correspondiente (normalmente una proteína cuya estructura está determinada por la secuencia de nucleótidos del gen), determinar en qué momento del desarrollo y en qué células del embrión actúa el gen en estudio, o identificar otros genes sobre los que el primero ejerce alguna acción reguladora, o con los que coopera para llevar a cabo una “tarea de desarrollo” concreta. Aún cuando quedan muchos enigmas por resolver, la conjunción de los métodos de la “Genética clásica” y de las modernas técnicas de análisis celular y molecular han servido para incrementar de forma abrumadora nuestro conocimiento sobre el tipo y modo de acción de los genes que regulan el desarrollo de unos pocos organismos escogidos como “modelos”. Es el caso de la mosca Drosophila melanogaster o el pequeño “gusano” (nematodo) Caenorhabditis elegans, pero también de organismos más “complejos” como el pez cebra o el ratón.

La Vida

Un aspecto de particular interés de las actuales técnicas de manipulación genética es que, una vez identificado un gen de un organismo concreto, permiten detectar con relativa facilidad la presencia de un posible gen homólogo en cualquier otra especie, incluso en una especie ya extinguida pero de la que quedan restos fósiles en adecuado estado de conservación. Ello hace posible la reconstrucción de la evolución molecular de genes rectores del desarrollo y su comparación con la evolución paralela de la morfología de los seres vivos. En el caso de los animales, este tipo de estudios está poniendo de manifiesto aspectos de la evolución de la determinación genética de la morfología que hubieran sido considerados bastante sorprendentes hace tan sólo unos años. Quisiera destacar aquí dos de estos aspectos. Uno es la extraordinaria conservación a lo largo y ancho de la evolución de muchos genes del desarrollo y, por tanto, de muchas operaciones moleculares implicadas en la generación de formas o la especialización de las células. El segundo aspecto es el denominado principio del “reclutamiento”, según el cual la aparición a lo largo de la evolución de novedades anatómicas de cierta complejidad no descansa necesariamente en la aparición de novedades genéticas (nuevos genes cuyos productos llevan a cabo novedosas operaciones moleculares) sino en el uso repetido de genes preexistentes y, por tanto, de operaciones moleculares ya conocidas, en nuevas tareas o funciones de desarrollo. Un ejemplo espectacular de la conservación de genes del desarrollo es el de la agrupación Hox. Se trata de una agrupación de genes (varios de ellos dispuestos uno junto a otro) cuya acción, relacionada con el control de la expresión de ciertos otros genes, es responsable del establecimiento del patrón anatómico (“cabezatronco-cola”) visible a lo largo del eje antero-posterior de la mayoría de los animales pluricelulares (metazoos). Las excepciones serían los cnidarios (hidra o coral) y los poríferos (esponjas). Como se aprecia en la figura adjunta, el gen Hox ancestral debió aparecer en la evolución antes de que lo hicieran los primeros metazoos, ya que todos estos, incluyendo los citados poríferos y cnidarios poseen al menos una copia del gen Hox. Los poríferos, sin patrón de formas a lo largo de un eje antero-posterior, poseen sólo una copia del gen Hox. La presencia de un patrón morfológico antero-posterior en los demás animales (todos ellos incluidos en el gran grupo taxonómico denominado Bilateria) ha ido asociada a duplicaciones sucesivas y dispuestas en tándem del gen Hox ancestral. Es evidente la diversidad de estructuras anatómicas que observamos hoy día a lo largo del citado eje en las distintas especies de “bilaterados”, de una sanguijuela a una mariposa, o de un pez al hombre. Sin embargo, en todas esas especies son los mismos genes, los de la agrupación Hox, los que se encargan de la correcta disposición de esas variadas estructuras a lo largo del eje anteroposterior del organismo. La conservación alcanza incluso a ciertos matices de unos genes Hox respecto de otros. Por ejemplo, en todos los animales se encuentran las mismas tres clases de genes Hox: los que actúan en la región anterior del embrión, los que lo hacen en el tronco y los que actúan en la región posterior. Los genes de cada especie que pertenecen a una misma de esas tres clases presentan mayor similitud de secuencia entre sí y ocupan la misma posición física dentro de la agrupación génica completa. Hay que señalar que la aparición de los vertebrados (el gran grupo taxonómico que incluye a peces, anfibios, reptiles, aves y mamíferos) requirió duplicaciones sucesivas de la agrupación Hox completa. Al menos, eso parece deducirse del hecho de que en el resto del mundo animal se encuentre una sola agrupación Hox, mientras que en los vertebrados se encuentran al menos cuatro agrupaciones repetidas, cada una de las cuales contiene genes Hox de las tres clases citadas en el párrafo anterior. Es curioso que algunos peces, como el pez cebra, contengan una agrupa41

La Vida

ción Hox adicional, aunque esta última parece haber perdido muchos genes (véase figura).

La figura representa el árbol de relaciones filogenéticas (relaciones de origen) de algunos grandes grupos de animales metazoos (animales multicelulares). En los extremos de las distintas ramas del árbol aparecen especies concretas, incluyendo las especies “modelo” citadas en el texto. Junto a cada grupo o especie se incluye un esquema de su agrupación de genes Hox. Cada gen Hox está representado por un pequeño rectángulo (un triángulo en las especies en que se conoce la dirección de expresión del gen Hox). Dentro de cada agrupación aparecen en distinto tono los genes Hox de cada clase descrita en el texto (genes de “cabeza, tronco o cola”). (Figura tomada de Finnerty y Martindale, 1988, con algunas modificaciones).

Tres hechos ocurridos a lo largo de la evolución se destacan en un recuadro. Abajo, la aparición del gen Hox ancestral antes de la aparición del primer metazoo. A continuación la duplicación en “tándem” del gen Hox asociada a la evolución de los Eumetazoos (animales que presentan algún tipo de simetría por comparación con los poríferos). Finalmente, más arriba, se destaca la duplicación de la agrupación Hox completa asociada a la aparición de los vertebrados. Como se aprecia en la representación de las cuatro agrupaciones Hox del ratón y el pez globo (cinco en el pez cebra) la duplicación de la agrupación Hox fue seguida de la pérdida de distintos genes Hox individuales en distintas agrupaciones y distintas líneas filogenéticas. Una pérdida similar se produjo en otras líneas filogenéticas, en especial la que condujo al nematodo Caenorhabditis. La situación descrita para los genes Hox puede extenderse a muchos (aunque no todos) de los genes que conocemos como implicados en alguna “operación básica” del desarrollo embrionario. Quizás tal grado de conservación evolutiva no se produzca con aquellos otros genes que actúan “aguas abajo” de esas operaciones básicas; por ejemplo, los genes responsables de que las extremidades de una mosca o las nuestras sean realmente como son. Pero, paradójicamente, el conocimiento ac-

42

La Vida

tual sobre estos genes “realizadores” es mucho más limitado que el de los genes reguladores, y quizás nos esperen nuevas sorpresas. En cierto modo, los datos comentados sobre la agrupación Hox pueden servir también de ejemplo del citado principio del “reclutamiento”. La duplicación, primero del gen Hox y luego, en la línea evolutiva de los vertebrados, de la agrupación Hox completa, demuestra que pueden generarse novedades morfológicas sin “inventar” genes novedosos, sino mediante la “reiteración”, similar en cierto sentido al reclutamiento, de la misma función molecular básica. Aunque es cierto que la duplicación de un gen, si bien no supone la aparición de una operación molecular nueva, posibilita la aparición por evolución de nuevos matices en dicha operación, como pueden ser cambios en las interacciones con otros genes, o cambios en el momento y dominio preciso del embrión en que se produce la acción del gen duplicado. Casos más claros de reclutamiento son el uso repetido de genes individuales durante el desarrollo de un organismo concreto. Este fenómeno ha sido ampliamente demostrado en el desarrollo embrionario de los animales “modelos” citados anteriormente. Por citar sólo un ejemplo, podemos hablar de un gen llamado “Notch”. La proteína determinada por este gen constituye un elemento esencial de una ruta de “señalización” intercelular. Una ruta de este tipo consiste en una cadena sucesiva de interacciones moleculares dentro de una célula que es iniciada por una “señal” generada en una célula vecina. Como consecuencia, la célula “estimulada” sigue un “destino de desarrollo” distinto del que hubiera seguido en ausencia de la señal. Sabemos que durante el desarrollo embrionario de la mosca Drosophila el gen “Notch” (y otros genes que participan en la misma u otra ruta de señalización) actúa en distintas fases y en zonas distintas del embrión, mediando varias “señalizaciones” entre células vecinas, aunque las señales y las repuestas de las células sean distintas. La misma situación se produce, además, con el gen homólogo de Notch del nematodo Caenorhabditis o de los vertebrados. La utilización repetida del mismo gen durante el desarrollo embrionario puede también ser sometida a análisis filogenético. En algunos casos, ello ha permitido rastrear la función morfogenética ancestral del gen y determinar en qué momentos de la evolución fue produciéndose su incorporación sucesiva a nuevas tareas de desarrollo, de forma que al final (hoy día) haya acabado por tener distinto número de tareas de desarrollo (distinta “carga de trabajo”) en distintos grupos taxonómicos. Estudios como el descrito parecen demostrar que el origen de muchas novedades morfológicas descansa, al menos en parte, en la adquisición de nuevos “roles” por parte de genes preexistentes. Como el zapatero remendón, o los que nos dedicamos al “bricolage” casero, la evolución no puede permitirse el lujo de generar nuevos ingenios, diseñados “de novo”, desde el principio, para un funcionamiento óptimo, sino que, en buena medida, construye nuevas formas con los materiales que tiene a mano. Los resultados de la evolución tienen, pues, las limitaciones y restricciones que imponen esos materiales. Lo cual no es sino un motivo adicional para admirar la asombrosa variedad de formas, funciones y comportamientos que manifiestan los productos de tal “chapuza” evolutiva, al menos aquellos productos que el Homo sapiens no ha exterminado todavía.

Bibliografía
Las ideas que aparecen aquí, en nada originales, están expuestas de forma más completa en las referencias que se citan a continuación. Pido disculpas porque todas

43

La Vida

ellas están en idioma extranjero, pero no he sabido encontrar ninguna referencia apropiada en castellano. -Duboule, D. Y Wilkins, A. S. (1998): “The evolution of ‘bricolage’, Trends in Genetics, vol. 14, pp. 54-59. -Finnerty, J. R. y Martindale, M. Q. (1998): “The evolution of the Hox cluster: insights from outgroups”, Current Opinion in Genetics and Development, vol. 8, pp 675-680. -Jacob, F. (198l):Le jeu des possibles. Essai sur la diversité du vivant, Libraire Arthème Fayard. -Shubin, N. ,Tabin, C.y Carroll, S. (1997) “Fossils genes and the evolution of animals limbs”, Nature, vol. 388, pp 639-648 -Wray, G. A. y Abouhcif, E. (1998): “When is homology not homology?”, Current Opinion in Genetics and Development, vol. 8, pp 681-687.

44

BIODIVERSIDAD, CRISIS Y COMPLEJIDAD
Miguel A. Esteve Selma
Comunicación

L

a biodiversidad o diversidad biológica comprende el conjunto de organismos vivos, comunidades y sistemas ecológicos, y sus correspondientes contenidos genéticos, presentes en una parte o la totalidad del planeta. A pesar de la gran aceptación social del concepto y los avances de la ciencia, se desconoce el número exacto de especies existente en la actualidad, incluso su orden de magnitud. Si nuestra especie dedicase un suficiente esfuerzo científico a esta contabilidad, el millón setencientas mil especies descritas hasta el momento -sin contar las descritas ya como extintas- podría duplicarse -previsión muy conservadora- o multiplicarse por treinta o más, según diferentes estimaciones. Esta incertidumbre afecta sobre todo a los organismos de menores dimensiones, especialmente microorganismos y animales invertebrados. Lógicamente, la diversidad biológica está en todas partes pero no en la misma cantidad. La mayor parte de la diversidad de plantas y animales se acumula en ciertos biomas o conjuntos de ecosistemas. Los ambientes tropicales -arrecifes de coral, selvas, humedales y sabanas- acogen al menos un 40% del total de la biodiversidad planetaria. Los archipiélagos oceánicos cálidos también son importantes reservorios de especies endémicas o de muy limitada distribución, de edad evolutiva muy dispar. Los ecosistemas mediterráneos, en cuanto a flora, suponen hasta un 10% de toda esta riqueza de la biosfera. Razones de estabilidad y alta producción, aislamiento o heterogeneidad y rigor ambiental, en cualquier caso, estos tres grandes tipos de sistemas han acumulado un capital muy notable de formas vivas propias que supone un importantísima reserva de intangibles valores ecológicos y económicos. Nuestro entorno mediterráneo árido más inmediato, a pesar de su aspecto estéril y poco atractivo bajo un prisma convencional, forma parte de esa constelación de hábitats privilegiados por su biodiversidad, y la próxima red europea Natura 2000 supondrá un reconocimiento explícito de esta realidad. En la presente era geológica parece darse el máximo número de especies existente simultáneamente en nuestro planeta, aunque esto suponga únicamente la milésima parte de las especies ya extinguidas. No obstante, la erosión genética, resultado de una extinción de especies y variedades muy acelerada, parece ser la característica más definitoria de las últimas décadas. Efectivamente, aunque existe una pérdida por razones naturales o extinción de fondo, la actual es atribuible esencialmente a la actividad humana en forma de exterminio directo, rotura del aislamiento biogeográfico y alteración del hábitat, resultando una tasa de 100 a 1000 veces más elevada que la que se calcula para los momentos más críticos entre eras geológicas, con extinciones masivas como cuando desaparecieron los dinosaurios, en la transición del Cretácico al Terciario. Se estima una extinción probable de 50 a 250 espe-

La Vida

cies diarias, aunque su valor real depende fundamentalmente de: i) las estimas del total de especies, ii) los distintos escenarios de deforestación de los bosques tropicales y de sus pautas de fragmentación y iii) de las perspectivas de conservación de determinadas áreas ricas en megadiversidad biológica. En cualquier caso, la tasa actual de extinción sobrepasa en más de 100.000 veces la extinción de fondo esperable en condiciones normales. Estas tasas nos sitúan en la sexta gran extinción sufrida por la biosfera y renueva el interés por comprender la lógica de las cinco ocasiones anteriores en las que la complejidad de formas vivas fue simplificada traumáticamente. El debate científico actual se extiende a múltiples facetas de estos cinco procesos de extinción masiva y de otros muchos de menor entidad y más frecuentes -unos 15-, pero fundamentalmente se centran en las causas externas e internas que explican las extinciones masivas y en las consecuencias evolutivas de estos periodos y sus fases inmediatamente posteriores. Se han buscado regularidades en las características propias de los periodos de crisis biológica, su aparente periodicidad -cada 26 millones de años ocurre una gran extinción-, los fenómenos físicos implicados -movimientos tectónicos y vulcanismo, regresiones marinas, anoxia en los océanos, cambios climáticos severos, cambios magnéticos, etc.-, y los posibles agentes externos desencadenadores: aumentos en las radiaciones -erupciones solares, supernovas-, caída de meteoritos y otras perturbaciones cósmicas. Resulta relativamente sencillo relacionar episodios de extinción catastrófica aparentemente recurrentes con la regularidad de la dinámica astronómica. Pero ni siquiera las extinciones consideradas más súbitas ocurren en el plazo lógico de una única perturbación, por muy potente que ésta sea. Las causas más probables han de ser múltiples y se extienden a periodos del orden del millón de años. En una extinción masiva típica puede haber un detonante extraterrestre pero las causas directas suelen abarcar distintos cambios sustanciales en la composición y dinámica de las capas fluidas de la Tierra, además de un vulcanismo intenso y otros fenómenos importantes de la corteza terrestre, resultando muy difícil determinar el papel protagonista de cada uno de ellos. En cualquier caso, toda gran extinción en masa debe afectar gravemente tanto a la biodiversidad marina como a la continental, y especialmente a los ecosistemas tropicales. Otra simplificación habitual es asociar una gran extinción con un gran cataclismo, como si las consecuencias biológicas tuvieran una reacción lineal sencilla con la intensidad del impacto o la catástrofe -la caída de un meteorito de grandes dimensiones, por ejemplo-, otorgando a la naturaleza un papel esencialmente pasivo en la dinámica de la catástrofe. Existe, efectivamente, una relación inversa entre intensidad y frecuencia en las perturbaciones de distintos tipos, como puede observarse, por ejemplo, en la faz de la Luna si analizamos el número de cráteres de diferentes tamaños, lo que conviene a la lógica de las extinciones masivas: unas pocas grandes asociadas al impacto de grandes meteoritos y un número mayor de pequeñas causadas por otros de menor tamaño. Pero la naturaleza es enormemente más compleja que una suma, sin más, de actores evolutivos en un marco físico inerte. La comprensión cada vez más profunda de la naturaleza como un sistema dinámico adaptativo está redefiniendo su papel en estos fenómenos de extinción masiva, así como en otros muchos relacionados con la organización ecológica de las comunidades o con la biología evolutiva en general. Son las interrelaciones múltiples y complejas que se establecen entre las miles de especies existentes en cualquier ecosistema de tamaño medio, entre sí y con su medio físico interactuante y multifactorial, las que descartan cualquier respuesta lineal ante la perturbación o el
46

La Vida

cambio, dotando al sistema de un orden complejo que le sitúa en el límite del caos. Las restricciones impuestas para la construcción de una comunidad biológica pueden ser simples en lo profundo y, sin embargo, desarrollar una organización emergente de comportamiento complejo ante el cambio, e incluso ante la estabilidad, en la que la estricta contingencia histórica tiene un papel relevante. Una naturaleza organizada hasta el límite del caos puede amplificar o minimizar, según las circunstancias, cualquier suceso externo que la perturbe e, incluso, generar ella misma fluctuaciones o cambios de considerable magnitud que precipiten en procesos de extinción catastrófica. El comportamiento no lineal y complejo de los ecosistemas invita a olvidar manidos tópicos sobre el equilibrio de la naturaleza o una naturaleza bajo un orden cartesiano, y a construir, consecuentemente, nuevas concepciones anti-intuitivas donde estos sistemas naturales a pesar de estar sometidos a reglas que pueden considerarse sencillas se expresan con una complejidad desconcertante y, habitualmente, impredecible, en la que únicamente es posible hablar de metaestabilidad. Bajo esta concepción no es imprescindible buscar agentes externos para las crisis biológicas, agentes cuya participación puede haber sido más ocasional, secundaria o complementaria de lo que actualmente se cree. La especie humana, como un actor interno de esta naturaleza, parece empeñada en demostrar que se basta ella sola para exterminar en las próximas décadas a un 50 % de toda biodiversidad planetaria actual. La biosfera tardará en recuperarse varios millones de años -de dos a cinco por lo normal tras una gran extinción-, un tiempo suficiente para que nuestra especie sea, entonces, un simple fósil más.

Bibliografía
-Agustí, J. (Ed.) (1996): La lógica de las extinciones. Metatemas, 42. Tusquets Editores. Barcelona. 227 pp. -Alvarez, W. (1998): Tyrannosaurus rex y el cráter de la muerte. Crítica. Barcelona. 201 pp. -Leakey, R. y Lewin, R. (1997): La Sexta Extinción. El futuro de la vida y de la humanidad. Metatemas, 50. Tusquets Editores. Barcelona. 296 pp. -Lewin, R. (1995): Complejidad. El caos como generador del orden. Metatemas, 41. Tusquets Editores. Barcelona. 243 pp.

47

TOMANDO A DARWIN EN SERIO
Enrique Ujaldón.
Comunicación

E

l tema que nos reúne aquí esta tarde es la “vida”, dentro de lo que esta Semana de Filosofía llama las “Ciencias de la Complejidad”. Cuando se habla de “Ciencias de la complejidad” la reacción mayoritaria es preguntar ¿y qué es eso? Desde luego, podemos formular muchas preguntas: ¿Por qué en plural? ¿No sería más bien el caso que todo el problema del caos y la complejidad no es si no una prometedora rama de la matemática, con lo que el hablar de “ciencias de la complejidad” es más bien confundente? La organización misma de la semana está basada en que el problema de la complejidad no es solamente matemático. Pero una cosa es que la complejidad, signifique lo que signifique, no se reduzca a matemáticas y otra que nos permita hablar como si estuviesen naciendo unas nuevas ciencias que viniesen a sustituir a nuestras antiguas conocidas, la física, la biología, la sociología y demás. ¿Se está produciendo una revolución científica, como algunos pretenden, de tal modo que estén cambiando nuestras concepciones científicas tradicionales, haciendo obsoleta nuestra división tradicional de los saberes? Desconozco la respuesta, pero es innegable que estamos en un período de los que Kuhn llamaba de “crítica de los fundamentos” pero ello no equivale a afirmar que vayan a desaparecer ni nuestros conceptos científicos ni menos aún nuestra división del saber. De todos modos, estamos aquí no para hacer ciencia, sino para hacer especulación, filosofía y, asumiendo los riesgos que ello comporta, en lo que sigue “pondré sobre la mesa” algunas cuestiones que creo que están en el corazón del debate intelectual sobre el famoso orden y caos. Los pasos a seguir son tres. En primer lugar exponer de forma esquemática a qué resultados de tipo conceptual nos conducen los avances en física, biología, meteorología, matemáticas, sociología, etc., de los últimos treinta años y que se suelen agrupar bajo la etiqueta de “caos”. En segundo lugar, defender una cierta versión del reduccionismo, la idea de que hay ciencias y explicaciones más básicas que otras, así por ejemplo la física sería más básica que la biología, y la biología más básica que la sociología; y, en último término, las explicaciones de las ciencias menos básicas deben ser compatibles con las explicaciones de las ciencias más básicas. Los desarrollos de la ciencia en las últimas décadas, especialmente lo que tiene que ver con la complejidad, apoyan esta idea, pero mantengo que su valor es independiente de los resultados alcanzados por la ciencia en un momento dado. En tercer lugar, analizar todo lo que ello significa para el concepto de vida, para la biología como ciencia y algunas consecuencias para las ciencias sociales. La complejidad: los cambios conceptuales. Podemos resumir los conceptos tradicionales sobre el funcionamiento de los diferentes sistemas en tres ideas:

La Vida

Los sistemas simples se comportan de manera simple. En tales sistemas, el problema es dar con los mecanismos, las leyes, que los explican, y a partir de ellas, el comportamiento del sistema sería totalmente determinista. El comportamiento complejo implica causas complejas. Así habrá sistemas en física, biología o ciencias sociales donde el número de variables intervinientes y la imposibilidad del control experimental de todas ellas, darán lugar a sistemas inestables y, por consiguiente, impredecibles. Diferentes sistemas se comportan de manera distinta. Los mecanismos explicativos de un sistema ecológico, la formación de las nubes o el movimiento de la bolsa, tendrán que ser necesariamente diferentes puesto que el comportamiento de unos nada tiene que ver con el comportamiento de los otros.

Desde este punto de vista, la diferencia entre simplicidad y complejidad es práctica. Los sistemas simples son aquellos en los que podemos controlar experimentalmente todas las variables y predecir, por tanto, su comportamiento. Los sistemas complejos son aquellos en los que el número de elementos intervinientes nos impide en la práctica controlar experimentalmente todas las posibles variables. La diferencia entre sistemas simples y complejos no se situaría en la naturaleza, sino en nuestras limitaciones cognitivas. Pues bien, quizás los más importantes cambios conceptuales a los que nos forzarían las investigaciones sobre el caos se pueden resumir en defender lo contrario de lo que se afirma en las tesis anteriormente citadas. Ahora sabemos que ciertos sistemas simples se comportan de manera compleja, y además sin azar. Y al contrario, que sistemas complejos pueden comportarse de modo sencillo. Pero lo más interesante es que lo que algunos vienen denominando “leyes de la complejidad” son válidas independientemente de los detalles de los átomos que configuran el sistema. Un buen ejemplo de esto pueden ser las aplicaciones de los fractales a cosas tan diferentes como el movimiento de las nubes, a la configuración de los vasos sanguíneos y otras áreas de la fisiología humana. 3. El sueño de la ciencia unificada. La filosofía y la ciencia, entendidas como copartícipes en lo que algunos llaman “la empresa del conocimiento” han considerado como uno de sus objetivos básicos el dar una explicación unificada de la realidad. Sin embargo, desde Dilthey muchos filósofos piensan que tal objetivo es imposible de alcanzar porque para unos no hay una realidad que explicar sino muchas, y para otros hay al menos dos, la natural y la humana que son esencialmente diferentes y que exigen instrumentos conceptuales y principios explicativos diferentes. Pero no suele pensarse sólo que es imposible, sino también que, de poderse conseguir, sería algo malo. Equivaldría a una deshumanización del mundo moralmente perniciosa. Así que, cualquier intento de dar una explicación de un fenómeno que pertenece al ámbito explicativo de una ciencia desde otra ciencia considerada más básica o de más bajo nivel explicativo es sospechoso de reduccionismo y, en términos generales, tal pretensión levanta las sospechas de científicos y filósofos. No vamos a negar la necesidad de la especialización en la ciencia: La producción de conocimiento es ya indesligable del estudio pormenorizado de pequeñas áreas de lo real que son sometidas a análisis cuidadoso. Lo que sí debemos señalar es que la especialización es una necesidad pragmática. Su existencia no prueba la idea de que las diferentes ciencias y subciencias refieran a tipos de entidades diferentes que necesiten tipos de explicaciones diferentes.
49

La Vida

¿Qué entiendo aquí por reduccionismo? Normalmente la idea del reduccionista es que unas ciencias se pueden o deben reducir a otras, así, por ejemplo, la química se reduce a física, la biología a química y las ciencias sociales a biología. Pero, si con ello nos referimos a que las ciencias de más alto nivel explicativo, por ejemplo, la biología en relación con la química, deben abandonar sus principios, teorías, vocabulario o leyes en favor de las ciencias de más bajo nivel entonces no merece la pena discutir tal posición por absurda. Si, por el contrario, con el término reduccionismo nos estamos refiriendo a la pretensión de que las diferentes ciencias sean en último término compatibles y que todas ellas colaboren en una explicación del mundo coherente, entonces creo que el reduccionismo forma parte del corazón mismo de la empresa científica. En este sentido, la intervención que voy a desarrollar puede ser calificada de reduccionista. 4. La idea peligrosa de Darwin. 4.1. La evolución como un proceso algorítmico. Podemos entrar entonces en la tercera parte de la exposición, ¿qué consecuencias tiene todo lo dicho para el concepto de “vida” y para la biología? Para responder usaré algunas de las ideas desarrolladas por el filósofo norteamericano Daniel Dennett en su libro, de 1995, Darwin´s dangerous idea (que podríamos traducir como La idea peligrosa de Darwin). De acuerdo con Dennett, la “idea peligrosa de Darwin” es que éste habría descubierto que la vida en la Tierra, y toda la diversidad biológica, ha sido generada por un proceso algorítmico. El gran mérito de Darwin habría sido el descubrir el poder de un algoritmo o, con más exactitud, un conjunto de algoritmos correlacionados. Un algoritmo, como todos sabemos, es un procedimiento formal y mecánico que garantiza que, siguiendo las reglas especificadas, se alcanzan determinados resultados. Así, el poner las palabras en orden alfabético es un algoritmo. Los programas de los ordenadores son algoritmos, pero también lo son los torneos de tenis. Podemos señalar tres rasgos fundamentales de los procesos algorítmicos: • • El poder del algoritmo es de tipo lógico y por tanto es independiente del tipo de materia en donde se lleve a cabo. Si bien el diseño del algoritmo puede ser extremadamente inteligente, una vez formulado el procedimiento es en sí mismo muy simple, tan simple como para que para ser realizado mecánicamente. Los resultados están garantizados por el procedimiento algorítmico, si es realizado correctamente.

La teoría de la evolución por selección natural concebida como un conjunto de algoritmos es la idea peligrosa de Darwin. Una consecuencia obvia de lo dicho hasta ahora es que las ideas de Darwin sobre el poder de la selección natural pueden ser separadas de la biología, puesto que el poder de un algoritmo es independiente del tipo de materia a la que se aplique. Ello explica que el darwinismo haya sobrevivido a más de un siglo de investigación sobre los mecanismos de la herencia, que están en la base de la evolución. Toda la vida sobre la tierra es el resultado de procesos algorítmicos ciegos. 4.2. El surgimiento de la vida. Todos los intentos de aplicar tesis darwinistas fuera del campo mismo de la evolución suscitan sospechas cuando no el rechazo directo de la mayor parte de los
50

La Vida

científicos y filósofos, pero si no aceptamos que los procesos darwinianos se aplican a lo no vivo, entonces no tenemos manera de explicar el surgimiento de la vida dentro del esquema explicativo darwiniano. La vida se convierte en algo milagroso, imposible de definir, esencia elusiva, dato bruto del que parte el trabajo del biólogo. Si no aceptamos esta forma de misterio en lo existente, entonces la única opción es pensar que lo vivo se originó de formas no vivas justo en el mismo sentido en que se originan el resto de las formas vivas. Una breve digresión acerca del concepto de especie me permitirá explicar mejor lo que quiero decir. El concepto de especie forma parte del vocabulario corriente de este final de milenio. Y el uso que de él se hace, justificable por motivos pragmáticos, es fuente de algunos malentendidos. Así muchas personas suelen pensar en todos los individuos de una misma especie como compartiendo algún tipo de propiedad esencial que los caracterizaría como miembros de esa especie frente a otras características accidentales. Esta idea remite a las formas platónicas y está implícita en la clasificación de los animales predarwiniana y que sigue vigente en gran parte en nuestros días. Después de Darwin, tal concepción es insostenible. Sin pretender entrar en el problema de la especiación, debemos señalar algunas cosas. Es imposible encontrar una correcta definición de especie en el sentido de que, sea cual sea la forma viva que elijamos, podamos clasificarla dentro de una especie u otra sin posible duda. Por citar un ejemplo famoso, ¿sería posible, en un viaje a través del tiempo, encontrar sin lugar a dudas a la primera jirafa? Una búsqueda tal es absurda. Las especies cambian a través del tiempo y cuando se dan una serie de factores, como aislamiento, o acumulación de cambios, entonces hablamos de nuevas especies. Así como es absurdo buscar la primera jirafa, es absurdo buscar la primera forma viva. Parece claro que somos capaces de determinar que una piedra no está viva y que nosotros lo estamos, pero cuando vamos explorando las formas intermedias nos damos cuenta de que hay formas que dudamos en calificarlas como vivas o no. La vida no es una esencia. ¿Cómo se produjo entonces lo que retóricamente llamamos “el milagro de la vida”? Evidentemente, de manera no milagrosa. No conocemos con exactitud cuál sea la respuesta, pero ésta parece encontrarse en ciertos elementos químicos capaces de replicar su estructura una y otra vez en un medio propicio, tal y como hacen, por ejemplo, los cristales. Exponiendo entonces el problema muy rudamente, el éxito de la autorreplicación de un compuesto químico dependerá del uso que haga de los elementos que necesita y que se encuentran en su medio. Ese compuesto se haya entonces situado en medio de un proceso de selección natural que cuando alcanza un nivel determinado de complejidad es más útil calificarlo como de forma viva. 4.3. Replicación y selección. Tenemos entonces ya el algoritmo o algoritmos que habría descubierto Darwin: todo aquello que es capaz de generar una réplica de sí mismo está sometido a un proceso de selección natural puesto que el éxito de la réplica dependerá del uso que haga de los elementos que se encuentran en el medio, elementos que en numeras ocasiones son disputados por todos los demás que también buscan replicarse. En ese proceso de replicación se producen errores, la mayor parte de ellos inocuos, algunos letales, pero también se producen errores que ofrecen nuevas posibilidades, errores que introducen cambios en el organismo que son beneficiosos en relación con el número de copias de sí mismo que un organismo puede dejar. Pero el proceso de selección natural no se aplica sólo hacia atrás, sino que también se aplica hacia delante. La distinción entre selección natural y selección artificial es, desde este punto de vista, difícilmente sostenible. Los seres humanos somos tan parte del proceso natural como las hormigas y las relaciones que establecemos
51

La Vida

con nuestras ovejas o perros no son, desde el punto de vista evolutivo, diferentes a las que cierta clase de hormigas establecen con sus pulgones. Y tan insostenible como es la distinción entre selección natural y artificial lo es la distinción entre productos naturales y artificiales (y aquí imagino que la argumentación tendría que ser mucho más elaborada para convencer a mi auditorio). Los productos artificiales son fruto de un diseño intencionado. Nuestros artefactos están construidos con un fin. Los seres naturales no están construidos con ningún diseño intencionado, pero sí pueden ser contemplados como artefactos, como máquinas construidas para vivir en ciertos ambientes. Si tomamos en serio esta idea, la consecuencia es que la biología es entonces ingeniería. Es el estudio de mecanismos funcionales, su diseño, construcción y formas de operar. Y ello no es más que el resultado de contemplar el adaptacionismo como el corazón de la teoría de la evolución. 4.4. El adaptacionismo. En los últimos años prestigiosos genetistas como Richard Lewontin y paleontólogos como Stephen Jay Gould han criticado el adaptacionismo. La crítica en resumen se basa en la idea de que el adaptacionismo es un fácil recurso para el investigador que sólo tiene que inventarse una historia que sea creíble para explicar la evolución de cualquier cosa. Paradójicamente, la crítica es certera pero injustificada. Es certera porque es verdad que puede ser un recurso fácil que sirva casi para cualquier cosa, como algunos ejemplos de lo que se ha dado en llamar “psicología evolutiva” parecen mostrar. Pero es injustificada porque una cosa es que el adaptacionismo pueda ser mal utilizado y no sea una explicación válida para todos los casos y otra es que tengamos alguna opción alternativa para explicar la diversidad y la variabilidad de las formas vivas. Así aceptaremos que el adaptacionismo es la consideración de los organismos como máquinas adaptativas complejas cuyas partes tienen funciones adaptativas subsidiarias dentro del conjunto del organismo. Lo que esto quiere decir, entre otras cosas, es que nosotros no podemos abandonar el punto de vista funcional aunque descendamos del nivel explicativo del ecosistema, al organismo individual o a su dotación genética. Con ello no estamos diciendo que todos y cada uno de los rasgos de todos y cada uno de los organismos sean resultado de una adaptación. Sabemos que el proceso evolutivo está constreñido por la física; sabemos también que ciertos rasgos son el resultado de desarrollos más generales; y por último, sabemos que ciertos rasgos son subproductos de otras adaptaciones. Pero una cosa es negar que todas las características sean adaptativas y otra, muy diferente, es negar que todas las características sean el resultado de la selección natural. Esta segunda posición es la que mantenemos aquí. Ahora bien, ¿cómo es posible hacer compatible que la evolución sea un proceso algorítmico si los algoritmos lo son para producir un resultado particular, con el rechazo de la teleología en la naturaleza y con la existencia de una exuberante diversidad de formas de vida producidas en procesos que incorporan grandes dosis de azar? La respuesta se encuentra en comprender que un algoritmo, para serlo, no tiene por qué producir un resultado particular, lo que garantiza es que el resultado se encuentra. La evolución en la cultura. Una correcta intelección del concepto de evolución nos debe conducir forzosamente a admitir que el concepto tradicional de cultura, como algo opuesto a la naturaleza, es insostenible. Las distintas formas humanas de vivir y los productos generados por el hombre son tan fruto de la selección natural como los nidos de los pájaros, los termiteros o las presas de los castores. Lo que algunos llaman “cultura” co52

La Vida

mo algo que nos “saca” de la naturaleza y nos diferencia del resto de los animales no es más que los distintos modos en que los hombres se han adaptado al medio. Decíamos más arriba que la selección natural en cuanto que algoritmo es independiente del medio en que se aplique. Ello muestra lo estéril del debate sobre cuál es el verdadero sujeto de la evolución, si los genes, los organismos, las especies o incluso los ecosistemas como conjuntos. Todos ellos pueden serlo, porque no hay un verdadero sujeto de la evolución, si bien los diferentes niveles explicativos deben ser finalmente compatibles. También, por ser el proceso de selección natural independiente del medio en el que se aplique, es perfectamente extensible a lo que llamamos el mundo de la cultura. Si la existencia de algunos productos típicamente humanos depende de que sean capaces de replicarse, de reproducirse, entonces los algoritmos evolutivos no pueden no aplicarse. Si consideramos los productos del hombre como finalmente semánticos, en el sentido en que un artefacto se fabrica, se elabora o se piensa porque alguien tiene la idea de que tal producto es necesario o útil, entonces podemos pensar que los productos culturales son esencialmente ideas cuya existencia depende de su capacidad de replicarse, de reproducirse, de encontrar, finalmente, mentes que las alberguen. Pues bien, la idea peligrosa de Darwin, aplicada en este caso es que el poder de expansión de una determinada idea depende de que se replique bien. Todo esto puede sonar absurdo, sobre todo si pensamos que por un lado están las ideas y por otros estamos nosotros, los sujetos conscientes que albergamos las ideas. Pero esto es otra falsa idea, por cierto, con un extraordinario poder de replicación. En realidad nuestra mente es, nosotros somos, las ideas que albergamos, y no en un sentido metafórico. Ello nos conduce a nuestro siguiente eslabón: la psicología es también una ingeniería. La mente no es algo misterioso en el sentido de un objeto cuya naturaleza no pueda ser finalmente desvelada, sino una herramienta o conjunto de herramientas. Biología, psicología e ingeniería son ciencias diferentes con diferentes objetos de estudio, metodologías, conceptos, teorías, etc. Pero ello no impide que en las tres podamos encontrar procesos subyacentes de carácter similar, y un buen ejemplo de ello es precisamente la idea peligrosa de Darwin. Y lo que prueba tal idea es que, por un lado, no hay diferencias esenciales entre los seres humanos y el resto de los animales, y por otro, tampoco la hay entre nosotros y el resto de las máquinas. Pensemos en los programas de ajedrez para ordenador. Muchas personas creen que los ordenadores juegan al ajedrez, y ganan, porque tienen todas las posibles jugadas. Y que, en cualquier caso, su modo de jugar al ajedrez es esencialmente diferente del modo humano de jugar al ajedrez, porque el ordenador sólo aplica reglas, sólo sigue algoritmos. Pero esto es justamente lo que hace un jugador de ajedrez. Ningún programa de ordenador para jugar al ajedrez garantiza que éste vaya a ganar, lo que debe garantizar es que está programado para jugar legalmente al ajedrez. Esto es, no hay ningún algoritmo que garantice la victoria en el ajedrez, si lo hubiera el ajedrez perdería su gracia, pero ello no equivale a decir que ganar al ajedrez no equivale a aplicar un algoritmo. En el mismo sentido, no hay ningún algoritmo que garantice que la vida o el ser humano tenían que existir, pero eso no significa que ambos no sean el resultado de procesos algorítmicos. Conclusión. Como conclusión me gustaría señalar que si tomamos a Darwin en serio y si aceptamos los cambios conceptuales a los que nos conducen los descubrimientos que giran en torno al problema de la complejidad, entonces debemos admitir la existencia de principios explicativos que, nos gusten o no, y yo creo que no tienen
53

La Vida

por qué disgustarnos, no están encerrados en los reductos de las disciplinas en los que fueron formulados, sino que contribuyen a que nos formemos una imagen del mundo más sólida y coherente.

54

La conciencia

LA CONCIENCIA Y EL NATURALISMO
Ángel García Rodríguez
Comunicación

1.

La existencia de fenómenos mentales conscientes (como, por ejemplo, ver un libro rojo, sentir dolor de muelas, creer que las obras de Van Gogh son bellas, desear que el mundo sea un lugar más justo, experimentar miedo, alegría, amor, etc.) y fenómenos no-mentales no-conscientes (como, por ejemplo, la atracción de los cuerpos hacia el centro de la Tierra, la tendencia de un objeto en movimiento a seguir en movimiento a no ser que una fuerza distinta haga que se detenga, el transcurrir de las noches y los días, etc.) plantea, en principio, un problema filosófico porque existe una conexión causal especial entre determinados fenómenos mentales y determinados fenómenos no-mentales, en concreto determinados procesos neurofisiológicos. El problema filosófico radica, en parte, en la explicación de dichas relaciones: ¿qué es lo que hace que fenómenos tan distintos puedan relacionarse causalmente entre sí? En primer lugar, dichos fenómenos han de ser fenómenos del mismo tipo, en el sentido en que el dualismo de sustancias niega que lo sean. Es decir, los fenómenos mentales y los fenómenos no-mentales no pueden pertenecer a dos ámbitos de la realidad esencialmente distintos e incompatibles. Pues si fuera así, ¿cómo se podría concebir y explicar, sin apelar a la magia o al milagro, la existencia de dichas relaciones causales? Tenemos, pues, que tanto los fenómenos mentales conscientes como los fenómenos no-mentales no-conscientes han de ser fenómenos del mismo tipo; llamémosles “fenómenos materiales”. Pero la afirmación del materialismo no supone la solución al problema filosófico que nos ocupa; al contrario, lo acentúa. Si los procesos neurofisiológicos del cerebro y del sistema nervioso de un sujeto como nosotros están formados por los mismos micro-elementos que conforman procesos físicos como la inercia o el movimiento de rotación de la Tierra, ¿cómo es posible que de algunos procesos no-mentales no-conscientes, pero no de otros, surjan fenómenos mentales conscientes? ¿Cómo es posible que se dé la conciencia en un mundo de objetos formados por micro-elementos no-conscientes? El problema de la emergencia de la conciencia en el mundo es, sobre todo, un problema acerca de la naturaleza misma de los fenómenos conscientes: a saber, ¿es posible explicar la naturaleza de dichos fenómenos en términos materialistas, sin que pierdan su condición de conscientes? Es decir, ¿no desaparecería aquello que es radicalmente nuevo y distinto en los fenómenos conscientes, si se los explica desde una perspectiva materialista?

2.

Una estrategia bastante extendida entre los filósofos de la mente contemporáneos a la hora de explicar la naturaleza de la conciencia desde una perspectiva materialista es lo que podría denominarse “la solución naturalista”. La idea general es que la conciencia es un fenómeno más del mundo natural, de modo que habría de ser posible explicarlo de modo análogo a como se explican otros fenómenos naturales. En concreto, las explicaciones científicas del mundo

La Conciencia

natural son explicaciones causales: por ejemplo, determinadas sustancias químicas causan determinados procesos, etc. Por analogía con este tipo de explicaciones, habría de ser posible comprender la naturaleza de la conciencia mediante el hallazgo y la explicación de las relaciones causales relevantes. Pero, ¿cuáles son esas relaciones causales? En primer lugar, fenómenos como las sensaciones de dolor, los deseos o las creencias vienen caracterizados por el hecho de que se dan determinadas conexiones con el entorno: dado un estímulo apropiado (por ejemplo, un pinchazo de una intensidad suficiente) se produce una sensación de dolor, la cual a su vez puede dar lugar a una conducta característica (por ejemplo, gritar, llorar, o decir “me duele”). Así pues, las relaciones estímulo-conducta con el entorno ayudan a explicar el carácter consciente de determinados fenómenos. Pero eso no es todo. Pues, ¿qué es lo que se relaciona con el entorno? En el caso de las sensaciones de dolor, hay un sujeto de dichas sensaciones: pongamos por caso, un ser humano, con su correspondiente estructura interna. Pero no todo lo que sucede en alguien que siente dolor es relevante para determinar la naturaleza de la sensación de dolor. En el caso humano, lo relevante son determinados hechos del cerebro y del sistema nervioso. En resumen, pues, las relaciones causales que habría que esclarecer para llegar a comprender la naturaleza de los fenómenos conscientes son, por un lado, las relaciones internas (neurofisiológicas, en el caso humano) del organismo en cuestión, y por otro, las relaciones externas de ese organismo con su entorno. Es importante subrayar que dichas relaciones causales no son extrínsecas a los fenómenos conscientes, sino más bien constitutivas de la conciencia. Lo que diferencia un fenómeno mental consciente de otro (pongamos por caso, una sensación de dolor de la creencia de que las obras de Van Gogh son bellas) es que las relaciones causales características de uno y otro son distintas. Es decir, esas relaciones causales constituyen los respectivos fenómenos conscientes. Precisamente por ello es por lo que la solución naturalista puede proporcionar una respuesta al problema filosófico de la naturaleza de los fenómenos conscientes: son conscientes aquellos fenómenos caracterizados por determinadas relaciones causales, incluyendo relaciones internas (neurofisiológicas) y relaciones con el entorno.

3.

La solución naturalista es una estrategia atractiva, en cuanto que permite acomodar a los fenómenos conscientes dentro del mundo natural, en la medida en que los fenómenos conscientes están constituidos por relaciones causales. Pero, ¿es esto así? Ciertamente, entre los filósofos de la mente contemporáneos hay bastante consenso respecto a la idea de que la mente, los fenómenos mentales conscientes, están constituidos por determinados hechos acerca del entorno del organismo en cuestión. Además, éste se halla relacionado con su entorno mediante relaciones causales estímulo-conducta. Pero, ¿son esas relaciones causales constitutivas de la conciencia? Cuando en bioquímica, por ejemplo, se habla de los efectos de una determinada sustancia (pongamos por caso, que el vino produce somnolencia al ser ingerido en determinadas cantidades), se distingue entre las propiedades intrínsecas de la sustancia y los efectos que produce. Aunque propiedades intrínsecas y efectos están relacionados entre sí (es decir, dadas determinadas propiedades intrínsecas, la sustancia producirá determinados efectos), no parece acertado afirmar que los efectos constituyen la naturaleza misma de la sustancia. Ello se demuestra por el hecho de que a veces decimos que una determinada sustancia produce unos efectos determinados (por ejemplo, la somnolencia en el caso del vino) porque tiene tales-y-cuales propiedades intrínsecas o tal-y-cual naturaleza. Si la naturaleza de la sustancia en cuestión consistiera en la producción de determinados efectos, el razonamiento an57

La Conciencia

terior no sería explicativo, por su circularidad (sería como decir que la somnolencia tras la ingestión de vino está producida por la capacidad del vino de provocar sueño). Así pues, si en la explicación de fenómenos naturales como el anterior se distingue entre relaciones causales y relaciones constitutivas, ¿no habría de diferenciarse también entre relaciones causales y relaciones constitutivas en el caso de fenómenos mentales conscientes? Es decir, en la medida en que la conciencia es un fenómeno natural más, las relaciones causales con el entorno no nos proporcionarían una explicación de la naturaleza de los fenómenos conscientes. Consecuentemente, y frente a lo que parece ser una opinión bastante aceptada, la mente no estaría constituida por hechos acerca del entorno del organismo consciente. La conclusión sería, tal vez, que los fenómenos conscientes están constituidos por las relaciones internas (neurofisiológicas) del organismo. No obstante, hay una manera de salvaguardar la tesis de que fenómenos conscientes como las sensaciones de dolor están constituidos por hechos acerca del entorno del sujeto, sin tener que apelar a relaciones causales. Se trata de prestar atención a las conexiones entre sensaciones de dolor y conducta, aunque sin seguir el modelo causal. Según este modelo, lo que sucede es que la sensación puede causar una conducta característica, como el gritar o el decir “me duele”. Pero, dado que las relaciones causales no constituyen la naturaleza del fenómeno consciente en cuestión, la sensación de dolor seguiría siendo el fenómeno consciente que es aunque no se diera la conducta característica del dolor. Esto no significa simplemente que alguien podría no manifestar su sensación de dolor en algún momento concreto, sino más bien que sería posible que hubiera sensaciones de dolor sin que se diera jamás conducta característica alguna. Esto equivale a decir que fenómenos conscientes como una sensación de dolor no están constituidos por hechos distintos a la misma sensación (entre otros, por la conducta característica del dolor). Pero, ¿qué otro modelo de las relaciones entre sensación y conducta se puede ofrecer? Una explicación de los fenómenos conscientes habría de incluir, entre otros aspectos, una explicación del papel de la conciencia en nuestras vidas. Habría de explicar, por ejemplo, que los seres humanos nos vemos los unos a los otros como seres conscientes, y que ello nos sirve para dar sentido a nuestras acciones cotidianas, así como para comprenderlas. Esto no es un requisito arbitrario impuesto desde fuera sobre cualquier candidato a explicación correcta de la conciencia, del mismo modo que no es arbitrario pedir que una explicación correcta de la digestión dé cuenta de cómo ayuda a la supervivencia de un organismo. No es un requisito arbitrario porque el buscar o dar sentido a nuestro actuar cotidiano está estrechamente vinculado con lo que es ser un sujeto de estados de conciencia, del mismo modo que la supervivencia de un organismo está vinculada con el proceso digestivo. Ahora bien, ¿cómo podríamos vernos los unos a los otros como seres conscientes si la conducta no fuese un elemento constitutivo de las sensaciones? Pues, ¿cómo podríamos llegar a adscribir sensaciones, por ejemplo de dolor, a otros? El problema no es sólo que si los demás no manifestaran su dolor no dispondríamos de la evidencia necesaria para determinar que están experimentando dolor en lugar de placer (o cualquier otra sensación). El problema, más bien, es que si las sensaciones no estuvieran constituidas por algo distinto a la misma sensación, por algo accesible a todos nosotros, ni siquiera podríamos dar cuenta de la existencia de otros seres que experimentan sensaciones. (Al fin y al cabo, ¿por qué no atribuimos sensaciones a una mesa, o a una piedra? ¿Es acaso porque, al no manifestar conducta característica alguna, carecemos de la evidencia para determinar qué sensaciones experimentan, a pesar de que creamos que sí son sujetos de estados de conciencia no manifestados?

58

La Conciencia

¿O es, más bien, que la atribución de sensaciones a una mesa nos resulta absurda, dada nuestra noción de sensación, o en general de conciencia?) Si esto es correcto, las relaciones causales no serían las relaciones apropiadas para defender la tesis de que los fenómenos conscientes están constituidos por hechos acerca del entorno del organismo consciente en cuestión. La defensa de esa tesis requiere de relaciones constitutivas del tipo esbozado arriba para las sensaciones de dolor: es decir, relaciones que conecten constitutivamente conciencia y conducta, mientras que las relaciones causales son inadecuadas para establecer esa conexión. De la discusión anterior se pueden sacar algunas consecuencias. Primero, consecuencias para la estrategia naturalista, pues en la medida en que las relaciones causales con el entorno no son constitutivas de la conciencia, el proyecto naturalista no parece capaz de proporcionar una respuesta a la pregunta acerca de la naturaleza de la conciencia. (La solución naturalista, tal y como ha sido caracterizada arriba, incluye además la tesis según la cual los fenómenos conscientes están constituidos también por relaciones causales internas del organismo consciente en cuestión. En estas páginas no he tratado de refutar esta tesis.) Segundo, consecuencias para la noción misma de conciencia. A veces se presenta a la conciencia como algo tan radicalmente nuevo que cualquier explicación materialista sería incapaz de llegar a comprender qué es: la conciencia se ve como algo (cuasi)misterioso y (cuasi)inexplicable. Otras veces, se resalta el aspecto fenomenológico de los fenómenos conscientes: sentir dolor es, ante todo, experimentar determinadas sensaciones, distintas de las sensaciones-de-placer, de las sensaciones-de-amor, etc. Ahora bien, sin negar la novedad que supone la conciencia, ni su aspecto fenomenológico, también ha de tenerse en cuenta que la conciencia aparece en un determinado contexto, que es el de las interrelaciones entre seres conscientes (de manera primordial, aunque no exclusiva, seres humanos). Dicho de otro modo, comprender qué es la conciencia es comprender qué es ser un ser consciente, es decir, comprender qué es un ser que padece dolor, experimenta placer, etc., lo cual incluye, entre otras cosas, dar cuenta de por qué dichos seres actúan como lo hacen, o de cómo se ven los unos a los otros. Un rasgo característico de la posesión de conciencia es que el ser consciente reconoce a otros seres conscientes como seres conscientes; más aún, el ser consciente reconoce a otros seres conscientes ante todo como seres conscientes, y precisamente por ello da sentido a las acciones de los demás como lo hace: sufren, creen que p, desean que q, etc. (A diferencia de esto, ¿nos vemos los unos a los otros normalmente como seres digestivos? Quizás a veces: en una consulta médica, o en un laboratorio forense. Pero, ¿es así en nuestro contacto cotidiano con los demás?) Esto no significa que los seres conscientes no son elementos del mundo natural, aunque sí sugiere que la conciencia no es un proceso natural más, análogo, por ejemplo, a la digestión.

4.

Bibliografía
Algunos de los textos clásicos que plantean el problema de la conciencia son: -R. Descartes, Meditaciones metafísicas (varias ediciones). -L. Wittgenstein, Investigaciones filosóficas, Barcelona, Crítica, 1988. Para la defensa contemporánea de una concepción materialista de la conciencia (y de la mente en general), aunque desde distintos puntos de vista, véanse los artículos contenidos en las siguientes recopilaciones:
59

La Conciencia

-N. Block (ed), Readings in Philosophy of Psychology, London, Methuen, 1980. -F. Broncano (ed), La mente humana, Madrid, Trotta/CSIC, 1995. -W. Lycan (ed), Mind and Cognition, Oxford, Blackwell, 1990. Existe también un buen número de introducciones generales a los problemas de la filosofía de la mente: -W. Bechtel, Filosofía de la mente, Madrid, Tecnos, 1992. -P. Churchland, Materia y conciencia, Barcelona, Gedisa, 1991. -C. McGinn, The Character of Mind, 2ª edición, Oxford, OUP, 1996. -S. Priest, Teorías y filosofías de la mente, Madrid, Cátedra, 1994. -J. Searle, El redescubrimiento de la mente, Barcelona, Crítica, 1996.

60

EL ESTUDIO DE LA CONCIENCIA EN PSICOFISIOLOGÍA
José María Martínez Selva
Comunicación

L

a inclusión del punto de vista de un psicofisiólogo sobre la conciencia en unas jornadas de Filosofía dedicadas al orden y al caos parece oportuna, no sólo porque parte de los psicofisiólogos nos dedicamos al estudio experimental de aspectos o componentes de lo que en Psicología se llama “conciencia” o “autoconciencia”, sino también porque su estudio requiere que la conciencia sea menos caótica de lo que parece, lo que permite su abordaje científico. El resultado de esta actividad científica puede, en último extremo, expresarse en forma de conexiones más o menos estables y predictivas entre hechos. Por tanto, la actividad de los psicofisiólogos, como la de muchos otros científicos en sus campos respectivos, se basa en que hay algo de orden, o al menos de estabilidad y constancia, en lo que se llama conciencia. La Psicofisiología, considerada como el estudio de los correlatos fisiológicos del comportamiento, se halla dentro del marco más general de la Psicobiología, que se ocupa del estudio biológico del comportamiento. Este estudio conlleva necesariamente admitir que los procesos mentales, entendidos en sentido amplio e incluyendo entre ellos la conciencia, dependen de la estructura y función del sistema nervioso y de otros sistemas corporales. Los psicobiólogos pensamos que el estudio de estos sistemas nos permite conocer mejor, y explicar, el comportamiento humano. Esta dependencia se entiende en un doble sentido. Uno es que los procesos mentales precisan de la actividad neural para ocurrir. Otro, que los procesos mentales, y la conciencia o alguno de sus aspectos, se manifiestan en cambios que se producen en diferentes sistemas fisiológicos y que podemos estudiar en el laboratorio. La versión más dramática de esta dependencia ocurre al observar los resultados de variadas lesiones en el sistema nervioso central, que llevan a alteraciones severas en el comportamiento, y muchas veces en la conciencia, del paciente. Aspecto éste que desarrollará mi compañero Francisco Román desde el punto de vista de su especialidad, la Neuropsicología. Los hallazgos de la Psicobiología, unidos a los que proporcionan las Neurociencias, o ciencias que estudian el sistema nervioso desde diferentes perspectivas, apoyan cada vez más una concepción monista y reduccionista en la que se considera que los procesos mentales, y entre ellos la conciencia, son resultado de la actividad del sistema nervioso central. La versión más popular de esta idea, defendida por numerosos autores, es el monismo o reduccionismo emergentista. Este punto de vista defiende que la conciencia y la vida mental son el resultado cuantitativo y cualitativo de un alto nivel de desarrollo e integración, y si se quiere de ordenación,

La Conciencia

del sistema nervioso central. Sin este nivel de desarrollo y sin su integridad, no puede darse la conciencia ni el conjunto de comportamientos que dependen de ella. Es en este sentido en el que, hace ya años, los psicofisiólogos soviéticos definían a la conciencia como una “propiedad de la materia en un estado avanzado de organización”. Otro punto de vista moderno como la llamada “teoría de la identidad neural”, que defiende la igualdad de procesos cerebrales y procesos mentales, es bastante más radical y discutible. En nuestro caso, el psicofisiólogo estudia en sujetos normales y en personas sanas, con técnicas incruentas y en modo alguno agresivas, cuáles son los cambios fisiológicos que acompañan a procesos mentales directamente relacionados con la conciencia, entendida como el “darnos cuenta” de lo que ocurre a nuestro alrededor o, muchas veces, de los cambios que acompañan a procesos que sólo pueden darse cuando la persona, el sujeto experimental en nuestro caso, es consciente de lo que ocurre. A lo largo de la historia de la Psicofisiología numerosos enfoques, escuelas, experimentos y procesos han abordado el estudio de la conciencia. Los más importantes son los que a continuación se señalan: - Conciencia como percepción del mundo interno y externo. Se incluirían aquí los estudios sobre sensación y percepción, así como sobre autoconciencia o conciencia de sí mismo. Un caso especial, relacionado con la autoconciencia, es la percepción del tiempo investigada a través de las tareas de estimación temporal. - Conciencia entendida como el “darse cuenta” de lo que ocurre a nuestro alrededor, unida a nuestra capacidad de reacción a los acontecimientos externos. Un ejemplo se puede encontrar en los estudios que utilizan la respuesta de orientación o los potenciales atencionales cerebrales, cuya aparición e incluso intensidad nos dicen si el sujeto ha percibido, o es consciente de, un cambio específico en el ambiente. - Conciencia entendida como “despertar”, que forma parte del continuo sueñovigilia, en el que se incluyen o al que se añaden otros estados, como el estado de coma, la relajación, el esfuerzo mental, la hipnosis o también los denominados “estados alterados de conciencia”. - Conciencia entendida como “atención focal” o atención voluntaria, centrada en aspectos concretos del medio en un momento dado, que se identifica con el contenido de la memoria a corto plazo. Esta conciencia intervendría en los procesos de aprendizaje y en la consolidación de la memoria a más largo plazo. Sin lugar a dudas, es el segundo enfoque, conciencia como “darse cuenta”, “atender a algo” o “reacción ante algo”, el que más fortuna ha tenido en el ámbito de la Psicofisiología. Hay que destacar aquí desde los estudios más clásicos sobre el reflejo o respuesta de orientación, hasta los modernos trabajos que emplean los potenciales cerebrales, indicadores de procesos atencionales conscientes, suscitados por estímulos externos, que varían en significación o en frecuencia de aparición. Las técnicas de neuroimagen permiten actualmente un acercamiento más preciso, en términos de localización de la actividad cerebral, a los cambios biológicos que acompañan a los procesos que requieren la participación de la conciencia, como puede ser la práctica consciente del material informativo que se ha de recordar y utilizar a corto plazo. También permiten localizar el origen, o como se denomina

62

La Conciencia

técnicamente el “generador neural”, de aspectos específicos de la conciencia tales como la reacción a la novedad, al cambio estimular y a su significado para el sujeto. Podemos concluir que el estudio psicofisiológico de la conciencia goza de buena salud y es de gran interés hoy en día, indicando que se encuentra en ella algo más de orden que de caos.

Bibliografía
-J. M. Fuster (1997): “Redes de memoria”,. Investigación y Ciencia, 250, 74-83. -E. R. Hilgard (1980): “Consciousness in contemporary psychology”, Annual Review of Psychology, 31, 1-26. -J. M. Martínez Selva (1995): Psicofisiología, Madrid, Síntesis. -F. Mora (Ed.) (1995): El Problema Cerebro-Mente, Madrid, Alianza. -F. Valle-Inclán (Dir.) (1986): La Conciencia en la Psicología Actual, San Sebastián, Universidad del País Vasco.

63

CONCIENCIA Y CAOS
Ana Mas de Sanfélix
Comunicación

¿Qué

aporta el “Paradigma del Caos” a la Filosofía de la Mente actual? Mi propósito hoy es reflexionar sobre aquellos aspectos de la nueva ciencia que pueden aportar alguna luz en relación con los problemas pasivo y activo de la conciencia, a saber, ¿cómo surge la conciencia -y a fortiori, qué es la conciencia? y ¿cómo puede tener poder causal sobre los sistemas físicos?, esto es, ¿existe el libre albedrío? Centraré la argumentación en los siguientes puntos fundamentales de “las ciencias de la complejidad”:
1.

Los teóricos del caos reivindican una “nueva física”. Se ha convertido ya en tópica la afirmación de que “la ciencia clásica acaba donde empieza el caos”. Esta nueva ciencia debe resolver la “paradoja de la flecha del tiempo”. (Utilizaré esta tesis para refutar, una vez más, todo planteamiento dualista.) Apuestan por un metodología decididamente interdisciplinar. (La pretensión de la Psicología de ser una ciencia autónoma e irreductible a la física, resulta pues, obsoleta.) Adoptan una perspectiva no lineal del cerebro. (Esta afirmación supondría un nuevo golpe mortal para cualquier materialismo reductivo pero creo que, paradójicamente, puede reinterpretarse a favor de alguna otra variante de materialismo “fuerte”.) El caos que subyace a buena parte de la actividad cerebral deja sin argumentos a cualquier teoría que sustente el modelo “computacional”, incluso en su variante más novedosa: “la conexionista”. La metáfora “computacional” aunque ha resultado extremadamente fructífera debe abandonarse, para algunos teóricos del caos la nueva metáfora es el “cerebro holográfico”. El nuevo paradigma científico defiende una visión no determinista de las leyes fundamentales de la naturaleza. (Plantearé, en relación a esta tesis, el lugar que deja al “libre albedrío” un universo probabilista.)

2.

3.

4.

5.

La Conciencia

Refutación del dualismo Tradicionalmente, siguiendo un camino que inició Platón1, se han distinguido en el ser humano, por una parte, propiedades físicas y, por otra, diversas formas de conciencia. Una correcta aproximación al dualismo exige, de principio, trazar una clara distinción entre el dualismo sustancial o cartesiano y el dualismo de las propiedades. En efecto, mientras el primero aboga por la existencia de dos sustancias irreconciliables (la res cogitans y la res extensa), el segundo únicamente se comprometería con la existencia de dos tipos de propiedades diferenciadas en el ser humano: las propiedades físicas y las mentales. Las implicaciones de una y otra versión son absolutamente distintas. Pero, en el fondo de todo dualismo parece que subyace una perspectiva antropocéntrica que tiende a situar la aparición de la conciencia como un hecho único, como el máximo logro de todo proceso evolutivo. Este sería el rasgo distintivo que sitúa legítimamente al hombre en el centro del universo. La evolución es un proceso teleológico que tiende a un fin: “la aparición de la inteligencia humana”. Este planteamiento sirve además para negar todo derecho a aquél que no tenga conciencia. El paso siguiente es asociar conciencia a lenguaje y, por pura transitividad, negar todo derecho al resto de animales. Pero el dualismo desemboca en una serie de dificultades de gran envergadura que genéricamente se aunan bajo el rótulo de “el problema de la privacidad”. Cabe destacar las siguientes:
a.

Solipsismo. El modo en que el dualista aboca al solipsismo es el siguiente: si los estados mentales sólo pueden conocerse por introspección y la introspección (como observación directa que es) sólo puede revelar “mis” estados mentales, entonces sólo puedo conocer mis propios estados mentales. ¿Qué me permite, pues, afirmar la existencia de otras mentes? Radicalizando la cuestión, sería plausible afirmar que tal vez yo soy el único sujeto “consciente” del universo. Esta postura es filosóficamente inaceptable y los dualistas han tratado de solventar la cuestión apelando al argumento de la analogía. Este razonamiento se fundamenta en un argumento inductivo que establece que, dado que yo soy un ser humano con estados mentales, sería razonable concluir que los otros seres humanos -que son semejantes a mí- también los tienen. Según la versión clásica del argumento, la razón que tenemos para atribuir estados mentales a los demás es que nosotros mismos los tenemos y, por ello, podemos suponer que las emociones, dolores o sentimientos de los otros son semejantes cualitativamente a las experiencias que nosotros mismos tenemos. Así, a través de la observación o de la comunicación, y apelando a la analogía, estaríamos legitimados no sólo para atribuir estados mentales a los demás, sino para justificar nuestro conocimiento de tales eventos. Pero este argumento presenta algunas dificultades. La más evidente es (dejando al margen la duda escéptica respecto al método inductivo en general) que, si por inducción entendemos un modelo de razonamiento en el que, partiendo de casos particulares se establecen leyes generales, ¿es éste un caso normal donde puede aplicarse un razonamiento induc-

1

“Todo lo que es alma tiene a su cargo lo inanimado, y recorre el cielo entero, tomando unas veces una forma y otras otra. Si es perfecta y alada, surca las alturas, y gobierna todo el Cosmos. Pero la que ha perdido sus alas va a la deriva, hasta que se agarra a algo sólido, donde se asienta y se hace con cuerpo terrestre que parece moverse a sí mismo en virtud de la fuerza de aquella. Este compuesto, cristalización de alma y cuerpo, se llama ser vivo.” Fedro, 246 c. (tr. E. Lledó Iñigo, Madrid, Gredos, 1986).

65

La Conciencia

tivo? La generalización de la existencia de las otras mentes se efectúa sobre una única premisa (“yo tengo estados mentales”) y esto, como diría Wittgenstein es, cuando menos, “irresponsable”.
b.

Asimetría. Los enunciados sobre cuestiones empíricas son simétricos, esto es, se verifican del mismo modo independientemente de que estén formulados en primera o en tercera persona (“me tiemblan las manos” o “le tiemblan las manos”). Por contra, los enunciados relativos a estados mentales (“me duele la muela” o “le duele la muela”) son asimétricos. Un enunciado mental formulado en primera persona sólo es verificable a través de la introspección por el individuo que lo enuncia. Pero ¿quién verifica un enunciado en tercera persona? Y, ¿cómo lo hace? ¿Cómo se establece la “intersubjetividad”? ¿Cómo establecemos la verdad respecto a los estados mentales ajenos? ¿Cómo explicamos la relación causal entre mente y materia? Un dualista de propiedades, ¿cómo resuelve el problema de la identidad personal?

c.

d. e.

Por si estos argumentos fueran pocos los teóricos del caos con su reivindicación de una “nueva física”, nos prestan nuevas armas al señalar las deficiencias de la concepción física que ofrecía cobertura al dualismo. Veámoslo: La física “clásica” (en la que se incluye tanto la dinámica newtoniana, la cuántica y la teoría especial y general de la relatividad) presupone una concepción del universo que se adapta perfectamente al modelo dualista -incluso en su versión sustancial. En efecto, desde la perspectiva clásica es evidente el contraste entre los objetos de “naturaleza material” y los de “naturaleza mental”. Sólo los primeros son objeto del conocimiento físico, dado que se supone que sólo ellos pueden describirse atendiendo a un modelo “determinista” y, además, “reversible” en el tiempo. El esquema newtoniano es un sistema exacto y determinado de ecuaciones dinámicas. Esto significa que, conocidos los valores dados en un momento determinado de ciertas partículas con relación a su masa, velocidad y posición, tales valores están determinados matemáticamente para cualquier instante posterior. La soberbia capacidad de predicción de este sistema, junto a los fructíferos desarrollos matemáticos a que dio lugar -mecánica newtoniana y cálculo infinitesimal- lo convirtió en ejemplo de racionalidad e inteligibilidad científica. Bajo este modelo no hay, desde luego, lugar para “mentes” que influyan en el comportamiento de las cosas materiales a través de la acción del libre albedrío. Los actos mentales, pues, por una parte, presuponen voluntad y, por otra, son inseparables de “la flecha del tiempo”. La “paradoja del tiempo” -esto es, la falta de consistencia entre nuestra percepción del tiempo como algo irreversible y la concepción científica del tiempo como algo perfectamente reversible- se resolvía apelando a un dualismo epistemológico semejante al platónico: hay dos niveles de conocimiento el de la verdad y el de la opinión. La verdad revela lo inmutable, permanente, atemporal. Por contra, lo cambiante y mudable es sólo ilusión, la aparente flecha del tiempo es fruto de nuestra ignorancia. El tiempo se convirtió para los científicos en la dimensión ignorada; como mucho, se avenían a admitir la existencia de un tiempo “psicológico” o “subjetivo”. Al insistir en el “determinismo” y en “la paradoja de la flecha del tiempo”, la física clásica ahonda en la escisión dualista de la realidad: los estados mentales son irreductibles a estados físicos.

66

La Conciencia

Pero la noción de “caos” obliga a replantear estas “las leyes fundamentales de la física”; es más, exige una nueva física en la que la irreversibilidad y la probabilidad jueguen un papel básico2y ello por las siguientes razones:
1.

La mayoría de los sistemas de interés físico, tanto en el ámbito de la mecánica clásica como de la mecánica cuántica son inestables, esto es, sensibles a las condiciones iniciales de tal forma que una pequeña modificación se amplifica produciendo resultados impredecibles3. Esto supone una enorme revolución conceptual puesto que mina la “fe determinista” implícita en el paradigma clásico en el cual los sistemas estables eran la regla mientras que los inestables constituían la excepción. Son las estructuras disipativas o de no equilibrio las responsables de sistemas complejos como los que explican la vida o el cerebro. La “flecha del tiempo” es imprescindible como creadora de estructuras.

2.

3.

Por tanto, el caos nos compromete con un esquema probabilista e irreversible en el tiempo. Para los sistemas inestables, las leyes fundamentales de la dinámica clásica o cuántica se formulan en términos de propiedades de evolución de probabilidades. Como apunta Prigogine, las nuevas leyes de la naturaleza “expresan lo que es posible, y no lo que es “cierto””. La nueva física parece, pues, mejor pertrechada para explicar la conciencia desde un monismo materialista. Materialismo El materialismo es la doctrina que sostiene que, si algo existe -sean objetos o acontecimientos-, es de naturaleza física. En su versión débil concede que los objetos o acontecimientos físicos pueden poseer propiedades no-físicas (por ejemplo, propiedades mentales). Esta sería la tesis del “Materialismo emergentista”, que conduce inexorablemente a las mismas dificultades que anteriormente hemos señalado respecto al dualista de propiedades. Por contra, el materialismo fuerte resolvería los problemas de la identidad personal y de las otras mentes de manera instantánea; mejor, no existirían tales problemas. En efecto, si no hay dualidad, si sólo tenemos propiedades físicas, el criterio de identidad personal sólo puede ser físico y no hay “otras mentes” que conocer; no hay privacidad, luego todo conocimiento es objetivo. A lo largo de la historia de la filosofía las doctrinas materialistas han contado también con un buen manojo de argumentos a su favor. Podemos mencionar los siguientes4: mayor simplicidad frente al dualismo; impotencia explicativa del dualis2

En honor a la verdad, la exigencia de una nueva física no es patrimonio exclusivo de los teóricos del caos. Aunque por razones distintas, desde las propias filas de la física teórica se venía apuntado desde los años 80 la posibilidad de que ésta hubiera llegado a su fin. Hawking, por ejemplo, insinuaba que se había agotado su ámbito de estudio, que no quedaban nuevas leyes por descubrir. “Existía el sentimiento creciente de que ...la ciencia, como empresa universal, unificada y objetiva, ya ha pasado” (ver Ilya Prigogine en el Prólogo a La flecha del tiempo, p.12). También Roger Penrose en La nueva mente del emperador (Madrid, Mondadori, 1991) insiste en la necesitad de dotar a la física de nuevas leyes fundamentales que permitan dar respuesta a las grandes cuestiones que desde el punto de vista clásico se han mostrado intratables, por ejemplo, la comprensión de la mente. 3 El llamado “efecto mariposa” conocido técnicamente como “dependencia sensitiva de las condiciones iniciales” fue descubierto por Edward Lorenz en 1960. 4 Ver Churchland, P. M., Materia y conciencia, Barcelona, Gedisa, 1992.

67

La Conciencia

mo en aspectos importantes; argumento de la dependencia nerviosa de todos los fenómenos mentales conocidos o argumento de la historia evolutiva. Insistiré sobre este último. La aparición de la conciencia no es un hecho aislado, sino que debe interpretarse dentro de un marco amplio que considere un continuo la evolución del universo, de la vida y de la cultura5. La aparición de la conciencia proporcionó al ser humano la ventaja adaptativa de formular juicios. Pero hay que insistir en la continuidad. Nuestro intelecto no es algo totalmente diferente e incomparablemente superior al de nuestros parientes simios6. Sorprende, por ejemplo, que un fenómeno tan crucial se haya efectuado realmente en tan poco tiempo (5.960.000 años aproximadamente), lo que, comparado con los 13.000 millones de años transcurridos entre la gran explosión que dio origen al universo hasta la aparición de la vida en la Tierra, o los 1.400 millones de años que hubieron de transcurrir hasta la aparición de los homínidos, resulta un período de tiempo insignificante. Lógicamente, los lenguajes complejos se desarrollaron todavía más rápidamente. Sorprende también que nuestra pretendida excelencia no se refleje en la carga genética de un modo más reseñable. En efecto, los cromosomas del hombre y del chimpancé difieren apenas en un 1%. Y que el peso de nuestro cerebro en relación con el peso total del cuerpo no alcance una proporción muy superior al de otras especies -exactamente el 2%, igual que en los delfines. La conclusión parece obvia: no se observa una transición brusca del cerebro animal al cerebro humano. Adoptar esta perspectiva menos antropocéntrica nos permite también interrogarnos sobre nuestras, por otra parte, obvias deficiencias: ¿Por qué la evolución del cerebro humano -con relación al tamaño se ha detenido desde hace 100.000 años? ¿Por qué las respuestas a nuestros dilemas filosóficos -origen del universo, de la vida y de la conciencia- siguen resistiéndosenos a pesar del gran avance del conocimiento científico? ¿Estamos los seres humanos “naturalmente” bien dotados para hacer ciencia? ¿O ésta es el resultado de un mero accidente?7 El materialismo ha adoptado distintas versiones. La pionera fue el materialismo reductivo, más conocido como “Teoría de la Identidad”, cuya tesis básica es que
5

En este sentido Max Delbrück señala: “El punto de vista evolucionista nos obliga a situar la mente en el mismo contexto que otros aspectos de la evolución y nos hace establecer paralelismos con otras formas de evolución menos espirituales, como la de los órganos de locomoción y digestión. En el contexto de la evolución la mente del humano adulto, objeto de tantos siglos de estudio filosófico, deja de ser un fenómeno misterioso y un asunto excepcional. Todo lo contrario, la mente se considera una respuesta adaptativa a las presiones selectivas, igual que casi todo lo que existe en el mundo viviente.” ver Mente y materia.Ensayo de epistemología evolutiva, Madrid, Alianza Universidad, 1989, pp.289-290. Ver Penrose, R., op. cit, p.510. 6 “Una razón para pensar que la diferencia no es extrema es que la diferenciación del cerebro humano ha necesitado un tiempo relativamente corto en la escala de la evolución (algunos millones de años, y el desarrollo de lenguajes complejos es sin duda mucho más reciente)”. Ruelle, David, Azar y Caos, Madrid, Alianza Editorial, 1993, p.164. 7 En este sentido afirma David Ruelle: “Resulta patético que este cerebro tan pretendidamente superior tenga problemas para realizar operaciones matemáticas sencillas, sea incapaz de dar la hora exacta y no pueda guardar fácilmente en la memoria algunos millares de cifras”, y añade: “Nuestro cerebro y nuestra inteligencia están basados en mecanismos estrictamente ligados al problema de la supervivencia en cierto tipo de ambiente. Bastante recientemente la evolución ha añadido a las funciones básicas del cerebro algunos mecanismos superiores de gran flexibilidad. La posesión de tales mecanismos se ha revelado muy útil y ha sido estimulada por la evolución natural. Una consecuencia añadida de los mecanismos superiores es que han permitido que se desarrollara el conocimiento científico. En mi opinión, se trata de algo accidental”. Op. cit. pp. 164-165.

68

La Conciencia

los estados mentales son idénticos a los estados físicos del cerebro. Todas las incógnitas que giran en torno a la dicotomía físico/mental obedecerían al desconocimiento que persiste acerca del funcionamiento del cerebro. Cómo llevar a cabo las identificaciones de los procesos y estados mentales, establecer su relación con la causación de conductas u otros eventos mentales, determinar qué sea la cognición, etc., son problemas que hallarán solución tan pronto como podamos trazar un mapa más claro acerca del funcionamiento de nuestro cerebro. Será el avance de las ciencias en general, y el de la neurofisiología en particular, el que proporcione la resolución de estos enigmas8. Son muchas las objeciones que ha debido enfrentar la Teoría de la Identidad. Es el momento de repasar algunas de las más importantes a la luz del nuevo paradigma del caos:
1.

Chauvinismo: La neurofisiología, al identificar estados mentales con estados de “nuestro cerebro” impide atribuir estados mentales a organismos a los que, por su conducta, deberíamos estar dispuestos a atribuirlos (por ejemplo, a marcianos cuyo comportamiento fuera semejante al nuestro aunque sus procesos causales internos fueran diferentes). Además, el materialista insistirá en que es la materia biológica y no la mera estructura de las actividades internas que sostiene la materia la que resulta relevante para determinar un estado mental. Frente a esto, un funcionalista diría que debemos estar dispuestos a atribuir estados mentales a cualquier “ente”, sea E.T., un computador, un dispositivo mecánico de ruedas o engranajes o un sistema de tuberías, con tal de que actúe de forma indistinguible de una persona cuando está pensando. La cuestión que debemos plantearnos es si el funcionalismo, según el cual la naturaleza de lo mental es relacional, ofrece criterios razonables que permitan certificar la presencia de conciencia en un “ente”. En definitiva, ¿es la imitación de la conciencia igual a la conciencia? Parece que todo el mundo está de acuerdo hoy en que la actividad mental no consiste simplemente en llevar a cabo una secuencia bien definida de operaciones. El programa funcionalista ha sido criticado por ignorar la naturaleza interna o cualitativa de los estados mentales -el llamado “problema de los qualia” y, en su variante computacional, por subestimar las diferencias entre el funcionamiento del cerebro y un computador. En efecto, entre las muchas diferencias, quizá la más espectacular es la “plasticidad cerebral”. En efecto, a medida que conocemos más sobre el funcionamiento del cerebro descubrimos, por ejemplo, que las interconexiones entre neuronas no son fijas -como en el modelo computacional primitivo-, sino que cambian continuamente. Concretamente, lo que se modifica son las uniones sinápticas en las que se da la comunicación real entre neuronas diferentes. Además, esta plasticidad no parece ser una complicación accidental, sino una caracterís-

8

Ciertos paralelismos históricos favorecen esta hipótesis. En efecto, existen precedentes relevantes (como la reducción que permitió establecer la equivalencia entre sonido/ondas de presión/ondas electromagnéticas) que alientan la posibilidad de una reducción interteórica que permita llevar a cabo la identificación entre estados mentales/estados cerebrales. El desarrollo de las ciencias y de las nuevas tecnologías nos ha facilitado en muchas ocasiones un acceso más ajustado a la realidad, y, en principio, no hay por qué dejar de suponer que en este caso pueda ocurrir lo mismo.

69

La Conciencia

tica fundamental del funcionamiento del cerebro. Así, los herederos del programa de IA han modificado radicalmente su modelo de programación de una máquina que piensa. Ahora, los conexionistas, siguiendo el nuevo modelo de arquitectura cerebral, sostienen que los circuitos de los ordenadores deben estar conectados como lo están las neuronas. “Los programas no deben ser un conjunto lógico de instrucciones para producir resultados previsibles, sino limitarse a ser instrucciones para variar la fuerza de las conexiones entre procesadores, alentando así a la máquina a formar redes no lineales. Según la teoría conexionista, si se satisfacen todas estas condiciones la realimentación no lineal generada en la máquina por los problemas humanos hará que el ordenador sufra tales bifurcaciones y amplificaciones que la inteligencia se autoorganizará”. Pero los teóricos del caos están dispuestos a arruinar también el sueño del modelo computacional conexionista al afirmar que los procesos mentales no dependen sólo de la interconexión de las neuronas, sino de un trasfondo de caos. La nueva concepción del cerebro deja bien poco lugar para una concepción no materialista en sentido fuerte de los estados mentales.
2.

Objeción de Davidson: De la mano de Davidson y su robot Arte nos llega también una objeción radical9. Lo que pretende mostrar Davidson es que, aun en el caso de que conociéramos perfectamente lo que ocurre en el cerebro y pudiéramos describirlo en términos puramente físicos, estos conocimientos nos dirían mucho menos de lo que esperamos respecto del funcionamiento, la naturaleza y características de lo mental. En definitiva, su tesis es que “no hay un sentido importante en el cual la psicología pueda ser reducida a las ciencias físicas”. Sostiene Davidson la discutible opinión de que el avance de la neurociencia aportaría nueva luz a algunos ámbitos de la psicología -los que se refieren a percepción, aprendizaje o conducta humana-, pero no a lo que él llama capacidades cognitivas más altas. La neurociencia no será capaz de descubrir una taxonomía de los estados neurales que permita establecer una correspondencia biunívoca con los estados mentales de la taxonomía de sentido común. Los teóricos del Caos presuponen que la cuestión de qué sea la conciencia no puede abordarse sino desde una perspectiva decididamente interdisciplinar que incluya: conocimiento de las estructuras físicas y de las leyes físicas implicadas, de la naturaleza biológica de tales estructuras, de los procesos algorítmicos y no algorítmicos del pensamiento consciente, etc. Por tanto, una consecuencia inmediata será la negación de la psicología como ciencia autónoma y no reductible a la física. Pero frente a la teoría materialista que pretende establecer la identidad uno por uno entre estados mentales y estados cerebrales siguiendo el modelo de “localización” cerebral, ofrecen una nueva visión global según la cual muchas de las funciones cerebrales, incluida la memoria, están distribuidas o “deslocalizadas” a través del cerebro. Un cerebro no lineal arruinaría definitivamente el ideal reduccionista.

9

Davidson, D., “La mente material”, AA.VV., Mentes y Máquinas, Madrid, Tecnos, 1985, pp.103-126.

70

La Conciencia

La teoría de la identidad estuvo, desde el principio, condenada al fracaso, precisamente por la exigencia de la reducción intrateórica. Todavía es posible, no obstante, mantener alguna versión “fuerte” del materialismo si en lugar de la reducción se propone la eliminación del marco teórico de la Psicología Popular. Ese sería el camino que apunta el paradigma del Caos.
3.

La objeción de la causalidad: Si todos los estados mentales pudieran describirse en términos físicos, nuestra conducta estaría determinada como los eventos físicos pueden estarlo, y deberíamos ser capaces de predecir, en base a leyes causales, todos nuestros procesos mentales. El teórico del Caos sustituye el “determinismo mecanicista” por la probabilidad. Esto es, en lugar de ofrecer resultados mediante trayectorias o funciones de onda, propone ecuaciones probabilistas y operaciones de evolución. La cuestión es, ¿deja esta concepción mayor margen para el libre albedrío? ¿o seguimos en un universo determinista pero no computable?

71

REFLEXION ACERCA DE LA CONCIENCIA DESDE UNA PERSPECTIV A NEUROPSICOLÓGICA
Francisco Román Lapuente
a complejidad de la conducta de los seres vivos es algo realmente intrigante. Desde los tropismos, reacciones más elementales observadas en el reino animal, hasta las conductas humanas más complejas y las funciones cognitivas que las posibilitan, como puede ser la elaboración de juicios sociales y morales, la planificación a medio y largo plazo o la conciencia, existe un amplio repertorio conductual. Este repertorio podemos considerarlo progresivo en complejidad. Así, los tropismos serían las conductas más sencillas o elementales, mientras que la elaboración de juicios sociales o conciencia serían más complejas. En este contexto, la complejidad conductual podríamos representarla como un continuo, en el cual un extremo iría referido a las respuestas más sencillas (tropismos) y el otro a las más complejas (ej. conciencia). Desde la neuropsicología, la conducta es considerada como la resultante de la actividad del sistema nervioso, actividad que depende a su vez de: a) Número y tipos de estructuras nerviosas implicadas b) Número y tipos de estímulos o condiciones estimulares externas e internas al propio organismo que inciden sobre el funcionamiento de las estructuras nerviosas. c) Número y tipo de relaciones que se establecen entre estructuras, y estructuras y condiciones estimulares. Si entendemos lo complejo como algo que se compone de diversos elementos y que la comprensión de las relaciones entre dichos elementos es difícil, la complejidad conductual estaría haciendo referencia a la dificultad en entender la forma en la que se organiza el sistema nervioso y a las relaciones que se establecen entre sus partes para dar lugar a una actividad concreta, la cual pueda ser considerada como un tipo específico de conducta. Desde esta perspectiva, consideraremos la conciencia como un proceso cognitivo complejo, difícil de comprender en cuanto a los elementos o estructuras nerviosas que la posibilitan y de las relaciones que se establecen entre ellas. En nuestra reflexión entenderemos por conciencia la capacidad que posee un individuo para darse cuenta de los cambios que tienen lugar tanto en su propio organismo y conducta como en su medio externo. En el ámbito neuropsicológico clínico se observa, con relativa frecuencia, un fenómeno que consiste en que tras un daño cerebral algunos pacientes, que adquiere una determinada incapacidad física (ej. hemiplejía) o cognitiva (ej. desorientación,

L

La Conciencia

problemas de memoria, etc.), muestran una incapacidad para darse cuenta de dicha incapacidad, o lo que es lo mismo, el paciente niega presentarla. El término negación lo entenderemos no como que el paciente es consciente de su situación real y nos está mintiendo, sino como que el paciente no reconoce de forma reflexiva y en toda su extensión las discapacidades que presenta. Así pues, el término negación lo emplearemos a lo largo de nuestra exposición como sinónimo de conciencia. El concepto “síndrome de negación” es utilizado en neuropsicología para referirnos a la negación que hace una persona de una alteración que presenta cuando además, dicha alteración le está suponiendo unas limitaciones importantes en sus actividades de la vida diaria. El síndrome de negación está en relación con: a) El tipo, severidad, evolución, localización y extensión de la patología cerebral. b) Naturaleza de la discapacidad. c) Significado de la incapacidad en relación a la experiencia premórbida y valores del paciente. d) Contexto en el que se elicita la conducta Así mismo, el síndrome de negación no es un concepto unitario, pudiendo expresarse de diferentes modos. El paciente puede negar explícitamente la existencia de una determinada discapacidad o admitir la discapacidad pero minimizando su importancia, como por ejemplo, atribuir la parálisis de su miembro superior izquierdo a una distensión de los tendones de la muñeca o a la pereza. En otros casos, un paciente que se encuentra hospitalizado como consecuencia de haber sufrido una hemorragia cerebral, con hemiplejía, puede indicar que su ingreso es debido al interés del médico por conocerle o, en el caso de ser mujer, para solicitarle favores sexuales. En otros casos, el paciente puede reconocer explicitamente su discapacidad pero niega que no pueda llevar a cabo una actividad que está condicionada por la misma (por ejemplo, un paciente con una parálisis del miembro inferior izquierdo, aunque reconoce explícitamente presentar una hemiplejía, indica que ello no es impedimento para seguir los fines de semana practicando su deporte favorito (la escalada). Para otros paciente, la negación se presenta junto a una confabulación. Así, un militar, tras sufrir una hemorragia sunaracnoidea con secuelas del tercer par craneal con ptosis ocular (descenso de los globos oculares), refería que lo sucedido era consecuencia de un puñetazo que le dieron en una pelea. En este caso, más que parecer existir una negación de la discapacidad física, en sentido estricto, pudiera ser que el paciente tuviese alterada la representación simbólica de su realidad. Característicamente, los pacientes que presentan una negación explícita de su discapacidad son por lo general afables, apacibles o apáticos. Incluso, cuando se les somete de forma repetitiva a situaciones en las que tienen que llevar a cabo una conducta que difícilmente pueden realizar como consecuencia de su discapacidad, raramente suelen alterarse, proporcionando explicaciones y racionalizaciones a cerca de porque no realizan la conducta solicitada. Existen otros caso en los que el síndrome de negación se presenta tras un traumatismo craneoencefálico sin que exista ni fractura de hueso ni hemorragia cere73

La Conciencia

bral. Con cierta frecuencia, en los pacientes con estas características, fundamentalmente los procedentes de accidentes de circulación, algunos de ellos pierden el conocimiento tras el traumatismo y cuando lo recobran ya no solo no recuerdan el accidente sino que tampoco se creen lo que les ha ocurrido. Responden con contestaciones tales como “no sé” o “no me acuerdo”. Algunos, por ejemplo, no recuerdan si están casados, pero sin embargo reconocen a su mujer y viven con ella. Para otros pacientes, el síndrome de negación se centra en una desorientación símbólica. No niegan, por ejemplo que se encuentran en un hospital, pero hacen explícito que están porque necesitan relajarse y descansar. Este tipo de desorientación tiene las características de una ilusión, en la cual el paciente no acepta el nombre que se le propone para el lugar en el que se encuentra y persiste en su idea de encontrarse en balneario o lugar de reposo. Su idea sigue siendo persistente a pesar de repetirle reiteradas veces que está en el hospital, de estar viendo continuamente el nombre del hospital grabado en su pijama, en los indicadores de los pasillos, en la bata del personal sanitario, etc. Un caso similar de desorientación simbólica sería la desorientación temporal, en la cual el paciente no sabe, por ejemplo, la hora del día o el mes del año en el que se encuentra. Un último tipo de negación que señalaremos se refiere a la negligencia contralateral. Este tipo de negación se encuentra asociado al lóbulo parietal. Un paciente, tras sufrir una hemorragia cerebral en el lóbulo parietal derecho, sin ninguna secuela de tipo hemipléjico, dejó de tener en cuenta el lado izquierdo de su cuerpo y del mundo. Cuando se le pedía que levantara sus brazos no lograba levantar su brazo izquierdo, pero podía hacerlo si se le cogía el brazo y se le pedía que lo levantara. Cuando se le decía que dibujara una esfera de un reloj agrupaba todos los número en el lado derecho del reloj. Cuando se le pedía que leyera palabras compuestas como bombón helado o baloncesto, leía helado y cesto. Cuando se vestía no intentaba ponerse la parte izquierda de su ropa, y cuando se afeitaba sólo se afeitaba la parte derecha de la cara. Por último no sabía lo que le pasaba y no conseguía entender que significaba todo aquel interés por él. Curiosamente, en la recuperación de la negligencia contralateral el paciente empieza a responder a estímulos en el lado de la negligencia, pero haciéndolo como si los estímulos se produjeran en el lado bueno. Respecto a las bases neurales del síndrome de negación, en cada una de sus formas de presentación, no son conocidas con precisión en la actualidad. Tradicionalmente, dado que la mayor incidencia del síndrome de negación en poblaciones patológicas tiene lugar en pacientes con lesiones en el hemisferio derecho, se ha considerado que los mecanismos neurales estarían ubicados en dicho hemisferio. Así, en el caso de la negligencia contralateral se ha propuesto la hipótesis de que es consecuencia de una alteración en el lóbulo parietal derecho, porque la integración de las propiedades espaciales de los estímulos se ve perturbada como resultado de ello. Aunque los estímulos pueden percibirse, la localización es incierta para el sistema nervioso y subsiguientemente son ignorados. Un síntoma que suele ser común a la lesión del lóbulo parietal derecho, y que puede ser considerado también como una incapacidad para reconocer objetos mostrados en planos poco familiares. Por ejemplo, una fotografía del plano lateral de un cubo o una maceta se reconoce fácilmente, mientras que una fotografía del plano superior se reconoce con gran dificultad, sugiriéndose que la localización neuronal de esta deficiencia sería también el lóbulo parietal, la misma región que la propuesta para la negligencia contralateral.

74

La Conciencia

En la actualidad, no se considera que el fenómeno de la negación esté asociado única y exclusivamente al hemisferio derecho en la misma forma en la que la afasia está relacionada al hemisferio izquierdo. Por lo general, la manifestación de alguna forma de síndrome de negación tiene lugar junto alteraciones que implican a más de un lóbulo o hemisferio o se encuentra asociado a atrofia cortical, lo que estaría implicando la afectación de conexiones entre ambos hemisferios. La conexiones cerebrales más importantes para poder tener una adecuada conciencia sobre el medio son aquellas que interrelacionan la información sensorial con el tono emocional y la relevancia de esto para el sujeto. Estas conexiones establecerían relaciones entre las áreas de asociación multimodal de los lóbulos frontales, parietales y temporales, áreas de asociación paralímbicas (cingulado, orbitofrontal, parahipocámpica y polo temporal) y límbicas en el lóbulo temporal medial y diencéfalo. En este contexto, podríamos entender, al menos en una forma general, que si las conexiones entre las áreas de asociación visual (las cuales posibilitan la percepción visual de un objeto) se desconectan de las áreas límbicas (las cuales proporcionan un tono afectivo a esa percepción) el paciente percibirá correctamente el estímulo pero no su significado emocional y por lo tanto la verdadera relación que pueda tener con él. Tras lo expuesto, y desde el punto de vista neuropsicológico, podemos considerar que la conciencia no puede ser entendida como un concepto unitario y que para su comprensión es necesario comenzar identificando los tipos en los que esta puede dividirse e identificar los elementos neuronales, y las relaciones entre ellos, que posibilitan su expresión. Así mismo, y como hemos podido comprobar, la metodología que nos está permitiendo identificar las fases de lo que puede ser la conciencia se centra fundamentalmente en la identificación de los elementos nerviosos que se ven afectados tras una determinada alteración de la conciencia.

75

La sociedad

RACIONALIDAD, MERCADO Y NUEVA ECONOMÍA POLÍTICA
Francisco Alcalá Agulló
Comunicación
l crecimiento de la población y el desarrollo tecnológico han alcanzado niveles tan elevados que ponen en manos del hombre la eventual conservación de los recursos naturales del globo, la preservación de la diversidad de sus especies e incluso cierta transformación genética de las formas de vida. Paralelamente, existe la sensación de que la cultura, la ética y los mecanismos de decisión social de los que dependen las opciones que han de tomarse sobre estas cuestiones no han evolucionado a la par, que podrían no estar a la altura de nuestra enorme capacidad de intervención sobre el ecosistema del planeta. Además, se ha producido quizá una excesiva compartimentación de los saberes científicos que exacerba el peligro de esta eventual descompensación entre la ciencia y las instituciones sociales que regulan su desarrollo y aplicación. Para los más pesimistas, la Nave Tierra habría visto engordar extraordinariamente sus motores, fruto del avance científico, sin que el piloto hubiese mejorado sus conocimientos sobre cómo manejarla y hacia dónde dirigirla, y sin que nadie hubiese contrastado si el reforzado consumo de la nave guarda una proporción razonable con las reservas de combustible. Una buena parte de estos problemas se sitúan de lleno en el ámbito de la economía. En efecto, la ciencia económica estudia la manera en que la sociedad toma opciones -como resultado de la interacción entre innumerables decisiones y acciones individuales- sobre la utilización de los recursos, el desarrollo tecnológico y la distribución entre la población de los bienes disponibles. En lo que sigue pasaré revista a tres cuestiones: 1) la relación entre la racionalidad de los comportamientos individuales y la racionalidad colectiva que de ellos puede o no derivarse; 2) la concreción de esta problemática en el caso de la gestión por el mercado de la explotación de los recursos naturales; 3) la traslación del mismo enfoque metodológico al análisis de los procesos de decisión política y el renovado auge de la Economía Política. Finalmente, realizaré una pequeña reflexión sobre las perspectivas que ofrece la evolución reciente de la Economía desde el punto de vista de la complejidad. 1. Racionalidad individual versus racionalidad social El objeto de la Ciencia Económica es el análisis de los comportamientos y las instituciones sociales en un ámbito particular -aunque en general muy importante también para el resto de ámbitos- como es el de la producción y la distribución de los bienes que permiten satisfacer las necesidades humanas materiales. El punto de partida de este análisis son los comportamientos individuales, explicados bajo la

E

La Sociedad

premisa de la racionalidad; es decir, bajo el supuesto de que de entre todas las acciones viables, los individuos toman las que mejor permiten aproximarse a los fines por ellos perseguidos1. Y una cuestión fundamental a determinar es bajo qué características de un sistema económico -que es el conjunto de instituciones que establecen las vías de interdependencia entre las acciones de los diferentes sujetos- la racionalidad individual conduce a un resultado colectivamente deseable. El planteamiento más famoso acerca de cómo las acciones guiadas por la búsqueda egoísta de los intereses individuales -en un cierto marco institucional- puede conducir al máximo bienestar colectivo, es la de Adam Smith. Smith ofrece la hipótesis -analizada con rigor y exhaustividad a lo largo de este siglo por la Teoría del Equilibrio Económico General- de que un contexto institucional de mercados perfectamente competitivos actúa como una mano invisible que reconduce la fuerza de los intereses egoístas en favor del bienestar colectivo: “No es la benevolencia del carnicero, del cervecero o del panadero la que nos procura el alimento, sino la consideración de su propio interés. No invocamos sus sentimientos humanitarios, sino su egoísmo...” (1776, p. 17) “Ninguno se propone, por lo general, promover el interés público, ni sabe hasta qué punto lo promueve. (...) Mas no implica mal alguno para la sociedad que tal fin no entre a formar parte de sus propósitos, pues al perseguir su propio interés promueve el de la sociedad de una manera más efectiva que si esto entrara en sus designios” (1776, p. 402). Sin embargo, la Ciencia Económica ha dejado en evidencia que en otros contextos institucionales, el resultado global que se deriva de acciones guiadas por el mero interés individual puede distar mucho del que se seguiría de una racionalidad colectiva. La Teoría de Juegos reúne el conjunto de conceptos y técnicas específicos desarrollados para explicar estas cuestiones. El siguiente juego -que tiene la simple estructura del llamado “Dilema del prisionero”- permite ilustrar cómo la racionalidad individual puede conducir a un resultado socialmente ineficiente. Consideremos dos pescadores que acuden a un mismo caladero en el que la abundancia de las capturas a final de año depende de que la pesca en la época inicial de reproducción del pescado sea muy reducida. Cada uno de los pescadores tiene ante sí dos opciones: respetar la época de reproducción (R) o no respetarla (NR). Suponemos que ninguno de ellos tiene ninguna restricción (legal, moral o fruto de acuerdos con capacidad coercitiva entre los pescadores) para adoptar la decisión que consideren oportuna; es decir, se encuentran en una situación de “libre mercado”. Si ninguno respeta la época de reproducción de los peces, cada uno de ellos obtiene dos toneladas de capturas al principio de la temporada, y el pescado queda esquilmado para el resto del año. Si los dos la respetan -es decir, ninguno pesca nada al principio de la temporada- ello permite a cada uno de los pescadores obtener tres toneladas al final del año. Por último, si uno de ellos no respeta el período de reproducción y el otro sí, durante dicho período el primero de los pescadores obtiene tres toneladas mientras el segundo no obtiene nada; y en la etapa posterior de la temporada, con el caladero semiesquilmado, cada uno de ellos obtiene una sola tonelada adicional. En la típica forma matricial de exposición de la Teoría de Juegos, las capturas totales a final de año en función de todas las posibles combinaciones de acciones de los agentes son las siguientes (en cada recuadro, la primera cifra indica las capturas totales del pescador 1, y la segunda cifra las del pescador 2):

1

Véase Alcalá (1990) para una exposición más detallada de esta cuestión.

78

La Sociedad

R R NR 3,3 4,1

NR 1,4 2,2

La Teoría de Juegos predice que en esta situación ambos pescadores optarán por no respetar el período de reproducción2. Por tanto, la racionalidad individual conducirá al peor resultado colectivo al que se podía haber llegado. Cabe insistir en que la razón de este pésimo resultado no es una consecuencia necesaria de que las decisiones se tomen egoísta e individualmente3. El problema es que, en el caso del ejemplo, no se cumple una de las condiciones necesarias para que un sistema económico sea eficiente. La condición que se debería cumplir es que todas las consecuencias positivas o negativas de cada acción recaigan sobre el sujeto que toma la decisión correspondiente. Cuando esta condición se cumple, los beneficios que individualmente recibe el sujeto decisor como consecuencia de su acción, coinciden con todos los beneficios sociales (se apropia de todos los beneficios); y, a su vez, todos los costes que la acción genera para la sociedad en su conjunto coinciden también con los costes que soporta el sujeto. En consecuencia, el análisis coste-beneficio privado que orienta la decisión tomada por el sujeto coincide con el análisis coste-beneficio social que conduciría a la acción óptima desde el punto de vista social; y, por consiguiente, la racionalidad individual conduce a una decisión socialmente correcta. Por el contrario, cuando esta condición no se cumple, se produce lo que se denomina una externalidad; es decir, uno de los costes sociales no está siendo computado por el individuo -es externo al cálculo del individuo, aunque no a la economía- y consecuentemente la decisión individual no es socialmente óptima. Volviendo a nuestro ejemplo, las consecuencias negativas del exceso de pesca en el período de reproducción recaen sólo parcialmente sobre el que decide no respetar el período. Por tanto, las decisiones individuales no tienen en cuenta todos los costes sociales que generan y se produce un equilibrio socialmente subóptimo. Al igual que sucede en muchas otras esferas de la actividad económica, las decisiones sobre explotación de recursos naturales se ven afectadas con frecuencia por la presencia de externalidades. Como consecuencia de ello, el mercado puede no

Que ambos pescadores tomen la opción NR constituye el único equilibrio (en estrategias dominantes) del juego, debido a que cualquiera que sea la acción que tome el otro, cada sujeto siempre consigue más capturas no respetando la época de reproducción (por ejemplo, si el pescador 2 decidiera R, lo mejor que podría hacer el pescador 1 desde el punto de vista de su interés particular es NR; y si por el contrario, el pescador 2 decidiera NR, nuevamente, la acción indiviualmente racional para el pescador 1 sigue siendo NR). 3 De hecho, podemos transformar el ejemplo introduciendo un tercer sujeto -el propietario del caladero- al que los pescadores tienen que pagar un 10% de las capturas que obtengan en el mismo. Como propietario, este sujeto puede decidir en qué épocas del año autoriza la entrada de barcos. En el nuevo equilibrio del juego, la maximización de beneficios del propietario del mismo le llevaría a cerrarlo en la época de reproducción. Esto mejora los resultados de todos. En concreto, después de pagar al propietario -que cobraría en total 0,6 toneladas de pescado- cada pescador obtendría ahora 2,7 toneladas. ¡El egoísmo y la privatización del lago conducen ahora a una explotación colectivamente óptima del caladero!

2

79

La Sociedad

conducir a decisiones socialmente óptimas en este ámbito. Esta es la cuestión que abordamos a continuación. 2. Los Recursos naturales y el mercado ¿Qué posibilidades hay de que el mercado encamine las decisiones de los agentes económicos hacia una administración socialmente racional de los recursos naturales? ¿Las acciones guiadas por el mero interés individual conducen en este campo al despilfarro y la imprevisión colectivas? No necesariamente. Tomemos, por ejemplo, el caso del petróleo. Cualquier noticia que indique su posible agotamiento antes de lo esperado, hace que su precio se eleve. Esta elevación conduce al incremento del precio de los productos intensivos en el uso de petróleo -y, por tanto, a la reducción de su consumo-, impulsa el uso de tecnologías ahorradoras de este recurso e incentiva el desarrollo de nuevas fuentes de energía. La perspectiva de que pueda llegar a agotarse en algún momento, induce a los grandes capitales especulativos a comprar reservas de petróleo ya que podrán alcanzar precios todavía más elevados en el futuro. Pero esa demanda especulativa tiene como consecuencia elevar más todavía el precio del petróleo e incentivar aun más el proceso antes mencionado de ahorro y de búsqueda de sustitutos. Así pues, la especulación y la perspectiva de futuras escaseces pone en marcha, a través del mercado y de su mecanismo de precios, toda una serie de comportamientos que contribuyen a los necesarios cambios tecnológicos y a la paulatina sustitución del petróleo por otras energías. Cuanto más ávidos de beneficio estén los especuladores y mejor calculen el progresivo agotamiento de las reservas petrolíferas, más seguridad tendremos de que la elevación de su precio se irá produciendo a tiempo y con la suficiente intensidad como para incentivar adecuadamente los procesos de evolución tecnológica y de sustitución energética. Ahora bien, este funcionamiento del mercado en modo alguno asegura siempre una explotación socialmente racional de los recursos naturales. La Teoría Económica ha analizado con detalle las circunstancias bajo las cuales el mercado no funciona correctamente -es decir, coordina ineficientemente las decisiones que simultáneamente toman los innumerables agentes que participan en la economía- y se hace necesaria la intervención de la Administración Pública. Una de las circunstancias bajo las cuales no cabe esperar resultados socialmente correctos es la ya señalada de las externalidades. En general, las empresas tienen que pagar por todos los costes sociales que generan -es decir, los costes privados y los sociales coinciden- pero en ocasiones alguno de ellos no es internalizado. Consideremos el caso de los residuos industriales. Si una empresa vierte sus residuos al solar de un vecino, tendría que pagar por ello -estaría internalizando este coste- lo cual le incentivaría a usar una tecnología más limpia para ahorrar costes. Pero si el vertido se produce al aire o a un río, no hay que pagar nada -el coste se externaliza- y por tanto no hay incentivos al uso de una tecnología más limpia. Cuando se producen estas externalidades, el mercado crea un marco de incentivos socialmente incorrecto, y los agentes económicos tienden a tomar decisiones socialmente ineficientes. En estas circunstancias, la Administración debe actuar para corregir el fallo del mercado. El tipo de intervenciones que pueden adoptarse en estos casos también ha sido objeto de extensa investigación por parte de la Teoría Económica. Los impuestos ecológicos son una forma de internalizar los costes sociales de la contaminación en el cálculo de las empresas. La creación de derechos de propiedad sobre el mar mediante la ampliación de las aguas jurisdiccionales es una vía de evitar la esquilmación de caladeros de pesca debido a que cuando no son de nadie, el mercado conduce a la sobreexplotación de los mismos. Ahora bien, la corrección de los fallos del mercado exige que entren a decidir los poderes públicos; lo cual plantea un nuevo problema de eficiencia y de racionalidad colectiva. En principio, nada asegura que
80

La Sociedad

las opciones adoptadas a través de las instituciones políticas sean socialmente óptimas; es decir, los mecanismos políticos de decisión colectiva pueden ser también muy ineficientes. El análisis de este problema es uno de los campos de investigación que ha dado pie al resurgimiento de la Economía como Economía Política. 3. La Nueva Economía Política Como decíamos, la Teoría Económica ha venido identificando e investigando la amplia serie de circunstancias bajo las cuáles el mercado resulta una institución ineficiente en la coordinación de la actividad económica. Cuando alguna de ellas se produce, se hace necesaria la actuación del Estado. Surgen entonces dos tipos de problemas: 1) ¿qué actuaciones debería adoptar el Estado?; y 2) ¿hasta qué punto los mecanismos políticos de decisión social existentes conducirán a las actuaciones públicas correctas? La investigación acerca de los fallos de mercado ha ido típicamente en paralelo con el análisis de las actuaciones que podrían compensarlos, dando respuesta a la primera de las preguntas. Pero la Ciencia Económica había venido dejando de lado la segunda cuestión desde la segunda mitad del siglo XIX. Es entonces cuando la Ciencia Económica dejó de ser Economía Política para convertirse, simplemente, en Economía. Aunque existieron importantes excepciones, el estudio de los procesos de decisión política en la esfera de lo económico dejó de constituir una vertiente más del análisis económico. Afortunadamente, esta tendencia ha registrado un cambio radical en los últimos tiempos. Los nuevos modelos aplicados a los procesos políticos toman de la Economía su enfoque metodológico: bajo el supuesto de que el electorado y el conjunto de sujetos políticos actúan movidos por sus intereses individuales, se estudia qué consecuencias sobre las decisiones públicas, sobre la adecuación de los gobernantes elegidos a las preferencias mayoritarias y sobre el bienestar colectivo tienen diferentes estructuras políticas4. Estas estructuras son las que definen el conjunto de interdependencias y de incentivos que rigen las decisiones de los distintos agentes; y la evolución misma de estas estructuras es también estudiada como la resultante del juego de intereses. La Teoría de Juegos ofrece las herramientas conceptuales y matemáticas específicas para este análisis. Más de dos siglos después, los nuevos modelos parecen haber asumido los planteamientos de David Hume, quien en uno de sus Escritos Políticos titulado “Que la política puede ser reducida a una ciencia”, afirmaba: “Tan grande es la fuerza de las leyes, y de las diversas formas de gobierno, y tan escasa su dependencia del humor y el temperamento de los hombres, que a veces se pueden deducir de ellas consecuencias casi tan generales y ciertas como las de las ciencias matemáticas”. 4. Reflexiones finales sobre Economía y Complejidad Aunque la identificación de la corriente principal de la Economía con algo parecido al llamado Pensamiento Único o con alguna otra caricatura de ciencia suele ser el fruto de un llamativo desconocimiento sobre los contenidos de la misma, es cierto que durante bastante tiempo el Análisis Económico ha mantenido una visión excesivamente simplista o limitada de algunos fenómenos. En las últimas dos décadas, sin embargo, la evolución y la ampliación de sus horizontes han registrado una progresión muy notable. La Teoría de Juegos y la Economía de la Información -que analiza los comportamientos en condiciones de incertidumbre y de diferencias en los datos que tienen los distintos sujetos- han sido en gran medida responsables de ello. El renovado interés por la problemática de la Economía Política es sólo uno de los posibles ejemplos de cómo la Economía viene incorporando nuevas cuestiones a
4

Para una panorámica de esta literatura, véase Miller (1997) y Levin y Nalebuff (1995).

81

La Sociedad

su análisis, reconociendo las interdependencias de su objeto de estudio con muchas otras instancias de las sociedades humanas. Simultáneamente, ha venido incrementandose la preocupación por incorporar supuestos de comportamiento más complejos en la psicología de los agentes económicos5. Por otra parte, también se ha producido una “exportación” de métodos y herramientas a otras ciencias. La Teoría de Juegos y su aplicación al campo de la biología evolutiva es nuevamente el mejor ejemplo6. La relación entre la Ética y la Economía, por último, constituye un terreno fundamental en el que cabe prever un notable desarrollo en el futuro. Como diversos autores han señalado —A. Sen (1989), y Hausman y McPherson (1993) entre otros— ambas disciplinas tienen mucho que ganar con su relación mutua, tanto en los aspectos positivos de explicación de los fenómenos sociales, como en los normativos. El hecho de que el Premio Nobel de Economía de 1998 se haya concedido al mencionado Amartya Sen resulta significativo del creciente eco que estas cuestiones están obteniendo. Esta evolución de la Economía, junto con una aproximación a la misma algo más rigurosa y documentada por parte de algunos científicos sociales hipercríticos, puede dar lugar a avances muy valiosos en nuestra capacidad para comprender la dinámica de las sociedades humanas y para facilitar la resolución de algunos de sus problemas.

Bibliografía
-Alcalá Agulló, F. (1990) “Modelos y postulados en la explicación económica”, en W.J. González Aspectos metodológicos de la investigación científica (2ª edición). Ediciones de las Universidades Autónoma de Madrid y de Murcia. -Conlisk, J. (1996): “Why bounded rationality?”, Journal of economic literature, 34, 669-700. -Hausman D.M. y M.S. McPherson, (1993): “Taking Ethics seriously: Economics and contemporary Moral Philosophy”, Journal of economic literature, 31, 671731. -Elster, J. (1998): “Emotions and Economic Theory”, Journal of economic literature, 36, 47-74. -Hammerstein P. y R. Selten (1994): “Game Theory and Evolutionary Biology”, en R.J. Aumann y S. Hart, Handbook of Game Theory, Vol.2, 929-993. -Levin J. y Nalebuff B. (1995) “An introduction to vote-counting schemes”, Economic Perspectives, 9, 3-26. -Lewin, S. (1996): “Economics and Psychology: Lessons for our own day from the early twentieth century”, Journal of economic literature, 34, 1293-1323. -Miller, G.J. (1997): “The impact of Economics on contemporary Political Science”, Journal of economic literature, 35, 1173-1204. -Rabin, M. (1998): “Psychology and Economics”, Journal of economic literature, 36, 11-46.
5 6

Véase, por ejemplo, Conlisk (1996), Elster (1998), Lewin (1996) y Rabin (1998). La referencia clásica es Smith (1982); y una panorámica de esta línea de investigación puede encontrase Hammerstein y Selten (1994).

82

La Sociedad

-Sen, A. (1989): Sobre ética y Economía, Alianza Madrid. -Smith, A. (1776): Investigación sobre la naturaleza y causas de la riqueza de las naciones, F.C.E., México, 1958. -Smith, J.M. (1982): Evolution and the Theory of Games, Cambridge U.P..

83

EL GRAN EXPERIMENTO: CIENCIA Y POLÍTICA EN LA SOCIEDAD GLOBAL
Antonio Campillo
Comunicación
as ciencias sociales nacieron en el siglo XIX, estrechamente ligadas a la formación del capitalismo industrial, de las grandes concentraciones urbanas, del Estado nacional parlamentario y de las conquistas coloniales en los territorios de ultramar. Y nacieron precisamente para proporcionar instrumentos de gestión, de comprensión y de legitimación a estas nuevas instituciones. Por eso, estas instituciones fueron consideradas desde el primer momento como el modelo ideal a partir del cual debía llevarse a cabo el estudio y la valoración comparativa de la vida humana en sociedad. En otras palabras, las ciencias sociales consideraron el proceso histórico de modernización de Occidente como el proceso crucial de la historia humana. Hasta la segunda mitad del presente siglo, este proceso de modernización fue explicado conforme a unos cuantos supuestos básicos:
1.

L

La modernización fue entendida como la consumación de un proceso histórico lineal, regido por inexorables leyes de evolución social, que habían de conducir a todas las sociedades de lo más simple a lo más complejo, del “salvajismo” a la “civilización” (Lewis H. Morgan), de la “empresa militar” a la “empresa industrial” (Herbert Spencer), de la “comunidad” parental a la “asociación” contractual (Ferdinand Tönnies), de la “solidaridad mecánica” a la “solidaridad orgánica” (Émile Durkheim), a través de una serie de fases o etapas gradualmente escalonadas. Al mismo tiempo, la modernidad fue entendida como un proceso unilateral de expansión colonial y de irradiación cultural, que iba del centro a la periferia, de la Europa occidental al resto del mundo, de los pueblos blancos, portadores de la religión judeocristiana, la tecnología moderna y el derecho civilizado, a los pueblos de color, sumidos en absurdas supersticiones, miserable subsistencia y bárbaras costumbres. Esta evolución temporal y esta expansión colonial fueron legitimadas como un proceso de civilización o de progreso moral de la hu-

2.

3.

La Sociedad

manidad, gracias al cual se pasaba del estado natural de violencia al estado civil de legalidad, es decir, de la hobbesiana “guerra de todos contra todos” a la kantiana “paz perpetua”. La modernidad era considerada como la culminación de este proceso de pacificación de las relaciones sociales, en el que la fuerza animal parecía retroceder ante el avance de la razón y de la ley. El despotismo político y las guerras entre los pueblos acabarían siendo reemplazadas por el imperio de la ley y por el pacífico comercio. Y todo ello gracias a las nuevas instituciones del Estado nacional y de la economía capitalista.
4.

Paralelamente a este proceso de civilización de la sociedad, la modernidad también pretendía llevar a su culminación el proceso de domesticación de la naturaleza. La humanidad, solía decirse, ha dado dos grandes saltos tecnológicos en el curso de su historia: la revolución neolítica, que permitió la domesticación de plantas y animales, y la revolución industrial, que permitió la domesticación de las energías naturales y de los microorganismos patógenos. El desarrollo de los saberes tecnocientíficos era entendido también como un proceso lineal y acumulativo, destinado a incrementar progresivamente el conocimiento y el dominio de la naturaleza por parte de los seres humanos. Por último, este proceso de evolución temporal y de colonización espacial, de civilización de la sociedad y de domesticación de la naturaleza, era entendido como un proceso de diferenciación y coordinación funcional entre los diversos dominios de la experiencia humana, de los que tenían que ocuparse diferentes y coordinadas disciplinas científicas, destinadas no sólo al conocimiento teórico sino también a la administración práctica de tales dominios:

5.

-Así, la diferenciación entre el pasado y el futuro, la tradición y la innovación, las costumbres antiguas y los saberes modernos, fue la base sobre la que se justificó la separación entre la historiografía (dedicada al estudio del pasado) y el resto de las ciencias sociales (dedicadas al estudio del presente y al pronóstico de las tendencias de futuro). -La diferenciación entre los pueblos europeos, civilizados y desarrollados, y los pueblos no europeos, primitivos y subdesarrollados, fue la base sobre la que se diferenciaron la sociología (dedicada al estudio y gestión de la sociedad occidental) y la antropología social o cultural (dedicada al estudio y gestión de las sociedades no occidentales). -En el seno de la sociedad moderna, se intentó establecer una diferenciación y coordinación funcional entre diversos subsistemas sociales: la política (centrada en torno al Estado), la economía (regida por el mercado), el parentesco (cristalizado en la familia patriarcal) y la cultura (protagonizada por las instituciones de educación, investigación y comunicación). La supuesta diferenciación y coordinación funcional entre estos subsistemas sociales justificó la separación académica entre las ciencias jurídico-políticas, las ciencias económico-empresariales, las ciencias bio-psico-médicas y las ciencias socio-culturales. -Por último, se estableció una gran diferenciación entre el movimiento histórico de las sociedades humanas, irreversible y progresivo, regido por la luminosa razón, y el movimiento natural de los fenómenos físicos, reversible y cíclico,
85

La Sociedad

regido por la ciega inercia. Esta dicotomía entre el “reino de la libertad” y el “reino de la necesidad” sirvió de base a la contraposición entre ciencias sociales y ciencias naturales. Estos cinco grandes supuestos han comenzado a ser cuestionados en las últimas décadas, debido a una serie de acontecimientos que se han venido sucediendo a lo largo del siglo XX. Me limitaré a enumerar los más importantes: las dos guerras mundiales (también llamadas guerras civiles europeas), el totalitarismo nazi y soviético, las armas de destrucción masiva (químicas, biológicas y nucleares), la descolonización de los países no europeos, la explosión demográfica, la pobreza de millones de seres humanos, la crisis ecológica provocada por la industrialización y el consumo de masas, la quiebra vertiginosa del patriarcado, la globalización de la economía, la política y la cultura, y, en estrecha relación con todo ello, las grandes innovaciones científicas y técnicas (desde la física nuclear hasta la telemática, desde la ecología global hasta la ingeniería genética), que han transformado radicalmente nuestra vida cotidiana y nuestra comprensión del mundo. Todos estos acontecimientos han modificado decisivamente el rostro de la modernidad. En las últimas décadas, se ha impuesto la idea de que la modernidad ha llegado a su fin, o al menos ha entrado en una fase completamente nueva. Mientras que unos autores hablan de la “postmodernidad”, otros prefieren hablar de una modernidad “tardía”, “segunda” o “reflexiva”. Pero unos y otros coinciden en la necesidad de cuestionar los supuestos por medios de los cuales el Occidente moderno se había regido, comprendido y legitimado a sí mismo, es decir, los supuestos que habían servido de cimiento teórico a las ciencias sociales. De hecho, está comenzando a gestarse una nueva teoría social, que pretende proporcionar otro tipo de instrumentos para la gestión, comprensión y legitimación de las instituciones y movimientos sociales actualmente emergentes. Esta nueva teoría social cuestiona punto por punto la teoría de la modernización hasta ahora dominante.
1.

En primer lugar, se cuestiona la concepción lineal de la historia y se rechaza la existencia de unas supuestas leyes y etapas de la evolución social. Por un lado, se reconoce el carácter “coyuntural” de los procesos históricos, incluido el proceso de modernización de Occidente; se reconoce, pues, la contingencia y singularidad de este proceso, y, por tanto, se problematiza su pretensión de universalidad y de necesidad. Por otro lado, se observa que tradición e innovación no se oponen ni se suceden, sino que se componen y reorganizan entre sí; así se explica que en las sociedades más “modernas” puedan surgir movimientos sociales tan diversos como el fundamentalismo religioso y el conservacionismo ecológico. En segundo lugar, se cuestiona la concepción radial del proceso de mundialización de las relaciones sociales, que lo reduce a un mero movimiento de expansión unilateral por parte del Occidente moderno. Por el contrario, se analiza la naciente sociedad global como una sociedad poliárquica y multicultural, en donde lo global y lo local interactúan recíprocamente, dando origen a las más diversas formas de mestizaje y de conflicto intercultural. Así, el creciente cosmopolitismo de las relaciones sociales y el renovado localismo de las identidades nacionales no se excluyen sino que se combinan y refuerzan entre sí.

2.

86

La Sociedad

3.

El proceso de modernización ya no es entendido como un proceso de civilización, pacificación y moralización creciente de las relaciones sociales, sino como un proceso moralmente ambivalente, que ha hecho posibles a un tiempo nuevas formas de violencia y nuevas formas de convivencia. El siglo XX ha desarrollado sofisticadas técnicas de dominación y de exterminio, ha llevado a cabo genocidios masivos, ha inventado armas capaces de destruir a la humanidad entera en un breve lapso de tiempo, ha sumido a millones de seres humanos en la humillación y la indigencia, y tal vez por ello es también el siglo que ha dado origen a la Organización de Naciones Unidas, que ha proclamado la Declaración Universal de Derechos Humanos y que ha dado los primeros pasos para construir una comunidad política planetaria. El proceso de modernización ha dejado de ser considerado como un proceso lineal y unilateral de domesticación de la naturaleza por parte de la industria y de los saberes tecnocientíficos. En primer lugar, porque el pretendido dominio de la naturaleza está sujeto a una ambivalencia tecnológica: toda innovación destinada a asegurar o incrementar ese dominio produce al mismo tiempo “efectos secundarios” incontrolados e imprevistos que lo hacen inseguro, provocando así una “incertidumbre fabricada”, un “riesgo” tecnológicamente inducido y políticamente conflictivo. En segundo lugar, porque la relación histórica entre el hombre y la naturaleza es una relación de interacción recíproca y de coevolución, en el marco de un ecosistema terrestre que integra tanto los procesos “naturales” de la biosfera como los procesos “artificiales” de la tecnosfera, y cuyo equilibrio global no puede ser alterado sin poner en peligro la supervivencia de la propia especie humana. Por último, y como consecuencia de todo lo anterior, se ha cuestionado la concepción funcionalista de la sociedad (sea en su antigua versión organicista o en su más sofisticada versión sistémica), que da por supuesta la diferenciación y coordinación funcional entre diversos subsistemas sociales: el Estado, el mercado, la familia y las instituciones culturales (educación, investigación y comunicación). Estos subsistemas no son autónomos, ni se coordinan en un todo social unitario, sino que se interfieren y se alteran mutuamente, dando lugar a una red de interacciones fluida y compleja, que no cesa de modificarse a sí misma. Este modelo reticular permite pensar la dinámica de las relaciones sociales como una tensión incesante entre las fuerzas centrípetas y las fuerzas centrífugas, entre el equilibrio y el conflicto, entre el orden y el caos.

4.

5.

Este nuevo modelo de análisis social obliga a replantear las relaciones entre las diversas disciplinas científicas, incluidas las relaciones entre ciencias sociales y ciencias naturales, y sobre todo obliga a reconocer la interconexión entre los saberes expertos (sean saberes socio-económicos, bio-médicos o físico-químicos) y los poderes sociales en conflicto (empresas, Estados, comunidades locales, organizaciones civiles, etc.). -Para empezar, en las últimas décadas se ha iniciado una nueva relación entre el estudio historiográfico del pasado y el análisis sociológico del presente, dando lugar a disciplinas como la historia social y la sociología histórica. Sobre todo, la revisión crítica de la teoría de la modernización ha llevado a rees87

La Sociedad

cribir la historia del Occidente moderno, y esta investigación histórica de nuestro propio pasado ha proporcionado, a su vez, nuevas herramientas para la comprensión y la crítica del presente. -En segundo lugar, la oposición entre sociedades modernas y sociedades tradicionales ha dejado paso a una sociedad globalizada en la que se multiplican los fenómenos de hibridación cultural, y esto tanto en los países del Sur (que han sufrido de forma traumática el impacto de la modernización) como en los países del Norte (que están respondiendo a la inmigración masiva y al mestizaje cultural mediante la reinvención y reafirmación de sus tradiciones locales). De ahí que la separación entre sociología y antropología cultural se haya vuelto insostenible. EL estudio antropológico de los “otros” ya no es posible sin una sociología de las relaciones Norte-Sur, y el estudio sociológico del “nosotros” ya no es posible sin una antropología de los conflictos y mestizajes interculturales en las grandes urbes modernas. -En la sociedad global, es igualmente insostenible la pretendida diferenciación funcional entre la política, la economía, el parentesco y la cultura, con la correspondiente separación académica entre los distintos saberes que se ocupan de ellas. En cambio, se ha impuesto el modelo de la sociedad red, en el que todas las relaciones sociales interfieren entre sí en entramados complejos y abiertos, fluidos e inestables. Pongamos tres ejemplos: la revolución en las tecnologías de la información no sólo ha transformado radicalmente el mundo de la cultura, sino también el mundo de las finanzas, la producción, el comercio, la política nacional, los movimientos sociales e incluso el crimen organizado; el movimiento de liberación de las mujeres no sólo ha cambiado las relaciones de parentesco sino también el mercado de trabajo, las reglas de la política y el mundo de la cultura; en tercer lugar, la crisis ecológica del capitalismo industrial ha hecho que se problematicen no sólo los procesos de producción sino también las políticas públicas (ordenación del territorio, transportes, energía, etc.), los hábitos domésticos, los saberes tecnocientíficos y los valores culturales. -Por último, el fenómeno de la crisis ecológica ha puesto en cuestión la gran separación entre naturaleza y sociedad, sobre la que pretendió edificarse la sociedad industrial y sobre la que también trató de cimentarse la teoría de la modernización. Según esta teoría, los seres humanos habrían pasado de ser siervos a ser señores de la naturaleza, gracias al poder que les fue conferido por los modernos saberes tecnocientíficos. Pero los seres humanos no somos siervos ni señores de la naturaleza: sencillamente, somos seres vivientes que formamos parte de la biosfera terrestre y que hemos evolucionado junto con ella. La teoría darwinista de la evolución fue el primer puente que se tendió entre las ciencias naturales y las ciencias sociales. Desde entonces, las ciencias biológicas (especialmente, la genética y la ecología) han mostrado los vínculos indisociables entre la historia de la biosfera terrestre y la historia de las sociedades humanas. La crisis ecológica global ha puesto al descubierto el destino común que liga al ser humano con el resto de los seres naturales. El gran reto de la humanidad actual, la exigencia de asegurar la habitabilidad del planeta para las generaciones futuras, es un problema indisociablemente científico y político, tecnológico y jurídico, económico y cultural, que requiere la combinación de todo tipo de medidas: investigaciones científicas interdisciplinares, acuerdos políticos internacionales, reorganizaciones tecnológicas en los procesos de producción y de consumo, legislaciones medioambientales, nuevos sistemas de fiscalidad y de contabilidad económica, nuevos valores éticos.

88

La Sociedad

Esta última cuestión de los riesgos ecológicos globales (a la que tendríamos que añadir los experimentos que viene realizando la ingeniería genética con plantas, animales y seres humanos), no sólo ha puesto al descubierto el vínculo indisociable entre sociedad y naturaleza, sino que, con ello, ha puesto también en juego un nuevo tipo de relación entre los saberes expertos y los poderes sociales. En la primera modernidad, se daba por supuesta la separación entre el saber de los especialistas y el poder de las instituciones, entre las reglas de la comunidad científica y las reglas del resto de la sociedad, entre los procesos de adquisición y validación del conocimiento y los procesos de deliberación y legitimación de las decisiones colectivas, en fin, entre la lógica “interna” de la ciencia “pura” y la lógica “externa” de sus usos o de sus “aplicaciones” prácticas por parte de los profanos. De este modo, los expertos reclamaban para sí una autoridad indiscutible y al mismo tiempo se irresponsabilizaban con respecto a las consecuencias de sus investigaciones. Este estado de cosas ha cambiado en las últimas décadas. Desde que se inventaron las cámaras de gas y las armas de destrucción masiva, los científicos ya no pueden seguir sosteniendo la doble pretensión de una ciencia pura y de un gobierno tecnocrático. Ya no pueden seguir sosteniendo que la investigación científica es ajena a las luchas e intereses sociales y, al mismo tiempo, que proporciona a los especialistas una autoridad moralmente neutra. Esta insostenible paradoja se ha puesto cada vez más de manifiesto, a medida que se han ido multiplicando los efectos nocivos de muchas innovaciones tecnológicas, en campos tan diversos como la nergía, las telecomunicaciones, la agroquímica, la ganadería, la pesca, los fármacos y la ingeniería genética. Los efectos nocivos de estas innovaciones están afectando de forma creciente al medio ambiente, a los seres vivos y en especial a los propios seres humanos. Como puede comprobarse en el caso del cambio climático y del llamado efecto “invernadero”, el problema al que se enfrentan ahora los saberes tecnocientíficos ya no es la domesticación de una naturaleza salvaje, avara y amenazante, sino el estudio y control de los grandes riesgos globales inducidos por el propio desarrollo tecnocientífico. La ciencia, que en el siglo pasado era ensalzada como la mensajera de la felicidad terrenal, es ahora acusada de provocar los mayores peligros de la humanidad. La crítica ya no proviene de los nostálgicos de la religión, sino todo lo contrario: de quienes se oponen a que la ciencia asuma la autoridad indiscutible y el poder sacrificial de las viejas religiones de salvación. Los nuevos críticos de la ciencia son los movimientos ciudadanos y los científicos que se saben responsables y que ya no se escudan tras el mito de la neutralidad moral. De este modo, los saberes expertos se están viendo forzados a actuar de forma “reflexiva”, a ejercer la autocrítica con respecto a sus iniciales pretensiones de conocimiento infalible y de dominio absoluto de la naturaleza. Los propios saberes se vuelven cada vez más plurales, hipotéticos, problemáticos. La discusión y la duda se hacen habituales en la comunidad científica. La frontera entre los debates científicos y los debates políticos se vuelve borrosa. Los conflictos sociales acaban introduciéndose en el templo del saber y profanando su aura sagrada, como han puesto de manifiesto los debates relativos al cambio climático y los más recientes sobre los alimentos transgénicos. Ya no es posible seguir sosteniendo el círculo mágico que separaba la teoría y la práctica, el saber y el poder, los juicios de hecho y los juicios de valor, el conocimiento puro y los intereses impuros, las exigencias internas de la investigación y las exigencias externas de los grupos sociales. La relación entre saberes expertos y poderes sociales es una relación de doble dirección. En primer lugar, es preciso reconocer que la compleja red de las relaciones sociales y sus correspondientes conflictos de intereses atraviesan el interior de
89

La Sociedad

los laboratorios, hospitales, fundaciones, universidades y centros de alta especialización, condicionando de uno u otro modo la elección de los objetos, métodos y modelos de investigación. Pero esto no es todo, ni siquiera es lo más importante. Hay algo mucho más importante, que sólo en las últimas décadas se ha puesto de manifiesto. Si la ciencia y la política ya no pueden seguir siendo pensadas por separado, no es sólo porque las luchas sociales atraviesen los espacios del saber sino también, y sobre todo, porque es el propio espacio vital en el que habitan los seres humanos el que se encuentra cada vez más atravesado por los saberes expertos. En otras palabras, es el conjunto de las relaciones sociales y de las interacciones con la naturaleza el que ha pasado a convertirse en un gigantesco laboratorio; somos todos los seres humanos, más aún, todos los seres naturales que componemos la biosfera terrestre, quienes nos encontramos expuestos a un inmenso e imprevisible proceso de experimentación. Y es precisamente por eso, porque los saberes tecnocientíficos han convertido a todos los seres humanos en objetos pasivos e involuntarios de un gran experimento planetario, de un experimento que es a la vez físico, químico, biológico, tecnológico, económico, político y cultural, por lo que los movimientos sociales reclaman cada vez más el derecho a intervenir como sujetos activos y reflexivos en el estudio y control de dicho experimento. En la sociedad actual, los saberes tecnocientíficos han adquirido un estatuto político problemático porque han hecho de la humanidad entera el objeto de una experimentación gigantesca e imprevisible. De ahí que haya surgido la exigencia y la urgencia de someter esos saberes a un debate público y a un uso reflexivo por parte de los individuos, las asociaciones civiles, las empresas y los Estados. Pero esto significa que no sólo está cambiando nuestra comprensión de la ciencia sino también nuestra comprensión de la política. Durante los dos últimos siglos, la política moderna (tanto la teoría política como la práctica de las instituciones políticas) había venido girando en torno a tres grandes ejes: en primer lugar, los conflictos entre las clases sociales (y entre los partidos políticos de base clasista), que tenían por objeto el control del Estado nacional y la distribución social de la riqueza; en segundo lugar, los conflictos militares y diplomáticos entre los grandes Estados occidentales, que tenían por objeto el control de sus respectivas áreas de influencia colonial, comercial y cultural; por último, la confianza que todos ellos (partidos políticos, clases sociales, y Estados nacionales) tenían depositada en el poder ilimitado del ser humano para proyectar y gobernar científicamente su propio destino histórico. Esta confianza en el poder ilimitado de la ciencia, junto con los conflictos entre las clases y las naciones, han sido el núcleo teórico de las grandes ideologías políticas modernas: el liberalismo, el nacionalismo y el marxismo. Pero, en la modernidad “segunda”, “tardía” o “reflexiva”, el desarrollo del saber tecnocientífico ha provocado no un creciente dominio del mundo natural y social sino una creciente “incertidumbre fabricada” (Giddens), hasta el punto de que la sociedad actual se ha convertido en una “sociedad de riesgo” (Beck), en la que peligran no sólo los grandes ideales políticos y económicos de la modernidad sino la mera supervivencia física de la especie humana. Algunos de estos riesgos son tales que borran las fronteras entre las clases y las naciones, y por tanto requieren respuestas políticas de alcance global o planetario. Por eso, junto a los viejos conflictos entre clases, partidos y naciones, y entremezclados con ellos, han ido surgiendo otro tipo de conflictos y de asociaciones civiles, que giran en torno a los usos y efectos de los saberes expertos, es decir, que problematizan el supuesto vínculo entre la racionalidad tecnocientífica y el progreso material y moral de la humanidad. Esta es precisamente la novedad política que han aportado movimientos sociales como el ecologismo, el pacifismo, el feminismo, las organizaciones de ayuda al de90

La Sociedad

sarrollo, las organizaciones de consumidores, las asociaciones de enfermos o afectados por algún síndrome particular (como el sida), las comunidades virtuales, etc. Por eso, dice Giddens, junto a la “política emancipatoria” de la primera modernidad, ha aparecido la “política de la vida” de la segunda modernidad, que se ocupa no sólo del cuerpo individual, de su salud y de su sexualidad, sino también del conjunto de seres vivos y de recursos vitales que componen la biosfera del planeta Tierra. Por eso, dice Beck, junto al concepto moderno de política y a sus instituciones típicas, han ido surgiendo nuevas formas de “subpolítica” que problematizan la frontera entre lo público y lo privado, entre lo económico y lo político, entre la racionalidad técnica y la racionalidad moral, y que por tanto requieren una “reinvención de la política”. Uno de los aspectos esenciales de la nueva política es que en ella ya no son separables la verdad y la justicia, los juicios de hecho y los juicios de valor, los problemas técnicos y los problemas morales, ni se da por supuesto que la mera innovación tecnocientífica sea en sí misma valiosa y conlleve necesariamente una mejora material y moral de la vida humana. Esta nueva relación entre ciencia y política exige a los ciudadanos adquirir una cultura científica, un juicio informado y crítico sobre los saberes expertos que alteran de uno u otro modo sus condiciones de vida; y, a la inversa, exige a los científicos adquirir una responsabilidad cívica, lo cual implica reconocer que en el proceso mismo de su actividad especializada no pueden dejar de adoptar determinadas opciones morales, económicas y políticas, de las que han de rendir cuentas ante los demás. En la sociedad global, los saberes tecnocientíficos han adquirido un estatuto político problemático porque han adquirido un creciente poder sobre todos nosotros, porque afectan de manera decisiva a nuestras condiciones de existencia, a nuestras luchas sociales, a nuestras más íntimas opciones vitales; y, precisamente por eso, en los debates políticos actuales tienen cada vez más importancia las cuestiones relativas a los saberes tecnocientíficos, a sus mecanismos de financiación y planificación, a las instituciones encargadas de su control y validación, a sus procesos de difusión y comercialización, a sus efectos sociales, sanitarios y medioambientales. En todos los grandes conflictos del presente, los argumentos científicos y los argumentos políticos ya no pueden dejar de entrecruzarse a la hora de decidir acerca de nuestro destino individual y colectivo

Bibliografía
-BAUMAN, Zygmunt, Modernidad y Holocausto, Sequitur, Madrid, 1997. -BECK, Ulrich, La sociedad del riesgo. Hacia una nueva modernidad, Paidós, Barcelona, 1998; ¿Qué es la globalización? Falacias del globalismo, respuestas a la globalización, Paidós, Barcelona, 1998. -BECK, Ulrich, Anthony GIDDENS y Scott LASH, Modernización reflexiva. Política, tradición y estética en el orden social moderno, Alianza, Madrid, 1997. -CASTELLS, Manuel, La era de la información: economía, sociedad y cultura, 3 vols., Alianza, Madrid, 1997-98 (vol. 1: La sociedad red, 1997; vol. 2: El poder de la identidad, 1998; vol. 3: Fin de milenio, 1998). -CAVALLI-SFORZA, Luigi Luca, Genes, pueblos y lenguas, Crítica, Barcelona, 1997. -COMMONER, Barry, Ciencia y supervivencia, Plaza y Janés, Barcelona, 1972; En paz con el planeta, Barcelona, Crítica, 1992.
91

La Sociedad

-CROSBY, Alfred W., Imperialismo ecológico. La expansión biológica de Europa, 900-1900, Crítica, Barcelona, 1998. -FOUCAULT, Michel, Microfísica del poder, La Piqueta, Madrid, 1978; Vigilar y castigar. Nacimiento de la prisión, Siglo XXI, México, 1976; Historia de la sexualidad, 3 vols., Siglo XXI, Madrid, 1978-1987; Genealogía del racismo. De la guerra de las razas al racismo de Estado, La Piqueta, Madrid, 1992. -GIDDENS, Anthony, Consecuencias de la modernidad, Alianza, Madrid, 1993; Modernidad e identidad del yo. El yo y la sociedad en la época contemporánea, Península, Barcelona, 1995; Más allá de la izquierda y la derecha. El futuro de las políticas radicales, Cátedra, Madrid, 1996. -GIDDENS, Anthony y Jonathan H. Turner (eds.), La teoría social, hoy, Alianza, Madrid, 1990. -JONAS, Hans, El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica, Herder, Barcelona, 1995; Técnica, medicina y ética. Sobre la práctica del principio de responsabilidad, Paidós, Barcelona, 1997. -MANN, Michael, Las fuentes del poder social, I. Una historia del poder desde los comienzos hasta 1760 d. C., Alianza, Madrid, 1991; Las fuentes del poder social, II. El desarrollo de las clases y los Estados nacionales, 1760-1914, Alianza, Madrid, 1997. -MARTÍNEZ-ALIER, Joan, La economía ecológica como ecología humana, Fundación César Manrique, Lanzarote, 1998. -MORIN, Edgar, El paradigma perdido: el paraíso olvidado. Ensayo de bioantropología, Kairós, Barcelona, 1974; El Método, 4 vols., Cátedra, Madrid, 19811991. -PONTING, Clive, Historia verde del mundo, Paidós, Barcelona, 1992.

92

ORDEN Y CAOS EN LAS INTERACCIONES ECONOMIANATURALEZASOCIEDAD
José Carpena Guaita
Introducción

T

odos somos conscientes de la complejidad que entraña intentar comprender la realidad natural y social que nos rodea. Esta realidad se nos muestra a menudo desconcertante. A veces nos da la sensación de vivir en un mundo ordenado, preciso, totalmente determinado y predecible (sabemos con muchos años de antelación cuándo nos va visitar un cometa, qué recetar si un enfermo tiene unos determinados síntomas, cómo disponer urbanísticamente una ciudad para mejorar la calidad de vida de los ciudadanos ... ). Sin embargo, otras veces esta misma realidad se nos aparece como caótica, imprecisa, indeterminada e impredecible (la posición de un simple electrón en un átomo no está determinada más que dentro de un valor probabilístico, las cepas bacterianas se hacen resistentes a los antibióticos, en nuestras “ordenadas” ciudades se producen atascos, delincuencia y paro, en sus alrededores aparecen chabolas y vertederos...). Así pues, no es raro advertir, a menudo, cierta dosis de confusión en el ser humano. Pero entonces: ¿cómo es realmente el mundo físico?, ¿y el social?, ¿impera el orden o el caos?. El enfoque que se adopte para responder a estas preguntas no es indiferente. Hagamos una breve reseña histórica.

El paradigma cartesiano
Durante siglos, a la hora de explicar la realidad ha predominado un enfoque analítico. Éste parte del principio de reducción: explicar un fenómeno implica dividirlo en sus partes componentes y luego disponerlos en un orden lógico. Es el método cartesiano, el modo de trabajar de la ciencia clásica. Desde este enfoque se intentó explicar, primero, las leyes del universo y la materia y, posteriormente, los seres vivos y las relaciones humanas. Así el universo material se concibe como una máquina, la naturaleza funciona de acuerdo con unas leyes mecánicas, y todas las cosas del mundo material pueden explicarse en términos de la disposición y movimientos de sus partes. Los animales y las plantas se incluyen en esta visión mecani-

La Sociedad

cista con el fin de crear una ciencia natural completa y esto tiene una influencia decisiva en la evolución de las ciencias humanas. Describir minuciosamente los mecanismos que constituyen los organismos vivos ha sido la tarea principal de los biólogos, los sociólogos y los psicólogos en los últimos trescientos años. El enfoque cartesiano ha tenido mucho éxito en las distintas ramas del conocimiento, pero era demasiado ingenua la esperanza de que al estudiar aisladamente los elementos del universo observado (compuestos químicos, células, individuos, etc.) y volverlos a juntar conceptualmente, podríamos obtener la totalidad antes inteligible (cuerpos físicos, los organismos, las sociedades. etc.). El "orden natural" Para Rifkin (1990), los supuestos básicos de la visión mecánica del mundo popularizados por Bacon, Descartes, Newton, Locke y Smith, para el cosmos, la sociedad y, la economía, todavía se mantienen hoy en día. Estos supuestos pueden resumirse en unas cuantas frases sencillas. En primer lugar, el universo posee un orden matemático preciso que puede deducirse por el examen de los movimientos de los cuerpos celestes. Por desgracia, aquí en la Tierra la mayoría de las cosas en su estado original se hallan sumidas en el caos y la confusión. Por consiguiente, es necesario reorganizarlas para traer a nuestro mundo el mismo orden que parece existir en el resto del cosmos. Esto plantea la cuestión de cuál es la mejor manera de organizar la sociedad para que refleje el mismo orden que existe en el universo. La respuesta es utilizar los principios científicos de la mecánica para reorganizar las cosas naturales del modo que más favorezca a los intereses materiales de los seres humanos. Según Rifkin la conclusión lógica de este enfoque nuevo fue sencillamente esta: “Cuanto más bienestar material logremos, más ordenado deberá volverse el mundo”. El progreso, en consecuencia, consiste en amasar una abundancia material cada vez mayor, con la que se obtendrá un mundo cada vez más ordenado. La ciencia y la tecnología son las herramientas de que disponemos para realizar esta tarea y la naturaleza nos brinda los recursos necesarios para ello. Aprendiendo a controlar sus ciclos naturales de materia y energía aprenderemos a dominarla. Lo natural se identifica con lo ordenado, lo determinado y lo predecible. La Evolución: del desorden al orden La teoría biológica de la evolución, desarrollada por Lamarck y, posteriormente, por Darwin, introduce un nuevo concepto asociado a la idea de cambio, crecimiento y desarrollo. Las estructuras complejas se desarrollan a partir de formas más simples. Se ponen en cuestión las ideas fijistas predominantes hasta entonces según las cuales el número de las especies no había variado desde el día de la Creación. Sin embargo, lejos de transformar el pensamiento mecánico imperante, algunos elementos de la teoría son utilizados superficialmente y se utilizan para legitimarlo. Así, el darwinismo social convirtió el concepto de selección natural en el de la supervivencia del más apto, interpretado de forma que, en su estado natural, los seres vivos están inmersos en una lucha feroz con otros seres y que los que sobreviven y logran transmitir sus rasgos a sus descendientes son sencillamente los mejor preparados para defender sus intereses materiales. La evolución biológica significaba un movimiento hacia un orden y una complejidad mayores, lo que fortalecía la idea de que lo natural es la tendencia a un orden superior. La Termodinámica: del orden al caos Sin embargo, en física casi paralelamente en el tiempo se dice justamente lo contrario, es decir, la evolución natural de un movimiento es hacia un desorden cre94

La Sociedad

ciente. Aplicando la teoría mecánica newtoniana al estudio de los fenómenos térmicos, lo que suponía tratar líquidos y gases como sistemas mecánicos complejos, los físicos desarrollan la termodinámica. La primera de sus leyes, una de las más fundamentales de la física, especifica que la energía no puede ser creada ni destruida pero sí transformarse de una forma a otra. Si esta ley fuese lo único que tuviéramos que tener en cuenta, no habría ningún problema energético en el mundo puesto que podríamos utilizar la misma energía una y otra vez sin que escaseara. Pero la realidad no es así. Si quemamos un trozo de carbón su energía y materia se conservan pero en forma de calor, dióxido de carbono y otros gases que se dispersan por el espacio, de forma que nunca más podremos volver a quemar ese carbón para calentarnos u obtener un trabajo con el mismo rendimiento. Este fenómeno se explica por la Segunda Ley de la Termodinámica que nos dice que cada vez que la energía pasa de un estado a otro pagamos un cierto precio: la disminución de energía útil para realizar un trabajo en el futuro. De tal forma que hay una tendencia cierta en todos los fenómenos físicos: la energía se dispersa en calor y no se la puede recuperar totalmente; así un vaso de café caliente equilibra su temperatura con el medio y, nunca más se calentará de manera espontánea, un objeto que se cae de la mesa nunca ascenderá de nuevo, una disolución de ácido en agua no se separará en sus componentes, etc. El punto en común de todos los procesos anteriores es que todos proceden en la misma dirección: del orden al desorden. O dicho de otro modo, cualquier sistema físico aislado irá espontáneamente hacia un estado de mayor entropía. La entropía es una magnitud física que puede considerarse como la medida del desorden del sistema y, por tanto, siempre permanecerá constante o ira en aumento en un sistema aislado. De tal forma que el universo, según la física clásica, se dirige hacia un estado de entropía máxima, “muerte entrópica”, en donde el equilibrio térmico hará imposible cualquier tipo de movimiento. ¿Orden o Caos? Al comparar esta imagen de la evolución cósmica con la biológica se produce una aparente contradicción. ¿Quién tiene razón? ¿Evolución significa orden o caos?. La explicación a esta aparente disyuntiva se basa en que los procesos biológicos por los que se forman estructuras complejas, y que ocurren efectivamente ganando complejidad, se producen en sistemas abiertos —que intercambian rnateria y energía con el exterior— de forma que la disminución de entropía se hace a costa de un aumento del desorden en el entorno, cumpliéndose inexorablemente la 2ª Ley de la Termodinámica, Así pues podríamos matizar la idea anteriormente expuesta que relacionaba lo natural con un aumento del orden de los sistemas, diciendo que esto sólo ocurre en determinados sistemas abiertos pero en el conjunto del universo físico se produce lo contrario, es decir se evoluciona hacia estados de mayor entropía.

Un nuevo enfoque: sistemas complejos adaptativos
Estos sistemas abiertos biológicos, sociales o tecnocientíficos que son capaces de ganar omplejidad estructural a lo largo de su evolución recogiendo información de su entorno, han sido denominados recientemente como sistemas complejos adaptativos (Gell-Man, 1994). Su comprensión no puede hacerse desde una visión reduccionista sino que es necesario un enfoque más global y sistémico. Teniendo en

95

La Sociedad

cuenta siempre que se hallan sujetos a las leyes de la naturaleza, que a su vez se fundamentan en las leyes físicas de la materia y el universo. La realidad podríamos imaginarla entonces, corno un conjunto de sistemas que evolucionan. Fruto de sus interacciones se producen cambios y transformaciones (tecnocientíficas, económicas, productivas, demográficas, de valores y formas de vida, etc.) que han de ser tenidas en cuenta a la hora de establecer modelos interpretativos de dicha realidad. Desde la perspectiva anterior los sistemas -económico, social y natural- lejos de ser independientes entre sí, evolucionan influyéndose mutuamente. De tal forma que las actuaciones realizadas en cada uno de ellos tienen repercusión en el resto. Esta visión holística no ha calado todavía en todos los ámbitos de la sociedad en donde abundan los análisis de tipo reduccionista. Veamos como ejemplo, algunos fenómenos que se producen por interacción entre estos sistemas y que frecuentemente se consideran aisladamente.

Interacciones entre el sistema económico, natural y social
Una de las características fundamentales del sistema económico actual es su necesidad de crecimiento cuantitativo, pues en este crecimiento está la clave para un mayor beneficio económico. El motor del sistema se basa en la producción y el consumo masivo, siguiendo una lógica que se reproduce frecuentemente en los medios de comunicación: hay que mantener alto el consumo para que así aumente la producción y por tanto el empleo; a mayor empleo más dinero en posesión de las familias y por lo tanto más demanda. Recurriendo a un tratamiento elemental a partir de la Dinámica de Sistemas podríamos decir que consumo y producción constituyen así los elementos con relación causal que podrían conformar un bucle de realimentación positiva. Lo cual quiere decir que si se produce un aumento de cualquiera de ellos repercute en un aumento del otro. Este tipo de relación entre variables aporta la sensación de crecimiento indefinido al considerarlas frente al tiempo. Pero, ¿es posible un crecimiento infinito de la producción o el consumo? Realmente desde principios de siglo la población del Planeta se ha triplicado y la economía se ha multiplicado por veinte. Esto da una imagen aparente de “progreso” y de “orden” económico muy relacionada con la visión mecanicista que impera bajo la concepción que hoy se conoce como determinismo tecnológico, es decir la confianza ciega en que los avances en ciencia y tecnología proporcionan mayor progreso económico y este, a su vez, mayor progreso social. Sin embargo, como sabemos, ningún sistema puede crecer a costa de nada, es decir el crecimiento económico se hace a costa de mayor desorden en otras partes fuera y dentro del propio sistema. Un dato muy interesante a tener en cuenta es que normalmente se consideran los impactos ecológicos y sociales como externalidades, es decir, no se internalizan más que los beneficios y costes directamente relacionados. Considerando los recursos naturales como una variable interna del sistema, el flujo y el cuadro de relaciones resultante son bien distintos, observándose con el
96

La Sociedad

tiempo un valor máximo de la función a partir del cual no es posible un crecimiento cuantitativo, Desde una perspectiva más global, una de las críticas que más se achaca a las actuales tendencias económicas es que como eje central del crecimiento, destacan la obligatoriedad de una competitividad continuamente en alza y una constante ampliación de los mercados como elementos clave para su desarrollo, supeditando a ello cualquier tipo de consideración extraeconómica ya sea social o ambiental. Esto conduce a una visión parcial del problema y lo delimita a la convergencia hacia unos parámetros macroeconómicos (inflación, crecimiento del PIB, IPC, etc.) de los que se excluyen otros que tengan en cuenta el desarrollo social y el respeto a la naturaleza (tasa de paro, nivel de escolarización, emisiones contaminantes, etc.). El aparente “orden” del crecimiento económico y productivo lleva asociado, entonces, ciertos desordenes ambientales y sociales que normalmente no se consideran. Veamos algunos casos. “Desordenes” ambientales Como apunta Tyler (1995) la disminución aguda y la degradación de los recursos naturales, de los que a fin de cuentas depende toda economía, no se sustraen del Producto Interior Bruto (PIB). Esto significa que un país puede agotar su recursos naturales, erosionar sus suelos, contaminar sus mantos freáticos, sus bosques y agotar toda su fauna silvestre y de pesca, y nada de eso aparece como pérdida en el PIB del país, aun cuando así sea. Por tanto un país puede tener un PIB en rápido aumento a la vez que es llevado hacia la bancarrota ecológica por la pérdida permanente de su riqueza o caudal verdadero, que son los bienes de la Tierra. “Desordenes” sociales Veámoslo desde dos ópticas: los fenómenos sociales que se están produciendo en los países del “Tercer Mundo” y los que son característicos de las grandes ciudades de todo el mundo. Explosión demográfica en los países del Tercer Mundo Su origen viene provocado por el dislocamiennto de los mecanismos endógenos tradicionales de regulación demográfica de estas sociedades (Harris, 1991). La población mundial era de 5.300 millones en 1990, y se esperan más de 10.000 millones de personas para el 2100. Si tenemos en cuenta que aproximadamente el 90-95% de ese crecimiento tendrá lugar en los países del “Tercer Mundo” nos podremos hacer idea del problema. Otro problema se deriva de la estructura de edad de estos países, ya que al ser muy alta la potencial población activa, los problemas de paro serán cada vez mayores. Creciente concentración urbana Además del incremento poblacional hemos de tener en cuenta que este se sitúa fundamentalmente en las grandes áreas metropolitanas, particularmente en los países en vías de desarrollo. En los últimos cuarenta años la población urbana en estos países se cuadruplicó (de 285 millones en 1950 a 1160 en 1985), esperándose alcanzar los 4.000 millones en el año 2025. Es decir el 90% de su población tendrá carácter urbano.

97

La Sociedad

Así mismo, en el año 2000 las principales concentraciones urbanas (24 sobre 30) del mundo se localizarán en países del cono sur, la gran mayoría por encima de los 10 millones de habitantes. Con todo lo anterior, es previsible que se agudicen los problemas de conflictividad social y la ingobernabilidad de estos espacios, puesto que la escasez de recursos mínimos para la subsistencia puede afectar al 50% de su población; se gastará una ingente cantidad de dinero para subvencionar los productos alimenticios básicos con el fin de intentar mantener la paz social. Expansión de la pobreza ligada a migraciones económicas y ambientales Cada año mueren de hambre en el Mundo unos 40 millones de personas. Hoy padece hambre mayor cantidad de población que en cualquier otro momento anterior de la historia, pudiéndose afirmar que la mayoría de la población está peor ahora que hace diez años, y que no ha habido nunca tanta pobreza y, tanta riqueza juntas (Fernández Durán 1993). Además, la unión de pobreza y devastación ecológica está provocando importantes mareas humanas, sobre todo en África, que se han empezado a conocer como “migraciones ambientales”. Según la Comisión Mundial de Medio Ambiente y Desarrollo: “En África poco a poco estamos tomando conciencia del hecho de que la crisis africana es un problema de medio ambiente que ha dado lugar a síntomas adversos tales como la sequía, el hambre, la desertización, la superpoblación, los refugiados a causa del medio ambiente anterior, la inestabilidad política y la pobreza difundida” (CMMAD, 1988). Como afirma Fernández Durán “todo esto provocará una tremenda presión migratoria sobre las fortalezas de los países desarrollados, que levantarán muros de todas clases: económicos, físicos, policiales y hasta militares, para preservar sus territorios de esta potencial avalancha humana”. Pero los desordenes sociales no se advierten solamente en los países del “Tercer Mundo”. En nuestras ciudades, sobre todo en las grandes áreas metropolitanas convive con el aparente orden que acompaña al desarrollo y la opulencia un “'Tercer” y hasta un “Cuarto Mundo”. Con la introducción del fordisrno procedente del sector productivo a la geografía urbana, aparece una nueva morfología de la ciudad con una creciente especialización funcional de los espacios (negocios, sanitarios, educativos, de ocio, etc.) La idea parece consistir, en hacer de la ciudad un espacio competitivo más que de relación y convivencia. El nuevo ideal la ciudad-empresa, se hace patente en la mayoría de planes urbanísticos; esto unido al intento de consolidar técnicas disciplinarias que persiguen la normalización de los componentes sociales puede dar la impresión de cierto orden urbanístico y social. Pero en las grandes metrópolis ese orden aparente que se quiere generar se asienta sobre un fuerte desorden asociado a las nuevas formas de consumir, habitar, transportarse, relacionarse...Este desorden se incrementa a medida que el modelo productivo se mundializa y las grandes concentraciones urbanas crecen y se transforman. Frente a una ciudad que debería ser un espacio socializador, equilibrador y enriquecedor de la personalidad humana, las grandes metrópolis modernas, “profundizan la naturaleza esquizoide de la nueva personalidad urbana, incrementando la superficialidad de los contactos, el carácter transitorio de las relaciones sociales y el

98

La Sociedad

individualismo..., lo que configura la principal patología de las grandes urbes: la anomia” (Harvey, 1977). Todo ello se refleja en una serie de características: • La vida urbana desaparece a pasos agigantados, y la condición propiciadora de aventura que pudiera tener el anonimato de la gran ciudad, se acaba convirtiendo para muchos de sus habitantes, en una potente ratonera que se llama soledad. Y esto a pesar de la multiplicidad de interrelaciones que parecen producirse. Muchas, sí, pero caracterizadas por la hipermovilidad impuesta por el modelo productivo, Atomización de las relaciones personales, desarraigo, alineación en el trabajo, ausencia de equilibrio con la naturaleza, aturdimiento sonoro y lumínico, intento de satisfacción de necesidades personales vitales vía consumo. Aumento de la conflictividad social que se manifiesta en forma de comportamientos desordenados de carácter individual o grupal: vandalismo, criminalidad y violencia, así como locura y marginación. Creciente desinterés social hacia las personas que por una u otra razón se sitúan fuera del ámbito productivo: ancianos, inmigrantes y parados. Desde la óptica de la productividad y la competitividad son un residuo que carece de todo valor.

Resultado de todo ello es la creciente polarización social de los espacios metropolitanos. Por último y, a modo de ejemplo, resulta esclarecedor considerar variables que tengan en cuenta no sólo aspectos económicos sino también medioambientales y sociales, para darnos idea del crecimiento económico real de un país. Si se comparan el Producto Nacional Bruto e IBES1 de un país como Estados Unidos, queda patente la diferente evolución del desarrollo económico según se utilice un parámetro bajo una óptica reduccionista u otro que considere la situación de forma sistémica.

Conclusión
Orden y caos forman parte de nuestra vida corno dos caras de la misma moneda, el devenir cosmológico caótico y, desordenado que se deriva de las leyes de la Física Clásica se contrapone, aparentemente, con la creciente complejidad -ordenque experimentan algunos sistemas biológicos y sociales. A pesar de esto, el aumento global del desorden y el caos parece inexorable según la segunda ley de la Termodinámica. Lejos de la visión fragmentaria de la realidad aportada por el pensamiento cartesiano, un nuevo enfoque más holístico que contemple no sólo las partes del sistema sino también sus interacciones parece más adecuado para describir la realidad. Su consideración como un conjunto de sistemas complejos adaptativos aportado recientemente, parece que está dando buenos resultados en campos en apariencia muy
1

IBES: Índice Daly-Cobb del bienestar económico sustentable. Incluye el PNB medio per cápita ajustado por desigualdades en la distribución de los ingresos, la disminución aguda de recursos no renovables por la erosión y urbanización, el costo de la contaminación del agua y del aire, y estimaciones del daño ambiental a largo plazo por causa de cambios mundiales (disminución de la capa de ozono, calentamiento planetario, etc.)

99

La Sociedad

distantes entre sí (mecánica cuántica, inmunología del ser humano, evolución de los lenguajes y economía). Desde esta óptica se nos incita a considerar la absoluta dependencia entre los sistemas tecnocientífico, económico, natural y social, considerados a escala planetaria ya que nuestra aparente sensación de control, derivada del poder que nos aporta la tecnociencia sobre el mundo tiene una segunda lectura. Junto al orden aparente de nuestras sociedades occidentales, se contraponen los desajustes sociales y, ambientales tanto de los países subdesarrollados como de nuestro propio entorno inmediato.

Referencias
-CMMAD (Comisión Mundial de Medio Ambiente y Desarrollo) (1988), Nuestro Futuro en Común, Alianza. Madrid. -Fernández Durán, R (1993), La Explosión del desorden, Fundamentos. Madrid. -Gell-Mann (1994), El Quark y el Jaguar. Aventuras de lo Simple y lo Complejo, Metatemas. Barcelona. -Harris, M. (1991), Muerte, Sexo y Fecundidad, Alianza. Madrid. Citado por Fernández Durán (1993), pág. 1116. -Harvey, D. (1977), Urbanismo y Desigualdad Social, Siglo XXI. Madrid. Citado por Fernández Durán (1993), pág. 137. -Rifkin, J. (1990), Entropía, hacia el mundo Invernadero, Urano. Barcelona. -Tyler, M. (1995), Ecología y Medio Ambiente, FCE.

Bibliografía recomendada
Bhom, D. (1959), La Totalidad y el Orden Implicado. Ariel. Este fisico teórico, nos muestra en su libro sus apreciaciones sobre la interconexión de los distintos fenómenos relacionados con el mundo físico y social. Su lectura es muy interesante puesto que manifiesta la necesidad de un enfoque más holístico para la comprensión de la realidad; y lo hace desde un campo tan supuestamente especializado como la mecánica cuántica, a la que hizo importantes contribuciones. Fernández Durán, R (1993), La Explosión del desorden, Fundamentos. Madrid. El autor plantea que el actual modelo productivo, que se impone y responde a los intereses de los denominados países del Centro, genera un orden aparente, que cada vez más, provoca un mayor desorden económico, social y ambiental. Schumacher, E. F. (1978/1994), Lo Pequeño es Hermoso, Tursen/Hermann Blume. Madrid Es un texto clásico, en donde su autor argumenta que necesitamos una profunda reorientación de los objetivos de nuestra economía y nuestra técnica para ponerlas al servicio -y a la escala- del hombre. Beckerman, W. (1996), Lo Pequeño es Estúpido, Debate. Madrid.
100

La Sociedad

En una clara alusión al texto de Schumacher, el autor pretende “poner las cosas en su sitio” al denunciar muchas predicciones catastrofistas realizadas por el movimiento ecologista. Apunta que el crecimiento económico a largo plazo, es la mejor solución para los problemas ambientales y sociales; en contra de eslóganes de moda como el de “desarrollo sostenible”. Muy, recomendable su lectura junto con el de Schumacher como ejercicio de crítica comparada.

101

COMPLEJIDAD EN LA SOCIEDAD ACTUAL
José Luis Villacañas Berlanga
Comunicación
1.– Por una noción rigurosa de complejidad n los últimos tiempos, la sociología de N. Luhmann se ha esforzado por entregarnos una noción de complejidad capaz de reunir el rigor científico con la intuitividad, síntesis propia de las ciencias que hablan de la realidad. Es por eso que quizás convenga dirigirnos a él para conquistar una idea específica de lo que queremos decir cuando hablamos de complejidad. Esto, sin embargo, no es cosa fácil. Luhmann, que ha muerto recientemente, ha sido capaz de crear una obra ingente, en la que la intervención permanente en los más diversos foros no ha retirado niveles de rigor y sistematicidad. Su primera aproximación se realizó con motivo de tener que atender a la voz Komplexität, del Historisches Wörterbuch der Philosophie, donde volvió a intervenir en el volumen VIII, en el artículo sobre reducción de la complejidad. Luego fue su contribución a los dos volúmenes de Sociocybernetics, editados por Felix Geyer y Johannes van der Zouwen, editado en Leyden, en 1978. En la revista Periodística, y en catalán, se acercó al tema de la Complexitat social y opinió pública, en 1989, para posteriormente en 1990 llevar a cabo su aproximación más reciente: Haltlose Complexität, de 1990. Afortunadamente para nosotros, la pretensión sistemática de su pensamiento ha permitido algo sin antecedentes en los autores actuales, un gesto que casi eleva el nombre de Luhmann al de clásico. Un equipo de seguidores italianos del autor, motivado por Gabriele Pavolini, ha dado en la idea de ofrecernos una especie de glosario de los conceptos fundamentales de la teoría de sistemas sociales. Este libro se editó en 1995 y conoce una traducción española en 1996, editada en Méjico. El libro, con mucho humor, lleva por título GLU, que por una parte se compone de las iniciales de “Glosario Luhmann” y por otra simula el ruido onomatopéyico de tragar un hueso duro de roer, como es sin duda la teoría de Luhmann. En este glosario nos vamos a apoyar para introducirnos en la noción de complejidad social.

E

2.– Experiencia moderna y experiencia actual de la complejidad. La definición más intuitiva que se obtiene de la noción de complejidad, en todas estas aportaciones, implica la destrucción de la idea, propia de la estructura categorial kantiana clásica, de que la simultaneidad implica relación recíproca. La idea de complejidad de Luhmann viene a decir que hay elementos ontológicos simultáneos en una unidad cualquiera tales que no pueden estar simultáneamente en relación recíproca consigo mismos. Como se ve, esta definición pone en tela de juicio la noción clásica de organismo y, como también resulta evidente, destruye toda posibilidad de aprehender la realidad en los términos de sistema clásico. Con ello, la idea de complejidad pone en tela de juicio todo optimismo teleológico, con las seguridades de orden, de necesidad y dominio que suponía la ratio clásica. En efecto, la idea

La Sociedad

de sistema clásico reclamaba un punto de vista privilegiado desde el cual se deriven todas las relaciones internas a la unidad que por se forma alrededor de un principio. Tal idea es la que excluye el concepto de complejidad. La experiencia de la complejidad no es nueva, sino que antes bien, suele presentarse en alguna medida en la época de crisis. Al colocar el concepto de complejidad en el centro de las ciencias sociales, resulta claro que éstas han hecho de la crisis un momento endémico de la realidad social, y de esta manera generan la última estrategia capaz de disciplinarlo. Como tal, la nueva experiencia de la complejidad supone el abandono de los intentos de dominio completo de la realidad, tal y como se dieron en los sistemas idealistas –incluyo el marxismo entre ellos. De hecho, cuando trazamos la historia de lo que sucede en el punto de partida del idealismo alemán, nos encontramos con experiencias muy cercanas. Aquello que se llamó la conciencia desdichada, o la conciencia de la escisión apunta a este tipo de experiencias. De la forma más intuitiva, Hölderlin expresó su decepción ante cualquier tipo de pensamiento sistemático que pretendiera partir de un principio único. Este rechazo del sistema deductivo le parecía afín con la destrucción revolucionaria de la monarquía. Pero la experiencia de esta complejidad no es la actual, ni la pensada por Luhmann. Hölderlin, y los hombres que sintieron la destrucción del antiguo orden con alivio, veían en la complejidad una condición de la vida, pero la entendían como un momento dialéctico del nuevo organismo. “También es bueno, y hasta constituye la primera condición de toda vida y de toda organización, que no haya ninguna fuerza monárquica en el cielo ni sobre la tierra”, decía Hölderlin a su amigo Isaac von Sinclair, hacia finales de 1798. En el fondo, esta autonomización de los elementos, de las partes independientes, era una condición para que la unidad fuese más íntima y más viva, más interpenetrada y libre. La complejidad para Hölderlin, y para los hombres del reino de Dios en la tierra, era más bien carencia de jerarquías y estaba alentada por una representación panteísta muy característica. “Claro está, concluía Hölderlin, que contemplado desde un punto de vista finito cualquiera, alguna de esas fuerzas independientes del todo tiene que ser la predominante, pero también es verdad que sólo puede ser considerada como predominante temporal y gradualmente”. La decisión aquí intervenía para elegir la fuerza predominante y por regla general se entregaba al propio sujeto finito. Pero como ontológicamente ya no existía una potencia única y monárquica, esa selección era meramente temporal y perspectivística, y estos límites debían ser aceptados desde el punto de vista subjetivo. Hegel elevó a la nación hegemónica a este rango, y en su capacidad de fundar un imperio mundial cifró el beneficio provisional de esta situación subjetiva dominante. Marx hizo lo propio con la clase proletaria y Hitler con la raza aria. Todo ellos compartían la misma fe. Resulta claro que la nueva mirada de los idealistas era claramente democrática, y tendía a hacer saltar por los aires el orden del antiguo régimen. Pero todos tenían la secreta aspiración de dirigir a esas masas democráticas, desde el Estado, desde la vanguardia del Partido o desde las SS, y de esta forma aspiraban a mantener un orden sobre el todo social La experiencia actual de la complejidad es claramente postdemocrática y en cierto modo es consecuencia de haberse cumplido el destino de la sociedad de masas sin ninguna instancia dirigente, sin ningún grupo de clercs privilegiados y carismáticos. Ahora la decisión del punto de vista desde el que observar a la sociedad no es tan fácil y tan sencilla. Para Hölderlin, el punto de vista subjetivo era tan natural porque en el fondo incluía referencias intuitivas a cada uno. Para Hegel era todavía más fácil porque el sujeto no era finito, sino espíritu objetivo. Para Marx, la vanguardia del partido gozaba del privilegio de la ciencia social, esto es, de la verdad del capitalismo. Así podíamos seguir.

103

La Sociedad

Para Luhmann las cosas son diferentes. Una unidad dada puede tener muchos elementos, potencialmente relacionados entre sí de muchas maneras. Curiosamente, el universo de Luhmann es parecido al de Nicolás de Cusa. Desde el punto intuitivo democrático de Hölderlin, la sociedad se debería forjar en una red infinita de relaciones. Para los filósofos aparentemente más sensatos que le siguieron, la sociedad debería limitar las relaciones que desplegara un grupo de sabios. Para Luhmann, y para nosotros, se impone la evidencia de que una sociedad como la Höldelrin sería utópicamente democrática y moriría por su propio peso. Una sociedad como la de Hegel, la de Marx o la Hitler es inaceptablemente totalitaria. Así que tenemos un dilema: no nos sirve ni la experiencia de complejidad de Hölderlin, inspirada en un panteísmo democrático, ni las formas idealistas con que se intentó superar ese descentramiento de la vida social. 3.– Organización. Si partimos de una existencia potencialmente infinita de elementos, la elección no tiene como meta destacar un punto de vista dominante o privilegiado, sino que tiene una misión previa: destacar aquellos elementos que efectivamente se ponen en relación. Existencia no implica panteísmo, esto es, unidad efectiva de todo con todo. La decisión, de una manera u otra, deja fuera de las relaciones de la unidad muchos elementos que constituyen esa unidad. Complejidad es una noción de autoconciencia social, y ésta deja en el inconsciente social muchos elementos sueltos, sin relacionar, libres. Por eso, el punto dominante en todo esto no es el perspectivismo de cualquiera de los elementos subjetivos, sino el del observador que recoge los elementos en relación seleccionados. Todas las paradojas del psicoanálisis en relación con la teoría psicológica son otros tantos retos para la teoría social. La noción de complejidad está en relación con la de organización. De hecho son categorías correlativas. Pero mientras tanto, la noción de organismo ha cambiado. Pues la selección de los elementos que se relacionan en la unidad no puede ser indiscriminada o arbitraria, ni tampoco necesaria e impuesta por la naturaleza. Complejidad implica una doble cara: que determinados elementos se relacionan, pero también incorpora la conciencia de que esa relación es contingente, de que otras muchas son posibles. Esa doble cara significa que la relación elegida ha de mostrar un sentido, pero se trata de un sentido que puede estar amenazado por la ingente montaña de sin-sentido que se esconde tras la selección efectuada. La mirada que destaca un sentido sobre un fondo de sin-sentido, y que es consciente de la contingencia de ambas cosas, es una mirada organizada. La organización es, como tal, consciente de la contingencia de su propia existencia y como no puede ni entregarla al azar ni hacerla dependencia de la naturaleza, sólo puede atribuirse a sí misma su génesis. Por eso la complejidad habla de autopoiesis del organismo. Podemos decir que la complejidad es una construcción que coincide con la autopoiesis , y en esto se parece a la propia historia personal. De ella surge la diferencia sentido–sinsentido, y con ella la diferencia propia entre sistema y ese punto ciego, ese punto de la diferencia, que es el entorno. La noción para esa unidad de sentido y sin-sentido, de autoorganización y de azar, de sistema y de entorno, de cierre y campo abierto es la de mundo. Por eso lo propio de la vida del sistema es la complejidad, esto es, la inexistencia de una coincidencia punto por punto con los estados del sistema y los estados del entorno. El mundo así, por principio, no puede ser dominado por el sistema. Es más, la percepción de sentido supone una decisión de relaciones que implica siempre un riesgo para la supervivencia del sistema. De repente, algo de lo que queda en el entorno, ciego como sin-sentido, puede emerger como sentido ajeno al que ha constituido la organización, y desestabilizarla o amenazarla. Como ya indiqué, la noción de complejidad es una forma de estar alerta contra la complacencia del sistema en sí mismo.
104

La Sociedad

El concepto de autopoiesis implica que aquello que constituye la diferencia misma sistema–entorno es una observación del sentido. Pero no podemos confundir sistema con observación. El sistema goza de una mínima estabilidad. Por el contrario, el sentido y su observación es un evento, y como tal tiene que reproducirse continuamente. Con anterioridad a la observación no hay sentido, y con anterioridad a ambos no hay sistema. Pero el sistema, para llegar a serlo, tiene que repetir los actos de observación del sentido y de diferencia con el entorno por el que se ha constituido. De esta manera, autopoiesis quiere decir que entre el ser y el sentido hay un salto, y que ese salto es el de la vida, que así se ve condenada a reproducir continuamente sus propias operaciones constitutivas sobre el entorno. Con esto se quiere decir que la complejidad es la forma epistemológica en la que vive un sistema cuyo entorno no puede eliminar el sin-sentido, y tiene que tomar decisiones de identificar un sentido en relación consigo. Complejidad es así la estructura misma del tiempo del sistema en un entorno hostil para su sentido. 4.– La vida del sistema. Cuanto más organizado sea el sistema, más relaciones constitutivas de sentido con el entorno es capaz de producir. Esto significa que más conscientemente asume la variable tiempo y que más consciente es del peligro en que se halla. Pues la complejidad del entorno es irreductible al control del sistema: sólo es visible como un conjunto de relaciones no actualizado, frente a las relaciones actualizadas o posibles de sentido que definen el interior del sistema y su contorno. Naturalmente, la complejidad está orientada a mantener la compatibilidad del sistema con el entorno. Para acreditar esta compatibilidad, el sistema actualizará tanto como pueda el sentido posible para el sistema, las decisiones de sentido que acoge del entorno, y aumentará en cierto modo la complejidad. Esto significa que el sistema tiene que emplear mucho tiempo de su vida en mantener una comunicación lo más significativa posible con el entorno. En la comunicación se actualiza el sentido compatible con el eterno. Fácilmente se intuye que pronto la tendencia de la vida del sistema le inclinará a intensificar la comunicación con su entorno y cargará al sistema con excedentes de sentido que hipertrofiaran sus elementos epistemológicos. Por todo eso, pronto se planteará al sistema la gestión de esa complejidad que él mismo tiende a aumentar. Los límites para percibir un sentido nítido, y por tanto, la carga de complejidad que un sistema puede integrar sin caer en el caos, depende su capacidad para reducir la complejidad. Una complejidad se reduce cuando una serie de relaciones entre elementos significativas puede reconstruirse con un número más reducido de relaciones. La forma inicial de reducir la complejidad del sistema político fue, por ejemplo, la propuesta de la representación política. De esta manera, la reducción de complejidad es la forma específica en que se mantiene la complejidad bajo límites eficaces y tolerables. Para que se produzca esta operación reductora se requiere ante todo que el sistema se dote de una estructura, que podemos definir como un alto nivel de evolución. Mediante esta estructura, el sentido deja de ser un evento y puede repetirse manteniendo su identidad, dándole al sistema una estabilidad dinámica. Por ello la estructura implica al mismo tiempo una expectativa de comunicación, esto es, de actualización del sentido posible en el sistema. El sistema permite comunicaciones justo porque la estructura genera expectativas. La estructura está por eso atravesada por el tiempo, supone memoria, experiencia y futuro. Una estructura puede cambiar y aprender, puede reducir la complejidad de una forma tal que la mantenga, que la aumente incluso. Pero puede desechar elementos, mantener cosas en el inconsciente, dejar sin significado actual otros significados potenciales. De hecho, la base misma de la evolución reside en esta mutación estructural, por la cual el sistema reduce las relaciones significativas a menos elementos, sin eliminar capacidad de comunicación con el entorno.

105

La Sociedad

5.– Sistema y sistemas. Todo esto es, desde luego, muy abstracto. De hecho, Luhmann es de entre todos los filósofos actuales el más especulativo. Sin embargo también es uno de los más intuitivos. Esto es lo que sucede con su noción de diferenciación. Por una parte, tan pronto tenemos una estructura organizada de observación, tenemos claramente la percepción de un límite entre el sistema y el entorno. Ese límite es trazado por las operaciones de comunicación en las que se distingue entre expectativa y cumplimiento/fracaso de esa expectativa. La frontera es la conciencia de la inexistencia de coincidencia punto por punto entre los estados del sistema y los estados del entorno. El sistema puede hacer hipótesis, forjar estrategias, o proyectar atribuciones al entorno para anticipar elementos, cumplimientos o incumplimientos de expectativas, y puede ir desplazando los límites del sistema, pero el entorno siempre será el No-Yo del sistema, y la diferenciación entre ambos estará en vigor. De esta vigencia depende el desnivel de complejidad, siempre a favor del entorno, y la contingencia insuperable de la vida del sistema. Pero hay otra posibilidad autopoiética. Y es que el sistema especialice diferentes estructuras en relación con la complejidad: puede destinar estructuras a aumentar la capacidad de observación, o a aumentar la capacidad de reducción. De esta manera puede generar en su interior subsistemas que multiplican las versiones de la identidad del sistema global, que dan a conocer el entorno de una manera diferente, y que se tratan entre sí como si en el interior del sistema se hubiese generado un entorno propio de los subsistemas, que observan el sistema de manera diferente. Así, por ejemplo, el sistema político puede generar subsistemas para observar la sanidad o para observar el medio ambiente, y se verá a sí mismo de forma diferente – y potencialmente contradictoria– desde cada uno de estos subsistemas. Así, la diferenciación aumenta la complejidad interna al sistema, pues no sólo ofrece informaciones del entorno, sino que añade informaciones de otros subsistemas que son recíprocamente entornos unos de otros. Por ejemplo, la sanidad puede no querer saber de informaciones del entorno que tengan que ver con efecto sobre la salud del uso de estabilizantes o colorantes o productos químicos a largo plazo, mientras que la percepción del medio ambiente puede insistir en los efectos ecológicos de los mismos. Podemos considerar la sociedad humana como un sistema en relación con un entorno genérico. La diferenciación interna del sistema social ha ido destacando estructuras especializadas en ofrecer información en relación con sentidos diferentes del entorno, o en relación con expectativas de una sociedad, o con estrategias de la misma. Esa actividad, destinada a reducir complejidad, ha producido una diferenciación interna de la sociedad en sistemas parciales, que tienen relevancia estructural. Las formas en las que se ha producido esta diferenciación social se pueden organizar evolutivamente, y depende de dos parámetros: la diferencia sistema/entorno y la relación igualdad o desigualdad de los sistemas parciales. Todo esto permite una compleja teoría social evolutiva, que va desde la sociedad arcaica y segmentaria, con relaciones de familiaridad y de reciprocidad, la sociedad civilizada, diferenciada según campo/ciudad, la sociedad estratificada del antiguo régimen a la sociedad de sistemas parciales funcionales del siglo XVIII hoy triunfante. Esta sociedad tiene sistema político, económico, sistema de la ciencia, educación, jurídico, familiar, religioso, salud y arte, cada uno de ellos hipostatiza su propia función, observando a la sociedad desde ella, con su propio código, que generan emisiones de validez social simultánea pero que se rechazan mutuamente. Como vemos, aquí tenemos formalizado el contenido de las esferas de acción social weberianas. En efecto, la relación entre las funciones no está regulada jerárquicamente en el ámbito de la sociedad global. Ya no hay jerarquía entre los sistemas parciales. En la
106

La Sociedad

medida en que todas las funciones tienen validez social, todas son fundamentales para la sociedad, pero ninguna puede imponer silencio a las demás, ni erigirse en la dominante. La consecuencia es que la sociedad no puede definirse por un sistema de información, ni por un sistema de sentido, ni por una autodescripción única. La ventaja de esta sociedad es que, al tener cada subsistema su forma de observar el entorno, aumentan la complejidad que pueden soportar, pero sólo sobre la base de que el resto de los subsistemas sociales realicen bien su propia función. Pero la desventaja es que los problemas de la sociedad global jamás se identifican, pues siempre se tratan desde el punto de vista y la perspectiva de cada sistema parcial. La sensación de reducir el riesgo sólo está fundada en la certeza de que los problemas más relevantes de la sociedad se tratan de forma simultánea. La complejidad de relaciones entre sistema y entorno, ahora se multiplica por las relaciones entre sistemas parciales, cada uno de los cuales pueden comunicar informaciones, señales de riesgo, que son prestaciones de un sistema a otros. Estos sistemas parciales son independientes, pero también son interdependientes, significando esta interdependencia una cosa diferente para cada sistema parcial. Así, por ejemplo, el sistema económico puede observar y prestar informaciones al sistema político de una manera diferente a como pueda hacerlo el sistema educativo o el sistema ecológico. Reflexión. Sin ninguna duda, cada uno de estos sistemas puede observarse a sí mismo. Entonces decimos que el sistema ejerce una reflexión sobre sí mismo, con el fin de que la actualización de sentido de sus elementos aspire a comunicar la unidad del sistema. No se trata de una reflexión sobre una operación, sino sobre el sistema completo. Decimos entonces que el sistema es autorreferencial. De esta forma, la contingencia no se disminuye, sino que se multiplica, pues la reflexión implica confrontarse con las posibilidades alternativas que toda complejidad deja fuera. Con ello ejerce un control sobre sus propias formas de operar, pero no puede nunca ser exhaustiva, ya que cada observación de sí multiplica las informaciones sobre las posibilidades de actuación. Puede producir una autotransformación del sistema. Por eso la reflexión está sometida a importantes paradojas, pues cuanto más se ejerce más se tiene que ejercer, cuanto más se diferencia entre el sistema y el entorno, más se diferencia de hecho de algo que él mismo ha construido. Así, por ejemplo, la ciencia, como sistema de lo verdadero y lo falso, cuando se observa a sí misma, no está en condiciones de afirmar funcionalmente la verdad o falsedad de sí misma como sistema. Lo mismo sucede con todos los sistemas parciales, que no pueden juzgarse a sí mismos. No se puede saber si el sistema económico es a su vez económico o ruinoso, o si el sistema familiar potencia el amor o el desamor, o si el sistema religioso hace religiosos; o si el sistema jurídico es justo. Pero a su vez estas reflexiones no la puede hacer ningún otro sistema por ellos, por lo que el problema es irreversible y testimonio que la sociedad global no puede reflexionar sobre sí misma. En caso de que pudiera no podría escapar a la paradoja: ¿produce esta sociedad seres sociables o insociables? Para que estas autoobservaciones pudieran utilizarse deberían observar las distinciones que ella misma utiliza, esto es, lo ojos con los que realiza la distinción. Así que el resultado de las paradojas de la observación es que impelen a la acción, pero la consecuencia es que las operaciones son hasta cierto punto ciegas. Para evitar todo esto, los subsistemas funcionales se ordenan en programas operativos que no ponen en cuestión de forma oscilante y estabilizan los sentidos de sus valores. Pero esta insistencia ya no puede olvidar su contingencia y reclama verificaciones continuas. Cuando todo esto se hace consciente decimos que cada sistema es racional, y que éste observa en qué cambiaría él mismo y el entorno cambiando la distinción de valor. Un sistema racional es aquel que comunica y controla los problemas creados en el entorno por sus propias intervenciones. Pero como para cada subsistema son
107

La Sociedad

entorno todos los demás subsistemas sociales, ningún sistema puede ser racional en sentido estricto, porque no puede hacerse cargo de todos los problemas que genera en su entorno, y los demás sistemas no pueden comunicárselo con la misma intensidad, porque no todos ellos son claramente reflexivos. Como resulta claro, el entorno ecológico no es reflexivo al mismo nivel que el sistema político. Por tanto no están en condiciones de comunicar y elevar a necesidad de control los problemas que, como entorno, pueden generar respecto al sistema político. Pero aunque todos fueran igualmente reflexivos, no existiría un código binario de traducción de todos las informaciones parciales como información del sistema social. Así que ni siquiera es posible hablar de racionalidad reducida del sistema social completo. Como dicen los autores del Glosario, “los problemas urgentes de la sociedad actual están conectados con la simultánea necesidad e imposibilidad de una racionalidad social global” [p. 134]. Esto es: lo que sería necesario es imposible. ¿Qué puede significar racionalidad entonces? La capacidad que tienen los sistemas para mantener su identidad y para ser capaz de apreciar sus diferencias respecto al entorno. Es racional un sistema que opera, para desplegar sus propias observaciones, con los supuestos de diferencia entre entorno y sistema, y que como consecuencia de estas observaciones reafirma estos parámetros, los confirma, los autoafirma. Naturalmente, esto lanza sobre toda noción de racionalidad la consecuencia inevitable del constructivismo, a saber, que sólo se ve lo que el sistema quiere ver para mantenerse en su identidad, que él construye también el entorno, que él decide qué deja en la indiferencia, y que por tanto él decide la complejidad. Racionalidad así no es sino la capacidad de un sistema de proseguir la autopoiesis. Nada puede impedir, sin embargo, que la complejidad del entorno sea cada vez más ocultadora que reveladora de potencialidades de sentido, y que, consecuentemente, el orden y el control entre sistema y entorno sea cada vez más improbable. El peligro de que la autorreferencialidad se convierta en mero autismo no puede ser descubierto por el sistema. Entonces la diferencia entre el sistema y el entorno asumibles por el sistema es mínima y mínima la capacidad de mantenerse en su identidad. Por eso un sistema, y desde luego el social, se ve en la necesidad de complementar su aspiración al mantenimiento con la representación de su daño futuro, de su riesgo. La reflexión al menos sabe que debe tomarse una decisión y atribuye a esa decisión daños posibles. Además, cada riesgo lleva consigo riesgos ulteriores por el empleo de las decisiones que eliminan un riesgo. A su vez, el mismo intento de no verse sometido a una situación de riesgo, puede ser fuente de riego, como el coche que circula con excesivas precauciones por la carretera. Obtener más información no disminuye el riesgo, sino a su aumento. De esta manera, llegamos a que el concepto de racionalidad ha estallado en el concepto de impotencia y que la intensidad con que se despliegue la primera no augura sino intensidad para percibir la segunda. Desde este punto de vista, la teoría de sistemas nos ha dejado la paradoja de vivir en una sociedad de máximo poder y de mínima operatividad. Quizás, como toda teoría evolutiva propiamente dicha, sea inviable sin introducir la noción de azar y sin complementarse por una apelación a la irracionalidad en cualquiera de sus formas, o bien mediante el instinto o bien mediante la violenta lucha por la vida. Al marcar los límites de la racionalidad y la inevitabilidad del riesgo, la teoría de sistema más bien nos prepara para aceptar estas categorías, que para rechazarlas. Su pesimismo, este sentido, nos recuerda la metafísica de Schopenhauer.

108

El conocimiento

RELATIVISMO CONCEPTUAL E INTERNISMO
Jesús A. Coll Mármol
Comunicación
no de los fenómenos más atractivos para la teoría del conocimiento es que los hombres tengan creencias diferentes acerca de un mismo tema, e incluso creencias erróneas, debido al marco social o histórico en el que se desenvuelven. Tal como he dicho se trata de un hecho y como tal no se puede estar en desacuerdo con él. El problema para la filosofía es, como siempre, ser capaz de explicarlo sin crear una doctrina que genere más problemas y confusión que el fenómeno que intenta ser explicado (cosa que suele ocurrir con cierta frecuencia). Una de estas posibles explicaciones es el relativismo conceptual. En las páginas que siguen trataré de mostrar que esta explicación, a pesar de sus supuestos atractivos, genera una imagen errónea del conocimiento y de su relación con el mundo externo, e intentaré ofrecer una perspectiva alternativa, basada en la obra de D. Davidson, que explique la existencia de creencias contrarias en diferentes sociedades o tiempos. 1. El relativismo conceptual. El relativismo conceptual mantiene la tesis de que el significado de las oraciones de un lenguaje, sus condiciones de verdad, es relativo a un sistema de conceptos que organiza un material dado, que, dependiendo del caso, es el mundo en sí o la experiencia que tenemos del mismo. La metáfora de la construcción de la realidad es la que mejor explica esta idea: el sistema de conceptos o lenguaje que adquirimos socialmente construye un mundo que no tiene porqué existir en sí mismo tal como es construido por ese sistema de conceptos o lenguaje. Esto tiene como consecuencia la posibilidad de que existan distintos esquemas conceptuales que organicen “lo dado” (el mundo en sí, la experiencia) de maneras alternativas: nos encontraríamos, continuando con la metáfora de la construcción, ante edificios (mundos) diferentes hechos de un mismo material. Una de las tesis que acompaña a esta posición es la idea de la inconmensurabilidad entre esquemas. Este término de origen matemático se ha convertido, de tanto usarlo, en un término equívoco. Literalmente significaría la imposibilidad de medir, de comparar, con los recursos con los que cuenta un esquema, algunas o todas las afirmaciones que se realizan en un esquema alternativo. Sin embargo, y dada la relativización del significado y la verdad que se hace en esta posición, esta tesis tiene como corolario que la verdad de las afirmaciones que realizamos a través del lenguaje que expresa un esquema son relativas a ese lenguaje y no pueden ser evaluadas (al menos con propiedad) en otro lenguaje, del mismo modo que hace que hablantes de lenguajes distintos sean esencialmente incapaces de entenderse, ya que los mundos que construyen sus respectivos esquemas son diferentes. Así, Peter

U

El Conocimiento

Winch1 critica que consideremos un signo de superior inteligencia frente a los Azandes el hecho de que nosotros atribuyamos el fenómeno de la lluvia a causas físicas, mientras ellos lo hagan por referencia a causas mágicas, pues la posesión de distintos patrones de pensamiento no nos permiten juzgarles en términos de superioridad ni de verdad, dada la inconmensurabilidad existente entre esquemas. Del mismo modo, Kuhn y Feyerabend niegan que podamos hablar de progreso científico, al menos en el sentido en que lo hacían los positivistas lógicos: diferentes teorías involucran diferentes formas de organizar la realidad, no siendo posible la existencia “de un lenguaje, neutral o distinto, al que ambas teorías, concebidas como un conjunt de oraciones, puedan ser traducidas sin residuo o perdida”2. Sirva por último, como ejemplo más significativo, el siguiente pasaje en el que Whorf describe el lenguaje de los Hopi: El lenguaje y cultura Hopi conlleva una metafísica, tal como lo hace nuestra concepción del espacio y tiempo, o como lo hace la teoría de la relatividad; no obstante, se trata de una metafísica diferente. Para describir la estructura del universo según los Hopi, es necesario intentar —en la medida de lo posible— hacer explícita esa metafísica, que sólo es posible describir con propiedad en su lenguaje.3 Encontrar las raíces de esta posición no es tarea sencilla, pues no es única. Así, podemos encontrar la más cercana en la crítica que hace Quine al dualismo de lo analítico y lo sintético: dado que no podemos trazar una línea clara entre lo teórico y lo observacional, entre lo verdadero en virtud del significado y lo verdadero en virtud de los hechos, lo teórico (el sistema conceptual) impregna el contenido empírico de nuestras teorías, lo organiza, le da forma, con lo que es imposible adentrarnos en un esquema conceptual alternativo al nuestro si no poseemos, si no abrazamos dicho esquema. Si tuviéramos que buscar un antecedente más lejano, es claro que las ideas de un mundo en sí, de una experiencia ininterpretada o de un sistema de conceptos que la organiza, defendida por el relativismo conceptual, nos remite a Kant, aunque creo que es más conveniente entroncar esta posición con la tradición epistemológica que inaugura Descartes: el internismo. Esta posición vendría a mantener la existencia de un intermediario epistemológico entre nosotros y el mundo o nuestra experiencia del mismo (ya sea la mente en general o bien las ideas, conceptos, sistemas de conceptos o lenguajes) con respecto al cual nuestras oraciones significan lo que significan y adquieren su valor de verdad. La realidad tal cual es se convierte, entonces, en algo inaccesible debido al velo de las ideas: a lo único que tengo (tenemos) acceso es al mundo que construye nuestro sistema de conceptos. De ahí se sigue no sólo la posibilidad de mundos alternativos inaccesibles desde esquemas distintos, sino, tal como lo planteaba Descartes o Hume, la imposibilidad de saber si el mundo que construye el intermediario epistemológico se corresponde al mundo en sí (si es que éste existe); o a la inversa, sea como fuere el mundo ininterpretado, éste puede no influir en la construcción del mundo que realiza mi esquema. Se plantea así la posibilidad del escepticismo global, posibilidad inherente al internismo al afirmar que los estados mentales y los significados de un sujeto deben ser interpretados sin referencia a nada exterior a ese sujeto. Creo que esta forma de concebir nuestro conocimiento del mundo externo es errónea. En lo que sigue expondré una serie de argumentos, debidos a Donald Davidson, que niegan la inteligibilidad de esta posición. La conclusión a extraer no será la existencia de un sólo esquema que afortunadamente todos compartimos pues,
1 2

Winch (1970), pág. 80. Cursiva mía. Kuhn (1989), pág. 99. 3 Whorf (1956), pág. 58. Cursiva mía.

111

El Conocimiento

como Davidson afirma, “también los monoteístas tienen religión”.4 El problema es más profundo, y negar la inteligibilidad del relativismo conceptual supondrá negar asimismo la raíz misma de esta posición, la existencia de objetos internos al sujeto que sirvan como intermediarios epistemológicos entre éste y un mundo ininterpretado. 2. La ininteligibilidad del relativismo conceptual Donald Davidson, en un famoso artículo5, lanza una crítica feroz a la línea de flotación del relativismo conceptual, que es la idea misma de un esquema conceptual6. Antes de pasar a este tema, es preciso apreciar la falta de inteligibilidad en la formulación del relativismo conceptual. Para poder ser formulado necesita, precisamente, de aquello que él mismo niega que exista: un material común. La idea de organizar el mundo, la experiencia sensorial etc. de forma distinta hace referencia a un material común a ambos esquemas que, por supuesto, ha de permanecer inaccesible si se ha de conservar en pie la idea de inconmensurabilidad entre esquemas. Y es que, para establecer diferencias entre supuestos esquemas, se hace necesaria, seguro, la existencia de elementos comunes a ambos esquemas.7 No es éste, sin embargo, el principal argumento de Davidson en contra del relativismo conceptual. El argumento principal tiene como conclusión la falta de criterios claros para diferenciar entre esquemas conceptuales. Davidson parte en su crítica de la idea que asocia un lenguaje con un esquema conceptual. Esto traslada la discusión al concepto de traducción, y podríamos afirmar que el criterio de identidad o diferencia entre esquemas no es otro que la traducibilidad entre los lenguajes que llevan aparejados. Así, el relativismo conceptual mantendría la tesis de que hay lenguajes o partes de lenguajes intraducibles entre sí. Davidson adopta, a la hora de encarar este problema, la posición de la interpretación radical. El problema planteado por ésta es el de interpretar a un hablante del que desconocemos tanto el significado de sus palabras como el contenido de sus creencias. El único dato que podemos tomar en este caso dramático es el asentimiento o disentimiento del hablante ante las condiciones que nosotros, como intérpretes, pensamos que hacen verdaderas a sus emisiones lingüísticas. ¿Cómo comenzar nuestra tarea? ¿Cómo adentrarnos en el lenguaje de ese hablante? Según Davidson, sólo aplicando, de modo general, el así llamado principio de caridad. Esta máxima metodológica nos pide interpretar al hablante como si estuviera en lo cierto (desde nuestro punto de vista, desde luego) la mayor parte de las veces. Esto implica asumir un acuerdo general entre sus creencias y las nuestras para interpretar desde ahí sus emisiones lingüísticas. Hay que decir, en contra de lo que pudiera sugerir el término, que la caridad no es una opción. Si no asumimos un acuerdo general entre las creencias del hablante y las nuestras es imposible adentrarnos en el pensamiento de la persona interpretada. Si este acuerdo no se produjera, sería imposible considerar como lingüísticos los sonidos que emite, y a ese ser como racional. No se trata entonces de una imposición “imperialista” de un determinado modo de pensar frente a otro supuestamente más
4 5

Davidson (1974), pág. 183 Davidson (1974). Véase también Davidson (1992). Para un estudio de la filosofía de este autor, véase Hernández Iglesias (1990) y la introducción de Carlos Moya a Davidson (1992). 6 Davidson llama también al dualismo de esquema-contenido el tercer dogma del empirismo, que surge de la desaparición de los dos primeros: a pesar de que no podamos distinguir entre lo verdadero en virtud del significado y en virtud de la experiencia oración por oración, aún cabe la distinción entre lo teórico como un todo por un lado y el contenido empírico por otro. 7 Hay que observar, además, la ininteligibilidad de la idea de organizar un único objeto: sólo una pluralidad tiene la posibilidad de ser organizada.

112

El Conocimiento

débil. El objetivo no es el acuerdo, sino la comunicación, y si ésta se produce habremos obtenido todo lo que buscábamos. ¿Es posible, entonces, la intraducibilidad, parcial o total, entre lenguajes? En ambos casos lo que se hace es disociar el concepto de verdad del de creencia y significado, queriendo decir que el hablante, armado con su esquema, tiene unas creencias (expresadas en su lenguaje) mayormente verdaderas, que podemos reconocer como tales, pero que no podemos esencialmente comprender8. Si se aceptara este criterio de lingüisticidad, nada nos impediría atribuir un lenguaje a árboles o piedras, pues podría ser que, de un modo que somos incapaces de comprender, árboles o piedras se comunicaran en un lenguaje secreto inaccesible al nuestro. Para que atribuyamos a alguien o a algo un lenguaje es necesaria la traducibilidad de ese lenguaje al nuestro propio, siendo imposible entonces divergencias tan fundamentales como las señaladas por el relativismo conceptual. Y es que, si una piedra pudiera hablar, podríamos entenderla. Ha habido intentos de recuperar la idea de intraducibilidad parcial distinguiendo, dentro del concepto general de interpretación, entre el fenómeno de la traducción, en el que el intérprete contaría en su lenguaje con elementos que aprehenderían totalmente los significados del hablante, y el proceso de aprendizaje, en el que el intérprete se enfrenta a una porción de lenguaje que desconoce y a la que no puede dar sentido con los recursos disponibles en su lenguaje9. Esta defensa de la inconmensurabilidad está destinada a proporcionar una marco interpretativo donde sean manifiestas las dificultades que encuentran historiadores de la ciencia y lingüistas en su tarea interpretativa. La distinción, sin embargo, no es útil para recuperar la idea de lenguajes esencialmente intraducibles. Sin entrar a valorar cuánto, cuando uno aprende un nuevo grupo de términos y oraciones, es debido al lenguaje que ya posee y comparte con la persona interpretada, hay que decir que el aprendizaje de nuevos términos u oraciones no nos puede llevar a disociar verdad de traducción y creencia, ni a afirmar que las personas involucradas en la interpretación hablan distintos lenguajes —creo que, cuando aprendía matemáticas en el colegio, me encontraba involucrado en un proceso análogo al considerado, sin que el profesor de matemáticas hablara un lenguaje distinto al mío, o yo tuviera que desdoblar mi personalidad para comprenderle—. Es un hecho que en nuestra sociedad hay especialistas que dominan regiones del lenguaje que otros no dominamos (la teoría cuántica, por ejemplo), pero de ahí no se sigue que poseamos un criterio para hablar de diferentes esquemas conceptuales ni, por supuesto, que exista un intermediario epistemológico entre nosotros y el mundo. 3. Algunas conclusiones Tal como afirma Davidson, sería un error concluir que, afortunadamente, todos nosotros compartimos un único esquema conceptual que media entre nosotros y una realidad ininterpretada. Es la idea misma de esquema conceptual la que no tiene sentido, así como la idea de una realidad ininterpretada, inaccesible como evidencia para el conocimiento, pero al mismo tiempo material a ser organizado por un esquema conceptual. Desde el punto de vista epistemológico, la conclusión a extraer es precisamente la eliminación de los intermediarios epistemológicos que inauguró Descartes. No son las ideas, ni las percepciones, ni los estímulos sensoriales los que
8

Tal como afirma Putnam (Putnam (1981), págs. 114-5) uno se siente engañado por los defensores del relativismo conceptual cuando afirman la intraducibilidad de ciertas regiones de un lenguaje extraño al nuestro y terminan (¿podría ser de otra forma?) explicándonos esas regiones precisamente en nuestro lenguaje. 9 Véase, para una defensa de esta posición, Kuhn (1989).

113

El Conocimiento

dan significado a mis palabras ni contenido a mis creencias. Son los objetos comunes y públicos con los que convivimos y que vienen expresados en el lenguaje los que dotan de contenido a mis creencias y hacen que éstas sean verdaderas o falsas. El internismo se enfrenta, a mi parecer, con la misma realidad del lenguaje y del conocimiento para poder ser formulado con claridad. ¿Qué sucede, entonces, con el problema de la diversidad de creencias formulado al principio de este trabajo? Es innegable que los factores sociales e históricos influyen decisivamente en la adquisición de nuestras creencias y, con ello, en la posibilidad de divergencias y errores en nuestras creencias (es precisamente la posibilidad de verdad y falsedad lo que hace interesante este concepto). Esta posibilidad no debe dramatizarse pensando que sólo puede ocurrir en casos de revolución científica o en casos de encuentros con sociedades alejadas de nuestra cultura: ocurre diariamente con nuestros vecinos y nada asegura la concordancia en nuestras opiniones ni, por supuesto, que podamos estar equivocados en algunas de nuestras creencias. No obstante, hay que remarcar que estas divergencias y errores son limitados, pues sólo cobran sentido desde una base común y amplia, requisito indispensable para la posibilidad de comunicación y con ello para la consideración del otro como racional. La educación, ambiente social, época o conocimientos de una persona nos pueden ayudar a explicar esos errores y divergencias, pero no para hablar de una realidad ininterpretada ni construida en base a algo interno y exclusivo del sujeto. La posibilidad de un lenguaje privado queda de nuevo desvanecida.

Bibliografía
Davidson, D. (1974):“On the Very Idea of a Conceptual Scheme”, en Inquiries into Truth and Interpretation, Clarendon Press, Oxford, 1984. Hay traducción al castellano: De la verdad y la interpretación, Gedisa, Barcelona, 1990. Davidson, D. (1992): “El mito de lo subjetivo” en Mente, mundo y acción, Paidós, Barcelona. Hernández Iglesias, M.(1990): La semántica de Davidson, Visor, Madrid. Kuhn, T (1989):”Comensurabilidad, comparabilidad y comunicabilidad” en ¿Qué son las revoluciones científicas? y otros ensayos, Paidós, Barcelona. Putnam, H.(1981): Reason, Truth and History, Cambridge University Press, Cambridge. Hay traducción al castellano: Razón, verdad e historia, Tecnos, Madrid, 1988. Winch, P.(1970): “Understanding a Primitive Society” en B. Wilson (Edit.) Racionality, Basil Blackwell, Oxford. Whorf, B. (1956): Languaje, Thought and Reality, The Tecnology Press of Mass. Institute of Tecnology, Cambridge.

114

INFORMACIÓN, TECNOLOGÍA Y COMPLEJIDAD
José Vicente Rodríguez Muñoz.
Comunicación

P

reparar este trabajo bajo la trama de la complejidad ha sido una apasionante tarea pues me ha permitido realizar lecturas muy gratificantes. Si, ha llegado a suponer una suerte de dopaje para el devenir de mis actividades cotidianas, dado que este término normalmente se trata de soslayar. De esta afirmación es fácil argüir que, e imagino que ya lo habrán descubierto, no soy un especialista ni tratante de la complejidad, pero es más, me declaro especialista en nada. Aún a costa de parecer un estúpido engreído, me siento orgulloso de ello, me siento un hombre de mi tiempo (soy un licenciado en Química, eso sí teórica, que consiguió doctorarse en Informática y actualmente soy Profesor Titular en la Universidad de Murcia del área de Biblioteconomía y Documentación). Pues bien, es probable que mi perfil científico holístico y no-atomista me permita más fácilmente, en los momentos actuales, sobrevivir. Estas son razones que me inclinan a apartarme de las normas que rigen los discursos científicos al uso, buscando que se comprendan los asuntos que me inquietan, antes, mucho antes, que la esencia íntima de los mismos. Por ello lo que se expone a continuación debe tener una interpretación más en clave artística antes que científica: “Conocer y comprender en arte versa sobre conocer y comprender cuál es la complejidad que inquieta al creador, pero no necesariamente comprender tal complejidad” nos dice Wagensberg. Para recomponer estos sentimientos, los que me inquietan, tendremos que separar los dos sustantivos: la Información y las tecnologías. Prepararemos el relato cincelándolos como dos monolitos por separado para finalmente integrarlos en un mismo escenario, tal y como les corresponde. La naturaleza de la información Vivimos, una época de gritos y susurros, momentos en que el murmullo de las iniciativas emergentes se suma a los pregones con que nos aferramos a los modelos dominantes. Estamos ante una revolución silenciosa que surge en el interior mismo del sistema, no por injerencia de ningún elemento externo a él. Veamos cómo y por qué se dan hoy las condiciones que permiten imaginar un futuro en el que, “según unos, el poder actual saldrá fortalecido por la disponibilidad de nuevos conocimientos, pero en el que, según otros, el poder irá cambiando paulatinamente de manos a medida que la toma de decisiones autónomas vaya convirtiéndose en práctica habitual para un creciente número de personas”, en palabras de Gómez Pallete. Pues bien, algunas de las causas originales de este postrero debate, sea cual

El Conocimiento

fuese su definitivo desenlace, deben buscarse en la combinación de estas dos circunstancias. • • las características intrínsecas de la información. y las posibilidades para su tratamiento y transporte que ofrecen las modernas tecnologías.

El profesor Masuda es autor de los más sobresalientes trabajos sobre las repercusiones que la citada combinación está teniendo en la configuración de una nueva sociedad. Respecto al primero de los dos puntos citados (características de la información), Masuda se expresa en los siguientes términos: Por, encima de todo, y al contrario de los bienes materiales, la información tiene cuatro propiedades inherentes (...) - No es consumible. Los bienes se consumen cuando se usan, más la información permanece sin importar cuánto se haya utilizado. - Es no transferible. Al transferir bienes entre A y B, estos se mueven físicamente de A a B, pero al transferir información ésta permanece en A (al mismo tiempo que llega a B). - Es indivisible. Bienes materiales, tales como la electricidad o el agua, se dividen para su utilización; la información sólo puede utilizarse como “conjunto”. - Es acumulativa. La acumulación de bienes se debe a su no empleo; la información no puede consumirse o transferirse, de modo que se acumula para ser utilizada repetidamente. La calidad de la información se eleva al añadir nueva información a la que ya se haya acumulado.” La información tiene éstas y otras muchas propiedades; cada autor emplea para designarlas sus propios términos; el valor de la información no es proporcional a su extensión, volumen o cantidad; ni su utilidad está siempre e íntimamente relacionada con el tiempo; como bien en el mercado es producible (algo contra lo que las leyes luchan con denuedo); la información puede ser empleada al mismo tiempo por diferentes usuarios, etc. De ninguna, absolutamente de ninguna, de estas características gozan los recursos y factores que son objeto de las teorías por las que hoy nos guiamos. De ahí la impotencia de éstas para habérselas con la información y el conocimiento. Una de las principales causas de la crisis actual salta ante nuestros ojos cuando oponemos la noción de información a la de energía o materia; cuando indagamos en la dimensión emergente (actos-información versus actos-energía); cuando, en definitiva, y de este modo, nos salimos del discurso tradicional (materia-energía, capital-trabajo), no para abandonarlo o destruirlo, sino para enriquecerlo, pues por si sólo ha tiempo que carece de poder explicativo. Este conjunto de características no explica los cambios en la naturaleza del poder que nos ocupan. Pues éstos y otros muchos atributos de la información no constituyen novedad alguna; siempre ha sido así desde los orígenes de la escritura, procedimiento mediante el que los hombres dan forma, sobre un soporte físico y externo, a su interpretación del mundo. A decir de Gómez Pallete “la información presenta estas características desde el tiempo de los sumerios hace unos seis mil años. O desde hace doscientos siglos, si nos referimos a las primeras pinturas rupestres. O desde toda la eternidad, pues información y universo son hermanos gemelos”.
116

El Conocimiento

Para comprender los cambios que nos aguardan es necesario, además, reparar en la portentosa capacidad de los modernos instrumentos de tratamiento y transmisión de información. Desde los calculi a los ordenadores; desde la invención de la tinta al láser; desde el papiro a las pantallas de plasma; desde las bibliotecas medievales a las bases de datos mundiales; desde los medios de transporte terrestre a los satélites de comunicaciones; desde Guttemberg a los periódicos electrónicos, la información se procesa, almacena, reproduce y transmite por procedimientos cuya potencia se multiplica a un ritmo vertiginoso. “En verdad nada sobre la tierra, incluidos el crecimiento de la población humana y el deterioro del medio ambiente, está cambiando más deprisa que las redes mundiales de comunicación, cuya capacidad se multiplica por 10 cada dos o tres años”, nos dice Builder. La característica propia de un recurso (información, materia prima del conocimiento) que no se rige por las leyes económicas al uso, y la creciente potencia de los instrumentos para su tratamiento y transporte son dos hechos (reciente, el segundo; ancestral, el primero) que, combinados, están provocando profundos cambios de todo tipo. Es algo sobre lo que existe un amplio acuerdo. Sociedad o era de la información son etiquetas que utilizamos para referirnos a los nuevos escenarios. Se trata de fórmulas cuya utilización se encuentra, asimismo, muy generalizada. Así también son ampliamente aceptados los mecanismos por los cuales se están produciendo los notorios cambios. Muchos son los argumentos obvios a los que se acude con frecuencia para explicar los motivos o fuerzas que impulsan la amplia expansión de las nuevas tecnologías. Se trata de procesos generados por la necesidad de supervivencia del propio sistema, bien de tipo económico, bien de carácter ideológico. Tecnología e incertidumbre Entre los ingredientes de la tecnología tan compleja de nuestros días está su capacidad para generar incertidumbre, una circunstancia básica del nuevo entorno en el que nos desenvolvemos, y, por tanto, un condicionante de la actitud de los individuos con respecto a la tecnología, lo que vale tanto como decir de los procesos de innovación. ¿Hasta que punto se está preparado para afrontar un nivel elevado de incertidumbre? Más globalmente, ¿se está preparado para generar la clase y la cantidad de complejidad necesaria para auto-organizarse en el cambiante medio tecnológico?. ¿Se han comprendido bien la naturaleza de las fuerzas que condicionan y hacen viable un proceso de innovación por medio de la tecnología?. El entorno general se parece cada día más a un agitado conjunto de turbulencias en el que el comportamiento de las organizaciones atraviesa por fases incontroladas e impredecibles, lo que guarda un lejano parecido con los fenómenos que estudia la ciencia del caos. La tecnología incorporada irreversiblemente a nuestra vida en cuanto es una conquista del ser humano, contribuye a esta situación. Sin temor a exagerar podría decirse que la tecnología provoca, debido a su complejidad, fenómenos escarpados que dibujan una fina e indefinida línea fronteriza entre el valor y la cobardía infierno, mientras no tengamos una mejor comprensión del origen de dichos fenómenos. Hace unos años, un error en un sólo de los programas del sistema computerizado de telefonía de larga distancia de la empresa AT&T produjo un desastre económico y social de dimensiones incalculables, que para muchas empresas resultó de consecuencia fatales. Hace unos meses, un fallo en el avanzado sistema electrónico del automóvil del piloto español Carlos Sainz lo ha dejado fuera de carrera y, en unos segundos, lo ha separado en forma brusca a

117

El Conocimiento

una distancia totalmente inesperada del campeonato mundial de rallyes, cuando lo estaba acariciando ya con sus dedos. Ciertamente, la intersección de los sistemas tecnológicos con los sistemas sociales origina un nudo de relaciones de gran complejidad que se manifiesta específicamente por fenómenos relacionados con el desorden, la incertidumbre, la desorganización, la inestabilidad, la entropía, la borrosidad, etc. Para comprender de forma general la situación, hay que considerar que de la investigación de dos sistemas tan dispares no tiene más remedio que emerger un híbrido con nuevas y desconocidas propiedades. Se enfrentan dos clases de complejidades, la complejidad ordenada de los mecanismos técnicos y la complejidad desorganizada del hombre y de los sistemas sociales. Complejidad de la tecnología Por muchos esfuerzos que se hagan, y sin duda se hacen, para escamotear la complejidad de la tecnología ante sus usuarios, todos la percibimos ahí, y como mínimo nos produce respeto. En honor a la verdad es preciso reconocer que la sofisticación y potencia de la tecnología, en tantas ocasiones por lo demás innecesaria, ha crecido incomparablemente más que su complejidad aparente. Pese a todo, y simplemente por analogía, cualquiera de nosotros puede hacerse una idea intuitiva de ella sólo con intentar desentrañar y después dominar el conjunto de manuales de instrucción de una columna de música de alta fidelidad, amplificador, sintonizador, giradiscos, disco compacto, ecualizador mando a distancia. Tecnología para el hogar. La complejidad de la tecnología ofimática, que, siendo una porción de la tecnología de la información presente en toda organización moderna, muy bien puede servirnos en forma resumida de ejemplo. Si observamos la diversidad de capacidades de cómputo y la correspondiente cohorte de propiedades informáticas, encontramos un enorme y sutilísimo entramado de máquinas, que va desde ordenadores personales de varias familias y potencias hasta los grandes computadores (mainframes), pasando por una amplia variedad de minicomputadores y computadores medios y un surtido floreciente de estaciones de trabajo (workstations). Por lo que respecta a las memorias externas, existe todo tipo de tecnologías: disquetes, cintas, discos compactos ópticos, más su correspondiente cacharrería. En cuanto al software, ¿qué técnico es capaz hoy en día de comprender y manejar ni siquiera una parte del confuso abanico de programas disponibles, desde aquellos que resuelven simples y específicas funciones de oficina hasta los que componen un grupo funcionalmente más rico de programas integrados? La perspectiva es igualmente abrumadora en el campo de la tecnología de comunicación computarizada. Disponemos de redes de área local controladas por sistemas operativos muy diferentes, conexiones a redes de larga distancia, nuevas generaciones de centrales telefónicas y ya han emergido las redes digitales de servicios integrados para datos, texto, voz e imagen. Con este panorama estrictamente técnico no se agota la complejidad de la tecnología, sino que ésta se acentúa por las prácticas de un mercado agresivo, en el que prolifera la oferta vertiginosa de toda clase de productos, herramientas, máquinas, servicios y soluciones, hasta crear gran confusión en la mente y en las prácticas de los usuarios. Sin temor a exagerar, podría decirse que esta desquiciada rotación en
118

El Conocimiento

las tecnologías, producida por una industria agónicamente competitiva, está más allá de la velocidad de aprendizaje social incluso técnicamente, está completamente probado que los métodos de aplicación de toda esta tecnología caminan retrasados en varias generaciones. El impacto de tal complejidad se traduce en un alto volumen de fallos, problemas, desencantos, costes incontrolados y también es responsable de reforzar las naturales resistencias humanas a su implantación. Un cerebro completo Aunque no sea más que en forma de apunte breve, nos referimos ahora al empleo de un arma cognitiva hecha a la medida para afrontar entornos desordenados y hasta caóticos: el cerebro humano. El cerebro no tiene semejanza alguna, ni orgánica ni funcional, con un ordenador. El cerebro es la máquina más compleja que se conoce. Consta de dos partes principales, el hemisferio derecho y el hemisferio izquierdo, designados familiarmente como cerebro derecho y cerebro izquierdo, donde tienen su sede distintas funcionalidades. El cerebro izquierdo alberga la clase de aptitudes más potenciadas por la cultura occidental, es el depósito del racionalismo y del orden, mientras que el cerebro derecho es el cerebro caótico, donde se procesan los enfoques globales, la intuición, la creatividad, el riesgo. La cultura occidental margina, cuando no penaliza, estos enfoques. Como nos propone Sáez Vacas, “Metafóricamente, podríamos establecer un paralelismo entre estos dos cerebros:C&C, y las tecnologías de la información y las organizaciones. Al cerebro izquierdo le corresponde la computación (informática clásica) que permite un control riguroso y desarrolla de manera natural organizaciones estrictamente ordenadas burocráticas. El cerebro izquierdo está especializado en cálculo y control. Con el cerebro derecho asociamos las comunicaciones, que expanden el radio de acción, y las organizaciones no formalizadas, caóticas”. A las situaciones de turbulencia ambiental, con su complejidad llena de incertidumbres parece que hay que responder con una complejidad del mismo tipo, de la que las máquinas no son capaces, pero sí el ser humano. La conclusión teórica es que las organizaciones innovadoras a medio y largo plazo tienen que diseñar su organización y elegir y formar a los individuos componentes en forma similar a la que sugiere la utilización integrada de los dos cerebros, como complejidad ordenada y complejidad desordenada, a la vez. Esta es una consecuencia de una ley cibernética que establece que el sistema de control deber ser un modelo del sistema controlado: el papel del sistema controlado lo juega el entorno y la organización es el sistema de control. La organización tiene, que ser capaz de funcionar en forma racional al tiempo que absorbe las oscilaciones, decide soluciones para estados de incertidumbre y se reconfigura fácilmente. En realidad, las siglas C&C tienen una significación ya acuñada en la jerga técnica. La emplean los japoneses para expresar la nueva tecnología de la información resultante de la fusión progresiva de los ordenadores y las telecomunicaciones (Computers & Comunications). La nueva organización para la innovación debe imitar y potenciar el uso compaginado de los dos cerebros, utilizar como soporte y motor la nueva tecnología de la información (C&C Computación y Comunicación)
119

El Conocimiento

y como guía metodológica la cibernética (C&C Control y Comunicación: Cibernética es la ciencia del control y la comunicación en los seres vivos y las máquinas). Con todo ello se hace evidente que las organizaciones innovadoras son o serán aquellas que desarrollen una cierta cultura racional del riesgo, un cerebro completo. Citemos a Morin “Toda concepción ideal de una organización que no fuera más que orden, funcionalidad, armonía, coherencia es un sueño demente de ideólogo o de tecnócrata. La racionalidad que eliminase el desorden, la incertidumbre, el error, no es otra cosa que la irracionalidad que eliminaría la vida”. Conclusiones A lo largo de este desarrollo hemos analizado un marco para el diseño de la organización en un entorno cambiante e incierto, en aspectos relacionados con la tecnología de la información. Concebir una organización innovadora exige considerarla como un sistema vivo, que evoluciona, es decir, se hace más complejo o desaparece. Su adaptación al entorno, o mejor aún su control del mismo le plantea la necesidad de construir una complejidad organizativa mayor y distinta, utilizando medidas de amplificación y reducción de complejidad que constituyen un variado conjunto guiado por un enfoque cibernético, aplicable al triángulo de relaciones complejas formado por la organización, los individuos y la tecnología. La aproximación que insiste en un estado de simplicidad organizativa como resultado de la integración de tecnología de información, es no sólo terminológicamente inadecuada sino demasiado ingenua o sesgada, puesto que minimiza las dificultades del tránsito. Al tipo de complejidad necesaria se ha llamado metafóricamente complejidad C&C, o de cerebro completo, esto es, la complejidad viva (humana) que asume e integra lo racional y lo intuitivo, y también la tecnología de control y la tecnología de comunicación. Un tipo de complejidad sólo sistémica o de control, desarrolla una organización con puestos de trabajo bien definidos, procedimental, especializada e introspectiva. Multiplica las interacciones entre los elementos del sistema en un medio definido como determinista, por lo que crece desproporcionadamente el coste de control. A esta clase de complejidad algunos la llaman complicación. Es el germen de la burocracia, que a su vez es un blindaje contra el entorno y un antídoto contra la innovación. Pensar en un sistema organizativo con puestos de trabajo más ricos funcionalmente y enmarcados en un conjunto más aleatorio de interacciones variables, es pensar en una organización más orientada al entorno, más tolerante a los fallos, más arriesgada, más responsable, más cooperativa, menos fijada en el estatus personal, con alguna capacidad para crear orden a partir del desorden, con complejidad distribuida. Parece que este género de organización, de complejidad, de tecnología y de individuos es el que se corresponde con la necesidad actual de innovación en las organizaciones.

120

VERDAD Y RACIONALIDAD EN RICHARD RORTY
Alfonso Galindo Hervás
Comunicación
1. Presentación Propongo una simplificación metodológica: dividir en tres los paradigmas desde los que se ha comprendido el conocimiento, la relación del hombre con la verdad. En Protágoras, “el hombre es la medida de todas las cosas -khrémáta-”. En Platón, el criterio de la verdad es trascendente: “Dios es la medida”. La noción cristiana de gracia testimonia que la Verdad invisible se revela al hombre: Dios deviene (también) inmanente en el Verbum. En este escrito defenderé dos cosas: que permanecemos en el paradigma platónico-cristiano y que una vida democrática exige asumir como paradigma gnoseológico cierto retorno a la intuición de Protágoras. Sin pretender un juicio completo, menos aún definitivo, sobre la filosofía platónica, es sin embargo claro que para Platón sólo desde el mundo ideal es ordenable el caótico mundo sensible, siendo la trascendencia de tal mundo lo que conduciría al aristocratismo del saber. En el universo cristiano, el acceso a la análoga Verdad divina es diferente. Manifestada al hombre por un gesto gratuito de Dios, su administración, igualmente aristocrática, corresponde a los sacerdotes, no a los filósofos. Todo es distinto en Protágoras. Centrado, frente al atomismo de la physis, en los problemas de la ordenación de la vida práctica, considera el conocimiento un asunto vinculado a los procesos democráticos de confección de acuerdos, revelando así una decisión de atenerse sólo a lo que puede ser medido y ordenado desde la finita vida humana, lo accesible al hombre. La función ordenadora de la vida, atribuida hasta ahora a la physis, pasa a ser portada por el ajuste de las percepciones de los individuos, o sea, por la creación de un sentido común en el ámbito de la polis, criterio último de referencia. Y la manera de superar el relativismo al que pudiese abocar una interpretación en clave individualista de la máxima “el hombre es la medida” es usar como criterio de las cosas que resultan medidas a la luz del hombre la referencia a la experiencia personal exitosa. El criterio de la verdad es el criterio de lo mejor a la luz de los resultados, y en el ámbito de la ciudad1.

1

Cfr., para una exposición detallada del pensamiento de Protágoras en esta clave, J.L. Villacañas, Los caminos de la reflexión, Universidad de Murcia, Murcia, 1991, pp. 221-230.

El Conocimiento

2. Sobre los “criterios divinos” para organizar la existencia La tendencia a una ordenación de lo humano mediante su referencia a una realidad no humana, o sea, la instalación en un paradigma de verdad supra-humano, aparece actualmente en la vida de las sociedades democráticas occidentales en distintos frentes: la persistencia de una idea normativa de naturaleza humana, la idea de progreso, la necesidad de un código moral universal, etc. Demasiado grosero como para parecer amable a estas alturas de siglo, el añejo concepto de “naturaleza humana” ha debido sufrir un lavado de cara. Como señala Hacking2, las leyes estadísticas acerca de los seres humanos, basadas en probabilidades, permitieron sustituir el concepto de naturaleza humana por el de “persona normal”. A ello contribuyó la concepción hegeliana de lo real como proceso (si la naturaleza y razón humanas se hacen en su historia, la representación del hombre debe variar), así como el progresivo interés por las leyes del cuerpo social que concretan la normalidad del hombre. La funcionalidad del concepto sigue siendo la misma: parece poderse controlar el azar desde una idea análoga a leyes inexorables y máximamente reguladora por unir descripción y prescripción. La medida de lo humano está dada, y con una prestancia análoga a la Idea platónica. Del determinismo esencial abiertamente teológico se ha pasado a un indeterminismo esencial que equivale a un determinismo social, cripto-teológico y administrado por el Estado. Por otro lado, la tendencia a rechazar como social y éticamente peligroso el relativismo epistemológico esconde el deseo de superar la limitación “humana” del hombre mediante un “salto” fuera de la comunidad en pos de una plataforma trascendente de juicio. Este deseo de guiarse por “la naturaleza intrínseca de las cosas” permitiría alcanzar, y estoy recordando ideas de Rorty, dos certezas objetivas básicas para nuestra forma de vida: que pertenecer a nuestra especie biológica comporta determinados “derechos” (algo no biológico), que la vinculan a una realidad no humana que le otorga dignidad y, en segundo lugar, que nuestra comunidad no puede morir totalmente, ya que se halla orientada a la correspondencia con la realidad “tal como es en sí”, hecho que vendría testimoniado por la convicción de que incluso si se destruye nuestra civilización la especie volverá a capturar nuestros valores y creencias, que tanto el conocimiento como el ámbito de las conquistas éticas es convergente, no proliferante3. 3. El conocimiento como ‘adaptación’, no como ‘representación’ La visión del conocimiento más eficaz para diluir los enquistamientos mencionados que yo conozco es la de Richard Rorty4. Su tesis antirrepresentacionalista afirma que el conocimiento no consiste en la captación de la realidad en sí sino en la manera de adquirir hábitos para hacerle frente, abandonando por ello toda noción correspondentista de la verdad, que quedará reducida a lo probable de obtener mediante encuentros libres. Esta actitud torna ociosa la idea de que haya que contrastar nuestras teorías con algo externo a ellas que las vuelva “verdaderas”, prefiriendo comparar y elegir entre teorías alternativas en función de los seres humanos que deseemos ser.

2 3

Cfr. La domesticación del azar, Gedisa, Barcelona, 1991. Esta idea es desarrollada por Rorty en varios escritos, a los que volveré posteriormente. 4 Una magnífica síntesis de las posturas epistemológicas de Rorty, así como de sus implicaciones políticas, se halla en su Objetividad, relativismo y verdad (Paidós, Barcelona, 1996), algunas de cuyas ideas pretendo comentar en este escrito.

122

El Conocimiento

Podríamos resumir la postura de Rorty diciendo que, ante la pegunta “¿existe realmente aquello sobre lo que hablamos?”, respondería que tal pregunta supone estar en el camino equivocado, y que mejor es sustituirla por esta otra: ¿hay otras creencias que debamos tener? Tal tesis sustituye la relación representacional entre lenguaje y mundo por una relación causal. Según ésta, no hay forma de limitar la oración y su verdad a una relación con el hecho en sí. Al contrario, la causa de una oración es múltiple, ya que los “hechos” son híbridos: incluyen tanto estímulos físicos como elecciones teóricas previas. Como mucho, Rorty admitiría que hay objetos que nos causan muy directamente creencias sobre ellos (objetos intencionales), y creencias no causadas por objetos concretos (acerca de la voluntad de Dios, por ejemplo), lo cual no demuestra ninguna diferencia ontológica, solamente que hablar sobre objetos es útil para explicar los estímulos que recibimos. En coherencia con esto, la metáfora del lenguaje como mediación entre nosotros y el mundo ya no resulta operativa. El pragmatismo prefiere considerar la conducta lingüística (creencias, teorías, conceptos,...) una manera de habérselas con las fuerzas causales, modificarlas y modificarnos, sin necesidad de apelar a una supuesta representación del mundo. A lo único que apela es a otras ideas, con las que comparar las propias y examinar si encajan entre sí y con los relatos generales que deseamos contar5. En esta línea, Rorty considera que la discusión acerca de si lo real es determinado a priori o a posteriori (ya sea por el pensamiento o por el lenguaje) sólo se plantea desde perspectivas representacionalistas. Su antirrepresentacionalismo le lleva a rechazar el idealismo trascendental mentalista, pero también el sociolingüístico. Ni el pensamiento ni el lenguaje son causa de la determinación de la realidad. La realidad -y en esto coincide con el realismo- es causalmente independiente de las creencias, de hecho la describimos así. No es posible, entonces, ser arbitrarios respecto de la realidad, sino que debemos atenernos a su efecto sobre nosotros (no cabe, pues, el solipsismo), pero sin necesidad de decidir si la estamos representando con exactitud. Propone así renunciar a la idea de que haya un conocimiento de objetos previo a la teoría y que, por tanto, hay objetos constituidos por el lenguaje y otros no. Lo único previo a la teoría es la estimulación y los desajuste que produce y a los que hay que responder. En definitiva, para Rorty, los añejos conceptos usados para explicar que la realidad está determinada son problemáticos y ejemplifican un intento de saltar fuera de la mente y la comunidad. Frente a esto, defiende que no hay pruebas independientes (externas a la teoría y a la comunidad) que permitan dilucidar si una representación es exacta, lo cual no es relevante, ya que la utilidad de los términos de una teoría no les viene de que “representen” mejor o peor, sino, más nietzscheanamente, de las necesidades humanas que satisfagan. Citando a Putnam y Davidson, dirá que la idea de una realidad determinada independiente de la teoría incurre en petitio principii, pues asume que es posible contrastar el mundo en sí con lo que se conoce de él. Visión a la que subyacería la idea cartesiana de que el interior (mente) es contrastable con el exterior (mundo). Para Rorty, las creencias versan “acerca de”, lo cual no implica señalar a algo externo a ellas que esté siendo representado, sino más bien a otras creencias relevantes para justificar las primeras. Tal concepción del conocimiento es holista. Manifiesta imposible distinguir, en el lenguaje, qué fragmentos enlazan con qué fragmentos de la realidad. Es más, considera que aunque poseyésemos una teoría que emparejara cada fragmento del mundo con cada enunciado verdadero, no habríamos resuelto el problema, ya que
5

Esta apelación sitúa a Rorty en la línea de Davidson, cuya “teoría de la coherencia” de la verdad, tal como es leída por él, considera que lo que vuelve verdaderas las creencias es otras creencias (una evidencia), no la estimulación sensorial, el mundo.

123

El Conocimiento

aún deberíamos mostrar que el lenguaje que usamos (hablar de números, hormigas o justicia) “corta” correctamente la realidad. Mejor es que, abandonando toda pretensión de trascendencia y objetividad, las teorías de la verdad se dediquen a explicar cómo los usos lingüísticos de los individuos encajan entre sí y con la explicación acerca de la interacción de esos individuos. 4. No a la objetividad De dos maneras, considera Rorty en su ensayo ¿Solidaridad u objetividad?, damos los seres humanos sentido a nuestras vidas: narrando nuestra aportación a una comunidad humana (real o imaginaria), lo que ilustraría el deseo de solidaridad, que no implica relacionar la comunidad con algo externo a ella; y describiéndonos como seres que están en relación con una realidad no humana, lo que ilustraría el deseo de objetividad, que implica distanciarse de la comunidad y vincularse a algo que puede describirse sin referirse a seres humanos particulares. Tal tradición de búsqueda de la verdad ejemplificaría el intento de dar sentido a la existencia abandonando la comunidad en pos de la objetividad, asumiendo que la verdad es alcanzable por sí misma y no porque sea buena para uno o la comunidad. Para Rorty, somos herederos de esta tradición objetivista que ansía alcanzar una comunidad objetiva que sea expresión de una naturaleza humana ahistórica. El origen de tal voluntad es que la naturaleza cumpla el rol de Dios: un poder distinto y externo a la comunidad humana ante el que adecuarnos. Llamará realismo a esa pretensión de fundar la solidaridad en la objetividad que se ve obligada, por ello, a concebir la verdad como correspondencia con una realidad que, por tener una esencia subyacente, supuestamente nos estaría sugiriendo cómo desea ser descrita para serlo adecuada y verdaderamente. El presupuesto que descubre Rorty en tal concepción es transferir el tipo de conocimiento que tenemos sobre las creencias de otros (que, para él, es el ideal de conocimiento perfecto) al conocimiento sobre el mundo, en una suerte de cripto-animismo. El pragmatismo que él defiende, en cambio, busca reducir la objetividad a solidaridad y, por tanto, concibe la verdad como aquello en que nos es bueno creer. No cabría, pues, un acercamiento a esencias subyacentes, sino sólo un producir relatos y entretejerlos con otros, labor que no precisa postular esencias reales. Junto a ello, considera que no hay niveles de relatos que se acerquen más a la verdad en sí y que, por tanto, pudieran considerarse paradigma de conocimiento. Epistemológicamente, todo relato es igual, ya que no es la epistemología quien puede decidir sobre una superioridad, sino el tiempo. De aquí no se concluye que no haya criterios objetivos de selección, lo que supondría un relativismo, sino que todo criterio es siempre relativo a fines obtenidos y a la coherencia con el resto de la cultura. 5. No a la verdad La concepción pragmatista de la verdad como creencia recomendada no es una teoría positiva sobre la verdad que la reduzca a la opinión de un grupo. Propiamente, el pragmatismo declara no poseer una teoría de la verdad, sino que, en la línea de Sobre verdad y mentira de Nietzsche, explica el valor de la indagación desde bases éticas, no metafísicas o epistemológicas: una creencia es verdadera no porque represente exitosamente la realidad, sino por ser una regla de acción que proporciona ventajas. Rorty prolonga así la voluntad davidsoniana de desepistemologizar la noción de verdad vinculándola a la justificación, de dejarla sin analizar por considerarla primitiva y carente de sinónimo alguno. Una creencia (y los deseos son reconvertibles en creencias) es un hábito de acción, una disposición a responder de una manera a un estímulo. Y el ser humano no
124

El Conocimiento

es sino la trama de ellas. Éstas son distinguibles sólo por el grado de transformación que provocan en el resto de nuestras creencias (es distinto comprobar que no queda butano que mi consorte no me ama). Cuando la transformación es alta puede llegarse a la necesidad de confeccionar nuevos contextos, ya respetando las reglas poseídas, ya incluso cambiándolas. Rorty cree que tradicionalmente se ha considerado que la ciencia y la racionalidad exigían atenerse a los contextos previos, intrínsecamente privilegiados, mientras que ámbitos como las artes podían modificarlos. Él se declara libre de estas ideas. No cree que haya contextos y modos descriptivos privilegiados. Toda descripción o indagación es interpretación, recontextualización. Tampoco es posible desnudar el objeto de sus contextos para examinar cuál le conviene: todo objeto está desde siempre contextualizado, todo objeto puede disolverse en relaciones en función de nuestros fines. La indagación consistirá, entonces, en buscar creencias que alivien la tensión que producen las que tenemos por la presencia de nuevos estímulos, o sea, recontextualizar nuestras creencias. En resumen, para el antirrepresentacionalista Rorty, la cuestión de si la verdad o la racionalidad tienen una naturaleza intrínseca no puede decidirse examinando la naturaleza del conocimiento o la realidad (porque ello implica ya una tesis realista: que el conocimiento y la realidad tienen esencias reales), sino mediante explicaciones sociohistóricas (cómo los pueblos han buscado acuerdos sobre el objeto de sus creencias). La “verdad” es lo alcanzado en un encuentro humano libre, las creencias que consideramos justificadas actualmente por encajar mejor con las finalidades pretendidas por los seres humanos. Y la única justificación, según Rorty, de un esquema interpretativo es que vuelve la conducta de los demás mínimamente razonable a nuestras luces, que no pueden ser trascendidas para buscar criterios explícitos de racionalidad natural. Sólo quien concibe la racionalidad como aplicación de criterios puede creer que “verdadero” significa algo diferente en sociedades diferentes (porque sólo él posee algo por referencia a lo cual considerar relativo el término “verdadero”). Pero la racionalidad no está en la aplicación de criterios a casos, sino, más quineanamente, en un permanente tejer y retejer creencias. Para tal holismo no cabe esperar una racionalidad transcultural desde la que comparar las culturas, sino sólo crear una concepción más racional de la racionalidad o una mejor concepción de la moralidad operando desde dentro de nuestra tradición. Esto nos conduce a hablar del etnocentrismo. 6. Sí al etnocentrismo Rorty ha puesto mucho interés en subrayar que el pragmatismo no es relativista sino etnocéntrico. Según él, el relativismo entendido como la afirmación de que cualquier creencia es tan buena como otra, se autorrefuta. Considera, en cambio, que el término “verdadero” es unívoco, y que lo único que puede decirse de la verdad o la racionalidad es describir los procedimientos de justificación que nuestra sociedad utiliza en la indagación. Tal tesis etnocéntrica no implica la teoría de que algo es relativo a otra cosa, sino que hay que desechar la distinción platónica entre conocimiento (donde la verdad es correspondencia) y opinión (donde la verdad es recomendación de las creencias justificadas). En efecto, quien critique el etnocentrismo lo hace por ser relativista o por creer que puede alcanzarse la “objetividad”. Ninguna de estas dos cosas es posible para Rorty. Ser relativista presupone asumir que es posible una relación (aunque no se de), entre creencias verdaderas y mundo, especial y diferente de la que se de entre creencias falsas y mundo. Rorty rechazará dicha posibilidad en aras de una perspectiva holista. Y pese a las apariencias de relativismo a que pudiese conducir dicha concepción de la verdad, reclama el etnocentrismo, al considerar que necesariamente privilegiamos nuestra comunidad, aunque sea imposible una justificación no circular de ello. Esto no significa que haya que justificarlo todo, simplemente que
125

El Conocimiento

hay que partir de donde estamos, y que muchas perspectivas no podemos tomarlas en serio. La regla de Neurath de que no podemos hacer otro barco con las tablas del nuestro y que, por tanto, hay que abandonarlo, es fantasiosa, y sólo la asumen, según Rorty, quienes desean ser convertidos en vez de persuadidos. La comunidad que él quiere no admite “conversiones”, sino poder ofrecer explicaciones post factum de los hechos, poder justificarnos ante nuestro yo anterior. 7. La racionalidad como persuasión. De vuelta a Parménides El paradigma epistemológico post-moderno es cripto-moderno. El sujeto que está en contacto con la verdad y la administra ya no es el filósofo ni el sacerdote, sino el científico. Y el discurso de la “ciencia” es el que aplica los “criterios de racionalidad” a los “hechos duros” y ofrece la “verdad objetiva”. Las distinciones entre hechos duros y débiles, verdad y opinión, etc. que subyacen a esta visión generan, a juicio de Rorty, más problemas que los que resuelven. ¿En qué consiste la racionalidad? ¿en función de qué calificar un discurso o una conducta de “racionales”? Tradicionalmente se considera que hay dos motivos para distinguir entre ciencia y no ciencia, uno metodológico y otro ontológico: la aplicación de un método “racional” (no viable en otros saberes) que proporciona fiabilidad al vincular teoría y mundo, y la relación con la realidad “dura”. Para Rorty, en cambio, sólo disponemos del diálogo, siempre falible. Su visión de los seres humanos es que se enfrentan de la misma manera a cualquier problema, y no de manera privilegiadamente cercana a la ‘realidad en sí’ en unos casos (ciencia) frente a otros (no ciencia). Pero examinemos los dos motivos mencionados. Si la clave se halla en la aplicación de un método a priori no hay forma, según Rorty, de considerar racional aquellos discursos (las “humanidades”) que no buscan satisfacer criterios dados a priori sino cuestionar y redefinirlos permanentemente. Considera, además, que poseer criterios epistemológicos es análogo a poseer criterios morales: inútil. Los criterios y principios generales, de poseerse explícitamente, deben revisarse permanentemente a la luz de los resultados de su aplicación, que son los que realmente los generan y no al revés, ya que sólo tras ello se sabe qué principios se quieren seguir, no antes. Respecto del otro motivo de distinción entre ciencia y no ciencia, Rorty no admitirá que tenga sentido distinguir los hechos por su dureza. Según esto, habría hechos “duros”, realidades constantes que son las representadas por el discurso científico, y hechos “blandos”, volubles como los difusos discursos humanísticos que versan sobre ellos. Frente a esto, prefiere las distinciones sociológicas. La dureza de la ciencia es fruto exclusivo de las reglas del juego en que ella consiste. La dureza de las afirmaciones científicas no procede de la dureza de su objeto (al margen de la crítica al representacionalismo, que también habría que invocar), sino de los acuerdos acerca del funcionamiento del juego. La misma dureza y fijeza podía poseer la ética de haber seleccionado para ella unas reglas adecuadas por poseer la comunidad un interés especial en tal tipo de discurso ético de cara a los fines que persiga. La raíz de la distinción entre hechos duros y blandos, que se prolonga en la diferencia diltheyana explicación-comprensión, se halla, para Rorty, en la distinción kantiana entre objetos y conductas constituidos según reglas (lo cognitivo) y objetos y conductas no ligados a reglas (lo estético). Considera que, tras la insistencia hegeliana en la historia y el carácter procesual de la realidad (que naturaliza Dewey), la distinción ha caducado. Frente a ella, asume la propuesta deweyana de diferenciar los saberes por los intereses que persiguen, no por un estatus cognitivo que vendría determinado por la intencionalidad del objeto (que sugeriría cómo debe ser descrito para ser descrito objetivamente). Los hechos, al margen de su dimensión causal, son

126

El Conocimiento

siempre institucionales ya que describirlos implica servirse de una institución previa: el lenguaje. Su propuesta acerca de la racionalidad es entenderla como expresión de virtudes morales: tolerancia, respeto, disposición a la escucha, persuasión. La distinción entre un discurso racional y otro irracional no vendría marcada por una diferencia metodológica o por la distancia entre conocimiento y opinión, hechos duros-hechos débiles, sino por el talante persuasivo y antidogmático frente a su contrario6. Una concepción así rechaza toda noción teleológica de progreso como criptoteológica. Progresar no es acercarse a una meta dada que nos espere fuera de la comunidad, sino sólo interpretar, hoy, el pasado como progresivo. Igualmente, desecha que los científicos sean, frente a los demás, más “objetivos” o “cercanos a la verdad”. El elogio de Rorty a la ciencia descansa en considerarla modelo de persuasión y, por tanto, de solidaridad humana. Frente a la idea de que los hechos naturales son “duros”, o que la física carece de implicaciones axiológicas, la única diferencia establecible entre los distintos saberes será de tipo sociológico: la cantidad de consenso generable en física es mayor que en sociología o literatura. Y ello, probablemente, porque los seres humanos no deseemos para nuestros saberes “no científicos” el grado de predicción y control que alcanzan los saberes “científicos”. Además, Rorty se pregunta por qué considerar los criterios de predicción y control y los métodos de abducción, propios de las ciencias “duras”, como los mejores y “menos humanos” (por vincularnos a una realidad no humana), frente a los métodos de producción de belleza, por ejemplo. ¿Qué relación especial hay entre predecir y proporcionar la verdad objetiva acerca de cómo la realidad es en sí misma?7 El deseo de objetividad debe entenderse como deseo de ser persuasivos y alcanzar acuerdos no forzados. No existe una realidad objetiva ante la que sentirnos responsables, sino sólo otras comunidades humanas y sus discursos. Y ante ellas, es inútil establecer criterios comunes por comparación a los cuales determinar las preferencias: sólo podemos, como Protágoras, comentar ventajas e inconvenientes. 8. Una lectura de ‘La prioridad de la democracia sobre la filosofía’ Con unos comentarios a este conocido artículo de Rorty quiero resumir de qué manera su epistemología derrumba los elementos cripto-platónicos y criptocristianos mencionados al inicio. En él, Rorty se declara heredero, con matices, del espíritu de Thomas Jefferson, al considerar separable la política de las creencias sobre cuestiones de importancia. Para Jefferson, éstas pueden poseerse si no son incompatibles con las creencias comunes al resto de los ciudadanos. Según Rorty, la base filosófica que permitió ali6

Ya Parménides, en muchos sentidos iniciador de la filosofía, halla la novedad de su discurso frente al de los líricos anteriores en tratarse de un relato que persuade: “lo ente es, lo no ente no es es la vía de la Persuasión”. Sus alusiones a la Persuasión y la Necesidad testimonian que es consciente de que su discurso se impone arrebatadoramente 7 Desde estas premisas resulta clarificadora la lectura rortyana sobre la verdad de una teoría científica. Considera, frente al realismo de Bernard Williams, que el que la teoría del flogisto sea falsa no significa sino que conducirse hoy de acuerdo con ella constituiría una incoherencia, ya que no es compatible con el conjunto de ideas que hoy sostenemos como mejores.

127

El Conocimiento

viar las tensiones que tal concepción generaba fue identificar la verdad y la racionalidad con la justificabilidad para el conjunto de la humanidad, lo que borró la idea (griega, cristiana e ilustrada) de que existía algo ahistórico común a los seres humanos que los dotaba de dignidad. Su propuesta se desmarca, por un lado, de la referencia universalista al “conjunto de la humanidad” y, por otro, del comunitarismo que, pese a rechazar el individualismo moderno y la idea de derechos ahistóricos, considera que tras ellos se derrumban también los valores e instituciones occidentales. Frente a estos, emprende una justificación pragmatista de los hábitos y valores occidentales tomando como criterio de racionalidad las creencias del grupo ante quienes creemos necesario (posible) justificarnos. Más en concreto, defiende dos cosas: que la democracia liberal (hábitos y valores) no precisa justificación filosófica alguna (más bien, crea una filosofía adaptada a ella), y que la concepción del ‘yo’ que más le conviene es la que lo considera constituido por la comunidad, frente a la concepción ilustrada. Lo que permite a Rorty llegar a estas posturas es su pragmatismo, según el cual carece de sentido preguntarnos por la esencia del ser humano para descubrir en ella la presencia de derechos inalienables que después intentemos plasmar políticamente. El camino es justo al revés. Lo contrario, en la línea de lo que se viene argumentando aquí, sería una nueva versión de aristocratismo intelectual realista y representacionalista. Hoy no se precisan teorías sobre la naturaleza humana para justificar nuestros hábitos de justicia y libertad, cuya prioridad para nosotros es ya su justificación. Dicho de otro modo, la política no requiere fundamentos extrapolíticos, filosóficos; le basta el acuerdo entre los ciudadanos, su deseo8. Y esto, porque la acción humana en general no necesita ser justificada por referencia a creencias previas sobre la esencia de la realidad, sino que éstas se reducen a descripciones posteriores sobre acciones exitosas y congruentes con la propia autocomprensión, en el marco de una comunidad.

Bibliografía
R. RORTY: -La filosofía y el espejo de la naturaleza, Cátedra, Madrid, 1983. -La filosofía en la historia, Paidos, Barcelona, 1990. -Objetividad, relativismo y verdad, Paidos, Barcelona, 1996. -Ensayos sobre Heidegger y otros pensadores contemporáneos, íd. F. NIETZSCHE: -Sobre verdad y mentira en sentido extramoral, Tecnos, Madrid, 1990.

8

Si se considerase esta afirmación una entrega de la decisión a convicciones contingentes y situadas, Rorty respondería no compartir la distinción entre convicciones necesarias (o racionales) y contingentes.

128

SOBRE LA COMPLEJIDAD EN TORNO A EDGAR MORIN
Juan Carlos Villanueva Pascual
Comunicación

E

dgar Morin nos ofrece una primera aproximación a la complejidad: “A primera vista la complejidad es un tejido (complexus: lo que está tejido en su conjunto) de constituyentes heterogéneos inseparablemente asociados: presenta la paradoja de lo uno y lo multiple.” La complejidad se presenta con los rasgos inquietantes de lo enredado,y muestra en un matrimonio a vena de serpientes, el Orden con su eterno contrincante el Caos. Plantea la Complejidad en conjunción dos términos que parecen autoexcluirse, pero que, a poco que volvamos sobre nosotros mismos los encontramos muy íntimamente entrelazados. La vida cotidiana es una vida en la que cada uno juega varios roles sociales. Cada ser tiene una multiplicidad de personalidades en sí mismo, un mundo de fantasmas y sueños que acompañan su vida. La vida humana no se deja domeñar fácilmente por ninguna ley o principio que pueda imponer el Paradigma de la Simplicidad, que pone Orden en el Universo y persigue todo tipo de Desorden y Caos. La Simplicidad, que o bien separa lo unido, o bien unifica lo que es diverso, nos presenta la pareja Disyunción/Reducción, frente a la que se opone con energía el dúo maldito de la complejidad: Orden y Caos. Diversas patologías afectan al pensamiento moderno: la hiper-simplificación que ciega al espíritu a la complejidad de lo real; el idealismo, donde la idea oculta a la realidad que pretende traducir; el dogmatismo, que encierra a la teoría en sí misma, la racionalización que encierra lo real en un sistema coherente. “Estas cegueras son parte de nuestra barbarie. Estamos siempre en la prehistoria del espíritu humano. Solo el pensamiento complejo nos permitirá civilizar nuestro conocimiento.” Volviendo a nosotros otra vez, somos seres biológicos, pero no solo eso. También somos seres culturales, meta-biológicos, que vivimos en un universo de lenguaje, de ideas y de conciencia, y también somos seres físico-químicos compuestos de elementos que se comunican entre sí, sin que nosotros tengamos consciencia de esa comunicación. Cuando amamos, amamos biológicamente, nuestros genes buscan su perpetuación, su difusión; amamos culturalmente, perseguimos un ideal que ha sido amasado en nosotros a través de la educación (o como reacción a ella); amamos químicamente, nuestras glándulas liberan sustancias que excitan y atraen a otras glándulas

El Conocimiento

que se nos acercan; amamos también inconscientemente, nuestros instintos buscan aliviar tensiones producidas por nuestras pulsiones, y por último, amamos sin saber porque amamos. Comprobamos como nosotros mismos podemos ser múltiples siendo únicos como somos. Valdría esta frase de Pascal para ilustrar la inseparabilidad que afecta a todo aquello con lo que nos enfrentamos, a todo lo que se nos presenta de forma compleja: “Siendo todas las cosas causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas, y relacionándose todas por un vínculo natural e insensible que vincula a las más alejadas y a las más distintas, considero imposible conocer las partes sin conocer el todo, y también conocer el todo sin conocer las partes.” Ahora, con Pascal, para conocer la realidad no podemos renunciar ni al todo, ni a las partes, con lo que esbozamos uno de los tres principios que según Morin nos pueden ayudar a pensar la complejidad: el Principio hologramático, en el que no sólo la parte está en el todo, sino que el todo, en cierto modo, esta en la parte. Las relaciones que se establecen entre el todo y las partes son complejas: la unión de las diversas partes constituye el todo, que a su vez retroactúa sobre los diversos elementos que lo constituyen confiriéndoles propiedades de las que antes carecían. La relación del todo con las partes no es meramente acumulativa, es solidaria. Las partes conforman el todo, pero este a su vez retroactúa sobre las partes confiriéndoles propiedades nuevas, de las que carecían antes de combinarse entre sí. El producto es productor de lo que produce, y el efecto causante de lo que causa. Lo que Morin viene a llamar principio recursivo organizacional, que junto al principio dialógico - que se basa en la asociación compleja de instancias necesarias juntas para la existencia, el funcionamiento, y el desarrollo de un fenómeno organizado - y junto al principio hologramático - en el que no sólo la parte está en el todo, sino que el todo, en cierto modo, está en las partes- constituyen los instrumentos que nos ayudan a movernos en la Complejidad. No podemos contentarnos con encontrar la certidumbre en los fundamentos del conocimiento clásico, en la separabilidad de los objetos, y en la lógica deductivoidentitaria. El conocimiento complejo afronta esa incertidumbre, esa inseparabilidad, y esas insuficiencias. Nos encontramos con que ya no hay un fundamento único o último para el conocimiento, “en un universo donde Caos, desordenes y azares nos obligan a negociar con las incertidumbres”. Aunque el reconocimiento de no poder encontrar certidumbre allí donde no la hay, constituye ya de por sí una certidumbre. La aceptación de la confusión puede convertirse en un medio para resistir a la simplificación mutiladora. Nos falta un método en el comienzo, pero podemos disponer de un a-método en el que la ignorancia, incertidumbre, confusión, se convierten en virtudes. Nuestra expuesta pretensión de no renunciar al todo y a las partes parece convertirse en una empresa imposible, deviene un circulo vicioso, atenazado por la imposibilidad lógica, la imposibilidad del saber enciclopédico y por la renuncia omnipotente del principio de disyunción y la ausencia de un nuevo principio de organización del saber. Nos las tenemos entonces con “un círculo vicioso de amplitud enciclopédica que no dispone ni de principio, ni de método para organizarse.” Un círculo que nos atrapa, que nos devora como si fuéramos la serpiente Uro-boros. Sólo podemos
130

El Conocimiento

conservar la circularidad, engarzarnos en el círculo para no ser inscritos por él. La pretensión de eliminar las contradicciones, las antinomias, se demuestra ilusoria. Querer romper la circularidad nos lleva a caer de nuevo bajo el principio de disyunción/reducción. Conservar la circularidad es “respetar las condiciones objetivas del conocimiento humano”, que conlleva siempre paradoja e incertidumbre. La circularidad nos permite un conocimiento que reflexiona sobre sí mismo, transformando el círculo vicioso en círculo virtuoso. Hay que velar, como nos recuerda Morin, por no apartarse de la circularidad: “El círculo será nuestra rueda, nuestra ruta será espiral”. La insuperable pretensión de enciclopedismo no debe ser tomada en términos puramente acumulativos, se trata ahora de poner el saber en ciclo, articular lo que esta disociado y debería estar fundamentalmente junto. Necesitamos reaprender a aprender, constituyendo “un principio organizador del conocimiento que asocia a la descripción del objeto, la descripción de la descripción, y el desenterramiento del descriptor. Nos encontramos ante el nacimiento de un nuevo paradigma: el Paradigma de la Complejidad, que se empieza a gestar en las crisis que afectan al conocimiento en nuestro siglo. Un Paradigma que acepta “que el único conocimiento que vale es aquel que se nutre de incertidumbre y que el único pensamiento que vive es aquel que se mantiene a la temperatura de su propia destrucción.” El mundo físico nos ofrece un ejemplo de cohabitación entre Orden y Caos. Así las estrellas, son a la vez formidables máquinas de relojería - producen Orden, Organización - son Cosmos, y también son auténtico Caos: son fuego ardiendo en una autoconsumición insensata, se crean, se autoorganizan en la temperatura misma de su destrucción, viven en la catástrofe continua. También podríamos decir esto de algo más cercano a nosotros, de nosotros mismos, otra vez Caos y Orden, otra vez resultamos complejos. El Caos que se gesta en las estrellas produce interacciones, que, a su vez, permiten los encuentros que se traducen en Organización: los átomos. La relación Caos/Interacción/Organización/Orden está presente en todos los fenómenos complejos, se convierte en Tetrálogo. El Orden y el Desorden se coproducen mutuamente, se necesitan; mantienen una relación solidaria, una relación que es genésica. Y la genesis no ha cesado, seguimos estando en la nube que se dilata, en un universo que sigue en expansión. La complejidad surge en las ciencias físicas, paradójicamente las más reductoras, y precisamente por eso mismo. El 2º principio de la Termodinámica, el universo en expansión de Hubble, la Teoría de la Relatividad, constituyen algunas de las fisuras a través de las que la complejidad se abre paso en el mundo físico, son las puertas por las que entran los conceptos de Caos, de Organización, de Expansión,….que convierten en ruinas lo que se había creído un edificio sólido. Y tras estas ruinas, nos encontramos con que toda observación, todo conocimiento, es siempre relativo a un observador, a un sujeto que conceptúa. Un observador que no es un ente puro, y que no puede desasirse de sus condicionamientos bioantropológicos, culturales, psicológicos… De nuevo, como no, otra vez, nosotros mismos. Así se presenta la necesidad de articular la física a la antropo-sociología, intentando construir un círculo virtuoso, siguiendo una ruta compleja, una ruta espiral.
131

El Conocimiento

La Complejidad de lo real necesita ser pensada a través de macro-conceptos, necesitamos pensar mediante “constelación y solidaridad de conceptos.” La Complejidad es el desafío, no la respuesta. El paradigma de la complejidad es una empresa que se esta gestando, que vendrá de la mano de nuevos conceptos, de nuevas visiones, de nuevos descubrimientos, y de nuevas reflexiones que se conectaran y reunirán. Es una apertura teórica, una teoría abierta que requiere de nuestro esfuerzo para elaborarse. Que requiere lo más simple y lo más dificil: “cambiar las bases de partida del razonamiento, las relaciones asociativas y repulsivas entre algunos conceptos iniciales, pero de las cuales depende toda la estructura del razonamiento, todos los desarrollos discursivos posibles”. Pensamos con Ignacio Salazar que no basta con denunciar que el desierto crece, hay que plantar, con Morin, árboles.

Bibliografía: Obras de Edgar Morin
-El hombre y la muerte, Barcelona, Kairós, 1979 -El espíritu del tiempo, Barcelona, Taurus, 1966 -Diario de California, Madrid, Fundamentos, 1973. -Las stars, Barcelona, Dopesa, 1972. -El cine o el hombre imaginario, Barcelona, Seix-Barral, 1980. -Autocrítica, Barcelona, Kairós, 1976. -El paradigma perdido. Ensayo de Bioantropología, Barcelona, Kairós, 1974. -El método, vol. 1, La naturaleza de la naturaleza, Madrid, Cátedra, 1981; vol. 2, La vida de la vida, Madrid, Cátedra, 1983; vol. 3, El conocimiento del conocimiento, Madrid, Cátedra, 1988; vol. 4, Las ideas, Madrid, Cátedra, 1992 -Para salir del siglo XX, Barcelona, Kairós, 1982. -Ciencia con conciencia, Barcelona, Antrophos, 1984. -De la naturaleza de la URSS, Barcelona, Antrophos, 1985. -Pensar Europa, Barcelona, Gedisa, 1988. -Tierra-Patria, Barcelona, Kairós, 1993 -Sociología, Barcelona, Gedisa, 1997 -Introducción al pensamiento complejo, Gedisa, Barcelona, 1997.

132

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->