Está en la página 1de 914

John

Hands

COSMOSAPIENS

La evolución humana desde los orígenes del universo

Traducción del inglés: Isabel Murillo


Con amor, en recuerdo de mi esposa, Paddy Valerie Hands.
AGRADECIMIENTOS

Nombrar a todos los que me ayudaron a hacer realidad este libro es


imposible. Entre ellos están los autores cuyos documentos y libros he
consultado. La sección de Notas del final del libro incluye referencias completas
de la mayoría de documentos académicos así como referencias de los libros
consultados, además de los documentos más extensos y destacados, por autor y
año. Los detalles completos de los libros y los documentos citados en las Notas
se encuentran en la Bibliografía que las sigue. La distinción es arbitraria porque
algunos de los documentos académicos son muy extensos y he incluido los más
destacados en la Bibliografía pero, en términos generales, he intentado evitar una
Bibliografía voluminosa.
De entre los muchísimos especialistas que han compartido con gran
generosidad su experiencia conmigo, me siento especialmente en deuda con
aquellos que respondieron a mi solicitud de revisar los borradores de las distintas
secciones en busca de errores de hecho u omisión o de conclusiones no
razonables y de realizar cualquier tipo de comentario. Los nombro a
continuación dentro de amplias áreas de estudio, cada una de las cuales abarca
los diversos campos de especialización relevantes para el libro. El puesto que
aparece junto a cada nombre es que el que ocupaban en el momento de ser
consultados.
Mitos: Charles Stewart y Mukulika Banerjee, profesores titulares del
departamento de Antropología, University College London (UCL).
Cosmología y astrofísica: George Ellis, profesor honorario de Sistemas
Complejos en el departamento de Matemáticas y Matemáticas aplicadas,
Universidad de Ciudad del Cabo; Paul Steinhardt, profesor Albert Einstein de
Ciencias, Princeton University; Ofer Lahav, catedrático Perren de Astronomía y
director de Astrofísica, UCL; Bernard Carr, profesor de Astronomía, Queen
Mary, Universidad de Londres; el fallecido Geoffrey Burbidge, profesor de
Astronomía, Universidad de California, San Diego; Javant Narlikar, profesor
emérito, Inter-University Centre for Astronomy and Astrophysics, Pune, India;
Jon Butterworth, profesor de Física y director del departamento de Física y
Astronomía, UCL; Serena Viti, profesora adjunta del departamento de Física y
Astronomía, UCL; Eric J Lerner, presidente de Lawrenceville Plasma Physics,
Inc.
Filosofía: Tim Crane, profesor y director del departamento de Filosofía,
UCL, y director del Institute of Philosophy, y también posteriormente profesor
Knightbridge de Filosofía, Universidad de Cambridge; Hasok Chang, profesor
de Filosofía de las ciencias, UCL.
Ciencias planetarias y atmosféricas: Jim Kasting, profesor honorario,
Pennsylvania State University.
Geología: John Boardman, profesor adjunto de Geomorfología y degradación
del suelo, Universidad de Oxford.
Historia de la ciencia: Adrian Desmond, biógrafo e investigador honorario
del departamento de Biología, UCL; Charles Smith, profesor y bibliotecario de
Ciencias, Western Kentucky University; John van Whye, fundador y director de
The Complete Works of Charles Darwin online; James Moore, biógrafo y
profesor del departamento de Historia, Open University; James Le Fanu, médico
e historiador especializado en ciencias y medicina.
El origen y la evolución de la vida: profesor Adrian Lister, investigador del
departamento de Paleontología del Museo de Historia Natural; Jim Mallet,
profesor del departamento de Genética, evolución y medioambiente, UCL;
Johnjoe McFadden, profesor de Genética molecular, Universidad de Surrey;
Mark Pallen, profesor de Genómica microbiana, Universidad de Birmingham;
Chris Orengo, profesor de bioinformática, UCL; Jerry Coyne, profesor del
departamento de Ecología y evolución, Universidad de Chicago; el fallecido
Lynn Margulis, profesor honorario, Universidad de Massachusetts; Jim
Valentine, profesor emérito del departamento de Biología integrativa,
Universidad de California, Berkeley; Jeffrey H Schwartz, profesor de
Antropología física y de Historia y filosofía de la ciencia, Universidad de
Pittsburgh; Hans Thewissen, profesor de Anatomía del departamento de
Anatomía y neurobiología, Northeastern Ohio Universities College of Medicine;
Rupert Sheldrake, biólogo celular y director del Perrott-Warrick Project,
patrocinado por el Trinity College, Cambridge; Simon Conway Morris, profesor
de Paleobiología evolutiva, Universidad de Cambridge; Francis Heylighen,
profesor investigador, Universidad Libre de Bruselas; Jonathan Fry, profesor
titular del departamento de Neurociencia, fisiología y farmacología, UCL;
Thomas Lentz, profesor emérito de Biología celular, Yale University School of
Medicine; Richard Goldstein de la división de Biología matemática del National
Institute for Medical Research, Londres; Avrion Mitchison, profesor emérito de
Anatomía zoológica y comparativa, UCL.
Conducta animal: Volker Sommer, profesor de Antropología evolutiva, UCL;
Alex Thornton, Drapers’ Company Research Fellow, Pembroke College,
Cambridge; Heikki Helanterä, investigador académico, Universidad de Helsinki;
Simon Reader, profesor adjunto del departamento de Biología, McGill
University.
El origen del hombre: Robin Derricourt, historiador y arqueólogo,
Universidad de Nueva Gales del Sur; C Owen Lovejoy, profesor del
departamento de Antropología, Kent State University; Tim White, profesor del
departamento de Biología integrativa, Universidad de California, Berkeley.
La evolución de los humanos: Steven LeBlanc, profesor de Arqueología,
Harvard University; John Lagerwey, profesor del Centre for East Asian Studies,
Universidad China de Hong Kong; Liz Graham, profesora de Arqueología
mesoamericana, UCL; Subhash Kak, profesor Regents de Ciencia de la
computación, Oklahoma State University; Fiona Coward, profesora titular de
Ciencia de la arqueología, Bournemouth University; Dorian Fuller, profesor
adjunto de Arqueobotánica, UCL; Pat Rice, profesora emerita del departamento
de Sociología y antropología, West Virginia University; Damien Keown,
profesor de Ética budista, Goldsmiths, University of London; Stephen Batchelor,
profesor de budismo y escritor; Naomi Appleton, Chancellor’s Fellow en
Estudios religiosos, Universidad de Edimburgo; Simon Brodbeck, profesor de la
Escuela de Historia, arqueología y religión, Universidad de Cardiff; Chad
Hansen, profesor de Filosofía, Universidad de Hong Kong; Gavin White, autor
de Babylonian Star-Lore; Magnus Widell, profesor de Asiriología, Universidad
de Liverpool; Stephen Conway, profesor y director del departamento de Historia
UCL; Bruce Kent, fundador y vicepresidente del Movimiento para la abolición
de la guerra; Dean Radin, director científico del Institute of Noetic Sciences.
Charles Palliser, novelista, realizó comentarios en diversos capítulos desde el
punto de vista de un no especialista.
Cualquier error que pueda haber queda totalmente bajo mi responsabilidad.
No todos los especialistas mencionados se mostraron de acuerdo con las
conclusiones que yo extraje a partir de las evidencias. De hecho, busqué
deliberadamente comentarios de muchos cuyas publicaciones demostraban que
tenían puntos de vista distintos al mío. Con algunos entablé una larga
correspondencia, llamándome la atención hacia evidencias que yo desconocía,
proporcionándome una interpretación distinta de las evidencias o cuestionando
mis argumentos. Valoré muchísimo estos intercambios, que sirvieron para
mejorar el manuscrito y las conclusiones. Otros exhibieron una mentalidad lo
suficientemente abierta como para decir que, después de reflexionar, estaban de
acuerdo con mis conclusiones. Varios especialistas se mostraron en desacuerdo
con otros especialistas de su mismo ámbito.
A pesar de que las preguntas sobre qué somos, de dónde venimos y por qué
estamos aquí me han intrigado desde que era un estudiante de ciencias, la idea de
investigar y escribir un libro sobre el tema surgió en 2002. Mi nombramiento
como Royal Literary Fund Fellow del University College London en 2004, me
proporcionó los ingresos, el ambiente y la biblioteca necesaria para permitirme
desarrollar y dar forma a mis ideas y, en 2006, el libro acabó adquiriendo la
orientación con la que ha salido a la luz. Mi infinito agradecimiento para la UCL
y mis colegas en la institución, a la Graduate School por su apoyo, a los
estudiantes universitarios a los que he impartido clases y de los que tanto he
aprendido y al RLF por financiar el proyecto. Mi agradecimiento también para el
Arts Council of England por el regalo en forma de beca literaria que recibí en
2009 y que me permitió trabajar prácticamente a tiempo completo en la
investigación y la redacción del libro. Katie Aspinall me ofreció muy
amablemente su casita en Oxfordshire para poder disfrutar de periodos de
reflexión sin interrupciones.
Cuando mis amigos querían mostrarse comprensivos, decían que era un
proyecto ambicioso. Cuando querían ser realistas, decían que era una locura. En
mis momentos más cuerdos, es lo que yo pensaba también. He contraído una
deuda enorme con mi agente, Caspian Dennis, de Abner Stein, que mantuvo su
fe en el proyecto y demostró la habilidad necesaria para colocarlo en el editor
adecuado en el momento adecuado. Andrew Lockett, el recientemente nombrado
director editorial de Duckworth, se quedó intrigado con la propuesta y durante su
primera semana en el puesto nos invitó a reunirnos con él. El proyecto
necesitaba la aprobación del propietario de Duckworth, Peter Mayer, fundador
de Overlook Press, Nueva York. El exhaustivo y extremadamente educado
interrogatorio al que me sometió Peter durante una de las visitas que realizó a
Londres me hizo entender por qué durante más de veinte años, incluyendo los
dieciocho que pasó como consejero delegado de Penguin Books, había sido el
editor más destacado e innovador del mundo. Andrew defendió el libro y
proporcionó comentarios editoriales valiosísimos del manuscrito. Su equipo,
integrado por Melissa Tricoire, Claire Easthman, Jane Rogers y David Marsall,
se mostró entusiasta tanto en su apoyo como en las ideas proporcionadas para
producir un libro atractivo y accesible que llamara la atención de los potenciales
lectores, y similar entusiasmo mostraron Nikki Griffiths, el sucesor de Andrew
como director editorial, y Deborah Blake, la revisora. Mi agradecimiento
también para Tracy Carns y Erik Hane, de Overlook Press.
CAPÍTULO 1. LA EXPEDICIÓN

Si descubrimos una teoría completa, con el tiempo habrá de ser, en sus líneas maestras, comprensible
para todos y no únicamente para unos pocos científicos. Entonces todos, filósofos, científicos y la gente
corriente, seremos capaces de tomar parte en la discusión de por qué existe el universo y por qué existimos
nosotros. Si encontrásemos una respuesta a esto, sería el triunfo definitivo de la razón humana, porque
entonces conoceríamos el pensamiento de Dios.

STEPHEN HAWKING, 1988

Cuando hayamos unificado la cantidad necesaria de conocimientos, comprenderemos quién somos y


por qué estamos aquí.

EDWARD O. WILSON, 1988

«¿Qué somos?» y «¿por qué estamos aquí?» son preguntas que llevan
fascinando al ser humano desde hace al menos veinticinco mil años. Durante la
inmensa mayoría de este tiempo, hemos buscado respuesta a través de las
creencias sobrenaturales. Hace apenas tres mil años, empezamos a buscar la
respuesta a esas preguntas a través de la visión filosófica y el razonamiento.
Hace poco más de ciento cincuenta años, la obra de Charles Darwin, El origen
de las especies, aportó un enfoque completamente distinto. Adoptaba el método
empírico de la ciencia y llegó a la conclusión de que somos producto de la
evolución biológica. Cincuenta años atrás, los cosmólogos declararon que la
materia y la energía de la que estamos compuestos tenían su origen en un Big
Bang que creó el universo. Y luego, hará cuestión de treinta años, los
neurocientíficos empezaron a demostrar que lo que vemos, oímos, sentimos y
pensamos está correlacionado con la actividad que desarrollan las neuronas en
distintas partes del cerebro.
Estos grandiosos logros en la ciencia fueron posibles gracias a avances
tecnológicos que generaron un incremento de datos de carácter exponencial.
Esto a su vez llevó a la ramificación de la ciencia en focos de investigación cada
vez más delimitados y profundos. En los últimos tiempos, nadie ha dado un paso
atrás para examinar la hoja de una de esas ramas sin ver que la totalidad del
árbol evolutivo nos está mostrando quién somos, de dónde venimos y por qué
existimos.
Esta búsqueda es un intento de hacer precisamente eso: averiguar lo que la
ciencia puede contarnos de manera fiable a partir de la observación sistemática y
la experimentación sobre cómo y por qué evolucionamos desde el origen del
universo y si lo que somos nos hace distintos del resto de animales.
Abordaré esta tarea en cuatro partes. La primera parte examinará la
explicación que da la ciencia al origen y la evolución de la materia y la energía
de las que estamos formados; la segunda parte hará lo mismo para el origen y la
evolución de la vida, puesto que somos materia viva; la tercera parte examinará
el origen y la evolución del ser humano. En la cuarta parte veremos si en las
evidencias existen patrones consistentes que nos permitan extraer conclusiones
generales.
En cada una de estas partes, desglosaré la cuestión fundamental «¿qué
somos?» en las diversas preguntas que investigan los distintos ámbitos de
especialización; intentaré encontrar en cada uno de estos ámbitos, y a partir de
publicaciones académicamente reconocidas, aquellas respuestas que estén
validadas por las evidencias empíricas antes que las derivadas de las
especulaciones y creencias; y miraré si en estas evidencias existe o no un patrón
que permita extraer conclusiones. Solo en el caso de que esta estrategia no
ofrezca una explicación satisfactoria, consideraré la sensatez de hipótesis y
conjeturas, así como de otras formas posibles de conocimiento, como punto de
vista.
Luego, pediré a especialistas de cada ámbito (que aparecen listados en los
Agradecimientos) que verifiquen los resultados de mi borrador en busca de
errores de hecho o de omisión y la posible presencia de conclusiones
inadmisibles.
Al final de cada capítulo, realizaré una lista de conclusiones para que el
lector que desee saltarse cualquiera de las secciones más técnicas pueda conocer
mis hallazgos.
La pregunta qué somos me ha intrigado desde que era estudiante de ciencias.
Aparte de ser el coautor de dos estudios de investigación, de escribir un libro
sobre ciencias sociales y de mis cuatro años como profesor de física a tiempo
parcial en la Open University, nunca he practicado como científico y por lo
tanto, en este sentido, no estoy cualificado para esta tarea. Por otro lado, pocos
investigadores actuales poseen conocimientos relevantes fuera de los campos de
especialización que estudiaron y que ahora practican.
Doy por supuesto que muchos de estos especialistas pensarán que no he
escrito con detalle suficiente sobre su campo de especialización. Me declaro
culpable de ello de antemano. Mi intención es escribir un libro, no una biblioteca
entera, lo cual exige necesariamente resumir con el objetivo de ofrecer al lector
una imagen general de la evolución humana: una visión de lo qué somos y de
por qué estamos aquí.
A pesar de los esfuerzos por corregir errores, en una empresa como esta
habrá detalles que presentarán fallos, de los cuales asumo toda la
responsabilidad. O que habrán quedado superados por los resultados de nuevas
investigaciones aparecidas entre el momento de la escritura del libro y su
publicación, pero la ciencia, a diferencia de las creencias, avanza así. Lo que
espero es que este libro ofrezca un marco de trabajo amplio que otros puedan
refinar y desarrollar.
Una mayoría de la población mundial, sin embargo, no acepta que seamos
producto de un proceso evolutivo. Cree en varios mitos que explicarían nuestros
orígenes. Empezaré, por lo tanto, con un capítulo que examina los diversos mitos
sobre el origen, por qué han sobrevivido durante los casi quinientos años que han
transcurrido desde el inicio de la revolución científica y si han tenido influencia
sobre el pensamiento científico.
Gran parte de las desavenencias surgen porque distintas personas utilizan la
misma palabra para referirse a cosas distintas: los significados cambian con el
tiempo y con los diferentes contextos culturales. Para minimizar los
malentendidos, la primera vez que utilice una palabra relevante y potencialmente
ambigua, definiré el significado concreto que le aplico y, además, elaboraré una
lista de dichos términos en el glosario que aparece al final del libro, que incluye
también definiciones de términos técnicos inevitables.
La primera palabra a definir es «ciencia». Deriva del latín scientia, que
significa conocimiento. Cada tipo de conocimiento puede adquirirse, o afirmarse
que se ha adquirido, de una manera distinta. Desde el siglo XVI se equipara con
conocimiento sobre el mundo natural —inanimado y animado— adquirido
mediante la observación y la experimentación, a diferencia del conocimiento
adquirido únicamente a través del razonamiento, la percepción o la revelación.
En consecuencia, la definición de ciencia debe incluir los medios a través de los
cuales se adquiere el conocimiento. Nuestro concepto actual de ciencia podría
resumirse como

Ciencia: el intento de comprender y explicar los fenómenos naturales


mediante la observación y la experimentación sistemáticas, y
preferiblemente mensurables, y de aplicar el razonamiento al
conocimiento obtenido de esta manera para deducir leyes verificables y
realizar predicciones o retrodicciones.

Retrodicción: un resultado que se ha producido en el pasado y que se


deduce o predice a partir de una ley o teoría científica posterior.

La ciencia pretende formular una ley, o una teoría más general, que explique
la conducta invariable de un sistema de fenómenos. Utilizamos dicha ley o teoría
para predecir resultados futuros, aplicándola a fenómenos concretos del sistema.
Por ejemplo, dentro del sistema de objetos en movimiento aplicamos las leyes
del movimiento de Newton para predecir el resultado de lanzar un cohete
concreto al espacio dentro de un conjunto de circunstancias concretas.
La ciencia puede también informarnos sobre resultados del pasado. Un
ejemplo de retrodicción es que, a partir de la teoría de las placas tectónicas,
podemos deducir que cerca de la costa este de América del Sur y de la costa
oeste del África austral podremos encontrar fósiles similares anteriores a la
ruptura del súper continente Pangea, que se produjo hace unos doscientos
millones de años.
A partir del siglo XVIII, el estudio de los fenómenos naturales incluyó también
el ser humano y sus relaciones sociales. En el siglo XIX, la aplicación del método
científico a estos estudios dio como resultado el desarrollo de las ciencias
sociales, un término amplio que abarca disciplinas como la arqueología, la
antropología, la sociología, la psicología, las ciencias políticas e incluso, la
historia. En la tercera parte evaluaré los descubrimientos más relevantes de estas
disciplinas.
En la ciencia, el término «teoría» tiene un significado más concreto que en su
uso general, aunque incluso en la ciencia, tanto «teoría» como «hipótesis» se
utilizan a menudo de forma vaga. Es importante distinguir entre ambos
conceptos.

Hipótesis: teoría provisional planteada para explicar un fenómeno o un


conjunto de fenómenos y utilizada como base de posteriores
investigaciones; suele llegarse a ella bien por revelación, bien por
razonamiento inductivo después de examinar evidencias incompletas y
puede ser susceptible de ser falsa.

El criterio de la falsabilidad fue propuesto por el filósofo científico Karl


Popper. En la práctica, puede no resultar claro, pero la mayoría de científicos
actuales acepta el principio de que para distinguir una hipótesis científica de una
conjetura o creencia, debe estar sujeta a pruebas empíricas que puedan falsarla.

Teoría: explicación de un conjunto de fenómenos que ha quedado


confirmada por diversos experimentos y observaciones y que se utiliza
para realizar predicciones o retrodicciones precisas sobre dichos
fenómenos.

Cuanto más amplio sea el rango de fenómenos explicados, más útil resultará
la teoría científica. Y debido al hecho de que la ciencia avanza mediante el
descubrimiento de nuevas evidencias y la aplicación de nuevas ideas, una teoría
científica puede quedar modificada o refutada como resultado de evidencias
contradictorias, aunque nunca podrá ser demostrada de manera absoluta.
Algunas teorías científicas, sin embargo, están ampliamente consolidadas. Por
ejemplo, a pesar de que la teoría de que la Tierra es el centro del universo y el
sol y las demás estrellas giran a su alrededor ha quedado refutada, la teoría de
que la Tierra gira en órbita alrededor del sol ha quedado validada por tantas
observaciones y predicciones precisas que se acepta hoy en día como un hecho
establecido. Sin embargo, puede darse el caso de que ni siquiera esto sea así. En
realidad, es muy probable que deje de ser cierto en el plazo de unos cinco mil
millones de años, momento en el cual muchos estudios sobre la evolución del sol
predicen que éste se habrá convertido en una estrella roja gigante que se
expandirá y acabará engullendo y quemando la Tierra.
Cualquier investigación está fuertemente influenciada por creencias
anteriores. Yo nací y fui educado como católico, me volví ateo y ahora soy
agnóstico. No tengo creencias previas relacionadas con el teísmo, el deísmo o el
materialismo. No sé nada, sinceramente. Y esta es en parte la emoción que
conlleva embarcarse en una expedición cuyo objetivo es descubrir, a partir de
evidencias científicas, qué somos y en qué podríamos convertirnos. Invito a los
lectores con mentalidad abierta a que se sumen a mi expedición.
PRIMERA PARTE.
El origen y la evolución de la materia
CAPÍTULO 2. MITOS SOBRE EL ORIGEN

Quiero saber cómo Dios creó el mundo.

ALBERT EINSTEIN, 1955

El mundo y el tiempo tienen un único principio. El mundo no se creó en el tiempo, sino


simultáneamente con el tiempo.

SAN AGUSTÍN DE HIPONA, 417

Desde el 11 de febrero de 2013[1], el relato ortodoxo de la ciencia, que se


presenta habitualmente como un hecho, afirma que hace 13,7 miles de millones
de años el universo, incluyendo el espacio y el tiempo y también la materia y la
energía, explotó e inició su existencia como una bola de fuego de densidad
infinita y temperatura increíblemente elevada que se expandió y se enfrió para
dar lugar al universo tal y como lo vemos hoy en día. Fue el Big Bang a partir
del cual hemos evolucionado.
Antes de investigar si la ciencia es capaz de explicar nuestra evolución a
partir del origen de la materia y la energía, consideraré brevemente los mitos en
los que cree una inmensa mayoría de la población mundial. Resulta instructivo
examinar los conceptos principales de los distintos mitos, las diversas
explicaciones que les han dado los científicos sociales y si estas explicaciones
superan el test de las evidencias o de la racionalidad, por qué los mitos han
sobrevivido y hasta qué punto han influido el pensamiento científico.

Temas principales
Toda cultura a lo largo de la historia posee uno o más relatos sobre el origen
del universo y el ser humano: comprender de dónde venimos forma parte del
deseo humano inherente de comprender qué somos. El Rigveda, el texto sagrado
más antiguo del mundo y el escrito más importante de lo que hoy conocemos
como hinduismo, presenta tres de estos mitos en su décimo libro de himnos a los
dioses. Los Brahmanas, la segunda parte de cada veda dedicada básicamente a
los rituales, contienen otros, mientras que las Upanishads, relatos sobre las
percepciones místicas de videntes que la tradición vincula al final de los vedas,
[2] expresan de diversas maneras una perspectiva única sobre el origen del
universo.[3] Las culturas judeo-cristiana e islámica comparten, en términos
generales, la misma explicación para la creación, mientras que otras culturas
tienen otras. Los chinos poseen, como mínimo, cuatro mitos sobre el origen que
presentan, además, en distintas versiones. Pero a pesar de que cada mito es
diferente,[4] hay nueve temas principales recurrentes, algunos de los cuales se
solapan.

Caos o agua primigenios

Muchos mitos hablan de un caos preexistente, a menudo descrito como agua,


del cual emerge un dios para crear el mundo o partes del mismo. Los pelasgos,
que hacia 3.500 a. C. invadieron la península griega procedentes de Asia Menor,
trajeron con ellos la historia de la diosa creadora Eurínome, que surgió desnuda
de Caos.[5] Los mitos de Heliópolis, en Egipto, que datan del cuarto milenio
antes de Cristo nos hablan de Nun, el océano primigenio, del cual surgió Atum,
de cuya masturbación nació el mundo. Hacia 2.400 a. C., Atum quedó
identificado con el dios del sol, Ra, y su aparición quedó asociada con la salida
del sol y la disipación de la oscuridad caótica.

El buceador de la tierra

Otros mitos, extendidos por Siberia, Asia y algunas tribus nativas


norteamericanas, hablan de un animal preexistente —a menudo una tortuga o un
ave— que se sumerge en las aguas primigenias para extraer de ellas un pedazo
de tierra que posteriormente se expande y crea el mundo.

El huevo cosmogónico

En determinadas partes de India, Europa y el Pacífico, el origen de la


creación es un huevo. El Satapatha Brahmana dice que las aguas primigenias
produjeron el dios creador Prajapati en forma de huevo dorado. Al cabo de un
año, salió del huevo e intentó hablar. Su primera palabra se transformó en la
tierra, la segunda en el aire, y así sucesivamente. De un modo similar, una
versión del mito chino del P’an Ku empieza con un gran huevo cósmico en el
interior del cual flota en el Caos un P’an Ku embrionario. En el mito griego
órfico de la creación, cuyo origen se remonta al siglo VII o VI a. C. y contrasta
con los mitos olímpicos de Homero, es el tiempo el que crea el huevo plateado
del cosmos del que surge el bisexual Fanes-Dionisos que lleva con él las semillas
de todos los dioses y todos los hombres y que crea el Cielo y la Tierra.

Padres del mundo

Un tema muy extendido es el del padre del mundo —normalmente el cielo—


que se empareja con la madre del mundo —normalmente la Tierra— para crear
los elementos del mundo. A menudo permanecen unidos en el acto sexual,
mostrándose indiferentes hacia sus hijos, como en un mito maorí de la creación.

La rebelión de los hijos

En varios mitos, los descendientes se rebelan contra los padres del mundo.
Los hijos del mito maorí —bosques, plantas alimenticias, océanos y el hombre—
luchan contra sus padres para obtener espacio. Tal vez el mito más conocido de
este tipo sea la Teogonía, compuesta por el griego Hesíodo en el siglo VIII a. C.
En ella se relata la rebelión de varias generaciones de dioses contra sus padres,
los primeros de los cuales fueron Caos, Tierra, Tártaro (el inframundo) y Eros (el
amor); la rebelión acabó con el triunfo de Zeus.

Sacrificio

La idea de la creación a través del sacrificio es frecuente. El mito chino de


P’an Ku dice: «El mundo no estuvo terminado hasta que se produjo la muerte de
P’an Ku. Solo su muerte pudo perfeccionar el universo. De su cráneo surgió la
cúpula del cielo y de su carne el suelo de los campos […]. Y [finalmente] de las
alimañas que cubrieron su cuerpo surgió la humanidad».[6]

La batalla primigenia

La gran epopeya babilónica, el Enûma Elish, describe la guerra entre los


dioses sumerios y la deidad babilónica, Marduk, y sus seguidores. Marduk mata
a la diosa original superviviente, Tiamat, y a sus monstruos del Caos, establece
el orden y se convierte en el dios supremo y creador del universo: toda la
naturaleza, incluyendo los humanos, le debe a él su existencia. Encontramos
mitos similares en todo el mundo, por ejemplo en la victoria olímpica de los
dioses masculinos del cielo de los invasores arios sobre las fértiles diosas de la
tierra de los pelasgos y los cretenses.

La creación a partir de la nada

Los mitos que presentan el tema de la creación a partir de la nada son


escasos. Sin embargo, su creencia no solo es una de las más extendidas, sino que
además es la explicación científica preferida actualmente.
La versión más antigua es la del Rig Veda. Investigaciones
arqueoastronómicas recientes desafían la datación que realizó Max Müller en el
siglo XIX y documentan con pruebas la tradición india; concluyen que la obra fue
compilada a lo largo de un periodo de dos mil años que se inició en torno a 4.000
a. C.[7] En el décimo y último libro, el Himno 129 dice: «Entonces no existían
ni lo existente ni lo inexistente, no existía el espacio etéreo, ni el cielo que está
más allá […]. Solo aquel Uno respiraba sin aire, por su propia naturaleza. Aparte
de él no existía cosa alguna».
La idea se desarrolla en las Upanishads, los más destacados de los cuales
fueron probablemente escritos entre 1000 y 500 a. C. La Chandogya Upanishad
representa la idea central de que «El universo proviene de Brahmán y regresará a
Brahmán. Ciertamente, todo es Brahmán». Varias Upanishad emplean la
metáfora, la alegoría, la parábola, el diálogo y la anécdota para describir a
Brahmán como la realidad definitiva que existe a partir del espacio y el tiempo,
del cual mana todo y de lo cual todo está formado; se interpreta generalmente
como la Conciencia Cósmica, el Espíritu o la Divinidad Suprema que sustenta
cualquier forma.
El taoísmo expresa una idea similar. El principal texto taoísta, conocido en
China como Lao-Tzu y en Occidente como Tao Te Ching, fue seguramente
compilado entre los siglos VI y III a. C. Destaca la unicidad y la eternidad del Tao,
el Camino. El Tao es «nada» en el sentido de que es «ninguna cosa»: carece de
nombre o de forma; es la base de todo ser y la forma de todo ser. El Camino, o la
nada, da lugar a la existencia, la existencia da lugar a los opuestos yin y yang, y
el yin y el yang dan lugar a todo: macho y hembra, tierra y cielo, y así
sucesivamente.
El primer libro de las escrituras hebreas, escrito no antes de finales del siglo
VII a. C,[8] empieza con las palabras «En el principio, dios creo los Cielos y la
Tierra».[9] El siguiente versículo describe la Tierra en términos que evocan los
mitos del caos y las aguas primigenias, después de lo cual Dios dice que habrá
luz y se crea la luz, y después Dios separa la luz de la oscuridad en su primer día
de creación. En el transcurso de los cinco días siguientes, ordena la creación del
resto del universo.
En el Corán, escrito a partir del siglo VII d. C., Dios ordena también la
creación de los Cielos y la Tierra.[10]

El ciclo eterno
Varios mitos originarios de India niegan que el universo fuera creado y
sostienen que el universo ha existido siempre, pero que este universo eterno está
sometido a ciclos.
En el siglo V a. C., Buda dijo que realizar conjeturas sobre el origen del
universo provoca la locura a aquellos que lo intentan.[11] Esto, sin embargo, no
impidió que sus seguidores lo intentaran. Aplicaron su punto de vista de que
todo es temporal, que todo surge, se crea, cambia y desaparece constantemente,
con el resultado de que la mayoría de escuelas budistas predica en la actualidad
que el universo se expande y se contrae, se disuelve en la nada y evoluciona para
volver a ser siguiendo un ritmo eterno.
Posiblemente estuvieron influidos por los jainistas, cuyo último Tirthankara
(literalmente «constructor de vados», aquel que enseña a cruzar el río de los
renacidos para alcanzar el estado de liberación eterna del alma) empezó a
predicar sus enseñanzas en el este de India antes que Buda. Los jainistas
sostienen que el universo no está creado y es eterno. El tiempo es como una
rueda con doce ejes que miden los yugas, o edades del mundo, cada uno de los
cuales tiene una duración fija de miles de años. Seis yugas forman un arco
ascendente en el que el conocimiento humano y la felicidad aumentan,
elementos que disminuyen en el arco descendiente de seis yugas. Cuando el
ciclo alcance su nivel más bajo, desaparecerá incluso el jainismo. Entonces, en el
transcurso del siguiente ascenso, se redescubrirán los conocimientos jainistas y
nuevos Tirthankaras se encargarán de reintroducirlo, aunque al final del nuevo
ciclo descendente de la rueda eterna del tiempo, el proceso se repetirá.
Todo esto es similar a las principales creencias yóguicas, que derivan de la
filosofía védica. Suelen postular solo cuatro yugas. La primera, Satya Yuga o
Krita Yuda, dura 1.728.000 años, mientras que la cuarta, Kali, dura 432.000
años. El descenso desde Satya hasta Kali va asociado con un deterioro
progresivo del dharma, o rectitud, manifestado en forma de disminución de la
duración de la vida humana y de la calidad de los estándares éticos de la
humanidad. Por desgracia, actualmente estamos en el periodo Kali.

Explicaciones
Las muchas explicaciones de estos mitos sobre el origen pueden agruparse en
cinco categorías.

Verdad literal

Todos los mitos sobre el origen son distintos y, en consecuencia, no todos


pueden ser literalmente ciertos. Sin embargo, algunas culturas afirman que su
mito es literalmente cierto. Un 63 por ciento de norteamericanos cree que la
Biblia es la palabra de Dios y que es literalmente cierta,[12] mientras que la
abrumadora mayoría[13] de los 1,6 miles de millones de musulmanes del mundo
cree en la verdad literal del Corán porque es la palabra eterna de Dios escrita
sobre una tabla en el Cielo y dictada a Mahoma por el arcángel Gabriel.
Muchos creyentes en la verdad literal de la Biblia suscriben el cálculo sobre
el Génesis que realizó James Ussher que afirmó que la creación en seis días del
universo culminó el sábado 22 de octubre de 4004 a. C. a las seis de la tarde.[14]
[15] Sin embargo, la mayoría de las evidencias geológicas, paleontológicas y
biológicas, que se sirven de la datación radiométrica obtenida a partir de rocas,
fósiles y testigos de hielo, sitúa la edad de la Tierra en al menos 4,3 miles de
millones de años. Los datos astronómicos indican que el universo tiene una
antigüedad de entre diez y veinte mil millones de años. Las evidencias contra la
verdad literal de la creencia creacionista son conclusivas.[16] Más aún, creer en
la verdad literal de la Biblia es creer, como mínimo, en dos relatos
contradictorios de la creación. En Génesis 1:26-1, Dios crea las plantas y los
árboles el tercer día, los peces y las aves el quinto día, el resto de animales al
principio del sexto día, y el hombre y la mujer, a su propia imagen y semejanza,
al final del sexto día. En Génesis 2, por otro lado, Dios crea primero un varón
humano a partir del polvo; solo después crea un jardín donde crecen plantas y
árboles y luego, a partir de la tierra, crea todos los animales y aves (no hay
mención de los peces), hasta que finalmente crea una mujer a partir de la costilla
del hombre.
También resulta ilógico que los creyentes en la verdad literal del Corán crean
que Dios creó la Tierra y los cielos en ocho días (Sura 41:9-12) y que creara la
Tierra y los cielos en seis días (Sura 7:54).
Metáfora

Barbara Sproul, una de las principales especialistas en mitos sobre el origen,


defiende que, pese a que no son literalmente ciertos, los mitos se sirven de
metáforas para expresar sus verdades. La única evidencia que cita es la
interpretación que el etnólogo Marcel Griaule realiza de la explicación de un
sabio dogón que afirma que el mito de su pueblo debe entenderse en palabras del
mundo inferior. Para el resto, explica lo que en realidad significan los distintos
mitos sobre el origen. Así, en el mito de Heliópolis, el dios creador que se
masturba y crea con ello el mundo representa la dualidad interiorizada y
manifiesta que toda dualidad «se convierte en sagrada y revela la naturaleza de
la realidad solo si comprendemos lo que quiere dar a entender con ello».[17] No
aporta evidencias que sustenten que los creadores de mitos de Heliópolis, y
menos aún la población de Heliópolis de hace cinco mil años, compartieran sus
conclusiones. Para otros ejemplos que cita resulta difícil evitar la impresión de
que está proyectando en los mitos interpretaciones propias y características de
finales del siglo XX. Si el 63 por ciento de la nación tecnológicamente más
sofisticada del mundo cree que el mito de la creación del Génesis es literalmente
cierto, ¿es razonable suponer que las tribus nómadas de hace cuatro mil años, o
incluso los escribas del rey Josías de hace dos mil quinientos años, pensaran que
era una metáfora?
Por mucho que sea razonable llegar a la conclusión de que, por su contexto,
algunos de los relatos sobre el origen, como los de las Upanishad, emplean
deliberadamente la metáfora, Sproul no aporta pruebas que demuestren que la
mayoría de esos mitos fueran concebidos o reconocidos como otra cosa que no
fuera un relato literal.

Aspecto de realidad absoluta

Sproul sostiene que todas las religiones declaran una realidad absoluta que es
a la vez trascendente (verdadera en todo momento y lugar) e inmanente
(verdadera en el aquí y ahora), y que «Solo los mitos de la creación tienen como
finalidad principal la proclamación de esta realidad absoluta».[18] Además, su
conjunto de mitos de la creación «no muestra ninguna disparidad esencial en su
comprensión, sino que revela una similitud de visiones a partir de una amplia
variedad de puntos de vista».[19]
Así pues, muchos mitos sobre el origen mencionan polos opuestos: luz y
oscuridad, espíritu y material, macho y hembra, bien y mal, etc. Los más
profundos identifican Ser y No-ser y algunos, como la Chandogya Upanishad,
afirman que el No-ser surge a partir del Ser, mientras que otros, como un mito
maorí, asevera que el No-ser en sí mismo es el origen de todo Ser y No-ser.
Algunos ven el origen de toda esta polaridad como el Caos, que incluiría todas
las distinciones posibles; la creación se produce cuando el Caos se fusiona y
toma forma y actúa sobre todo lo no formado para crear más distinciones y, con
ello, crear el mundo. «En este caso, ¿qué es la realidad absoluta? ¿El Caos en sí
mismo? ¿O el hijo del Caos que actúa sobre él? Ambos. Son uno». [20]
Las diferencias aparentes surgen porque los mitos hablan de lo desconocido
en términos de lo conocido, normalmente utilizando formas antropomórficas o
sirviéndose de palabras relacionadas para intentar describir lo absoluto. Según
Sproul, incluso el rechazo de un acto de creación por parte de los budistas, los
jainistas y los yoguistas, separa su universo eterno del universo creado; los mitos
que relatan sucesos de creación temporalizan, simplemente: hablan de lo
absoluto en términos de lo primero.
La reivindicación de que todos los mitos sobre el origen revelan aspectos de
la misma realidad absoluta resulta fascinante. No está, sin embargo, sustentada
por ninguna evidencia. Queda igualmente explicada por la interpretación que
Sproul realiza de estos mitos según sus propias creencias de lo que constituye la
realidad absoluta.

Verdad arquetípica

Según Sproul, que fue alumna de Joseph Campbell, los mitos de la creación
son importantes no solo por su valor histórico sino también porque revelan
valores arquetípicos que nos ayudan a comprender nuestro crecimiento personal
«físicamente, mentalmente y espiritualmente, en el contexto del flujo cíclico de
ser y no-ser y, finalmente, en la unión absoluta de los dos».[21]
Su utilización de los conceptos de Campbell, derivados de la psicología de
Jung, no logra presentar una explicación convincente.

Experiencia fetal

El biólogo molecular Darryl Reanney sugiere que el tema común de unas


aguas oscuras e informes preexistentes en las que aparece la luz y nace el
universo podría explicarse por los recuerdos subliminales del feto que
experimenta el nacimiento al emerger de las aguas oscuras, informes y nutritivas
del útero. «Las huellas que la experiencia del nacimiento deja en el cerebro pre-
natal predisponen a los mitos a desarrollar configuraciones concretas de
imaginería simbólica que tocan teclas extremadamente receptivas desde un
punto de vista psicológico».[22] Para sustentar su teoría, afirma que a partir del
séptimo mes de embarazo es posible registrar actividad eléctrica en el córtex
cerebral del feto (datos más recientes sugieren que puede registrarse antes del
sexto mes). [23]
Se trata de una conjetura interesante, pero es difícil entender de qué manera
podría validarse o refutarse.
Sugiero tres explicaciones más.

Comprensión limitada de los fenómenos naturales

En la fase de la evolución humana en la que se desarrollaron estos mitos, la


mayoría de culturas poseía una comprensión errónea o limitada de las fuerzas
naturales y, con la excepción de India occidental y ciertas partes de China, la
indagación filosófica ni siquiera existía.
El elemento de las aguas primigenias común en tantos mitos podría tener su
origen en el motivo por el que muchos pueblos neolíticos tardíos instalaron sus
poblados a orillas de un río. Utilizaban el agua para beber, para seguir con vida y
para regar sus cultivos. El agua era fuente de vida y de fertilidad y antes del
desarrollo de las ciudades solía estar asociada con el espíritu y la divinidad de la
vida.
La mayoría de mitos se remonta a culturas de la Edad de Bronce en las que la
ciencia, con la excepción de la astronomía, era completamente desconocida.
Cuando a los hombres sabios se les preguntaba cuál era el origen del mundo,
recurrían a sus propias experiencias de creación para dar la respuesta. Hombres y
animales eran resultado de la unión sexual de sus padres y madres y, en
consecuencia, también el mundo tenía que ser resultado de la unión de un padre
y una madre. Para fertilizar el mundo, este padre tenía que ser todopoderoso, y la
fuerza más poderosa que conocían era el cielo, de donde provenía el calor del
sol, los truenos, los rayos y la lluvia que fertilizaba todo lo que crecía. Para
gestar el mundo, la madre tenía que ser tremendamente fecunda, y lo más
fecundo que conocían era la tierra, de donde provenían los árboles, la vegetación
y los cultivos. De ahí el dios-cielo padre y la diosa-tierra madre.
Sabios de distintos pueblos consideraron el huevo como el objeto a partir del
cual emerge la vida. De ahí que el cosmos, o el dios que lo crea, hubieran
surgido de un huevo. Otros sabios tomaron debida nota de los ciclos del sol, la
luna, las estaciones y los cultivos. Todos ellos menguan, mueren, resurgen y se
desarrollan en una serie aparentemente eterna. Así, dedujeron, debe de ser cómo
funcionan los elementos esenciales del universo y cómo debe de funcionar el
universo en sí.

Necesidad política y cultural

En la Edad de Bronce, los espíritus de la naturaleza invocados por los


cazadores-recolectores y por las culturas agrícolas primitivas evolucionaron para
transformarse en dioses, cuya jerarquía funcional es un reflejo de la de las
ciudades-estado, mientras que sus mitos sobre el origen, por otra parte, solían
satisfacer una necesidad política o cultural.
Atum, el dios creador autosuficiente venerado en Heliópolis durante el cuarto
milenio a. C., fue degradado por los teólogos del faraón Menes a hijo y
funcionario de Ptah, que hasta el momento había sido simplemente el dios del
destino, y al que quisieron elevar a la categoría de dios creador porque era una
deidad local de Menfis, lugar donde Menes construyó allí la nueva capital.
La creación de mitos a través de la batalla primordial conforma
habitualmente esta explicación. Así, vemos como en el mito babilónico de
Enûma Elish, Marduk mata a Tiamat y a sus monstruos del Caos y se erige como
dios creador supremo, lo que santifica y legitima el triunfo de los babilónicos
sobre los antiguos poderes sumerios y la imposición de su orden en la totalidad
de Sumeria.
Las evidencias arqueológicas descubiertas a finales del siglo XX sugieren que
el relato bíblico de la creación, escrito según la palabra de Dios, se explica
probablemente por una necesidad política y cultural. A finales del siglo VII a. C.,
el rey Josías encargó a sus escribas que recopilaran los mitos y las leyendas de la
región en un texto canónico cuyo objetivo era santificar y legitimar la unión de
su reino de Judea con el derrotado reino de Israel y dejarlo bajo un único
gobierno absoluto patriarcal y un único ordenamiento jurídico. Yahvé, el dios
local de Judea, que en sus orígenes tenía como esposa a la diosa Asherá, se
convirtió no solo en el dios principal, sino también en el único dios. Yahvé es el
nombre que se aplica a Dios en el relato de la creación que aparece en Génesis 2.
Pero para convencer al pueblo de Israel de que aceptara la unión, se intentó que
fuera igual que sus dioses. Elohim, el nombre que recibe Dios en Génesis 1, es el
término genérico empleado para cualquier ser divino y lo utilizaban los
cananeos, cuyo territorio y cultura habían adoptado los israelitas, para referirse a
su panteón de dioses; en Génesis 1, los dioses pasan a formar una sola deidad.
En un reflejo del papel de gobernador absoluto del reino unido de Judea e Israel
que Josías quería santificar, a este único Dios le bastaba con decir una cosa para
que se cumpliera; y así se creó el mundo. Pero este cambio de mitos no es
prerrogativa del conquistador. La historia de la creación de los chiricahua
apaches es una fusión tragicómica del Antiguo Testamento y su mitología previa
a la conquista. El Diluvio bíblico ahoga a todo aquel que veneraba a los dioses
de la montaña del Rayo y el Viento. Cuando las aguas se retiran, se pone ante
dos hombres un arco y una flecha y un rifle. Uno coge el rifle y se convierte en
el hombre blanco, mientras que el otro tiene que quedarse con el arco y la flecha
y se convierte en el indio.

Visión mística
Algunas culturas de India y China valoraban el entrenamiento de la mente
para concentrarse en el interior y adquirir conocimientos directos fusionándose
con el objeto a estudiar. A través de la meditación, los videntes de India tuvieron
la visión de que atman, el Yo esencial, era idéntico al universo, que a su vez era
idéntico a Brahmán, la inefable entidad omnipresente de la que procedía. Esta
visión mística es muy similar a la de los primeros taoístas y a la de los
posteriores videntes de otros países. Es importante distinguir, sin embargo, entre
la esencia de estas visiones comunes y las interpretaciones culturalmente
sesgadas que realizaron los discípulos, que a menudo mostraban una falta de
comprensión de los fenómenos naturales o eran un reflejo de una necesidad
social o política.

El test de las evidencias y del razonamiento

Carecemos de evidencias que validen científicamente los mitos sobre el


origen y las explicaciones que podamos hacer de ellos. Poseemos, sin embargo,
evidencias suficientes para refutar la verdad literal de la mayoría de estos mitos,
incluyendo los que declaraban haber sido revelados por un Dios externo y
trascendente.
La comprensión limitada, o incluso falsa, de los fenómenos naturales,
sumada a necesidades culturales y políticas y a las interpretaciones culturalmente
sesgadas de las visiones místicas podrían ser explicaciones más prosaicas que las
ofrecidas por muchos mitólogos, etnólogos, psicólogos y otros eruditos, aunque
no puedo citar evidencias conclusivas que apoyen esto. Sin embargo, ellos tienen
la ventaja de mostrarse de acuerdo con estos hechos, como bien sabemos, y han
llegado a dicho acuerdo aplicando la navaja de Ockham o, lo que es lo mismo, la
regla científica de la parsimonia: son la explicación más sencilla.
Los relatos sobre el origen que sustentan su reivindicación de veracidad no
en las evidencias materiales, ni en la racionalidad ni en la revelación por parte de
un Dios trascendente, sino en la visión mística, no pueden ser ni validados ni
refutados por la ciencia ni por el razonamiento. Volveré a tratar con mayor
profundidad la visión mística cuando hable sobre el desarrollo del pensamiento
filosófico. Sin embargo, desde una perspectiva puramente científica y racional,
la mayoría de mitos entra dentro de la categoría de superstición, que definiré
como

Superstición: creencia que entra en conflicto con las evidencias o para la


que no existe una base racional y que surge normalmente como
consecuencia de una falta de entendimiento de los fenómenos naturales o
del miedo a lo desconocido.

El porqué de su supervivencia

Una explicación del porqué los mitos sobre la creación sobreviven incluso en
culturas científicamente avanzadas como la nuestra la encontramos en que la
ciencia solo examina el mundo físico, pero existe una realidad principal que
trasciende ese mundo físico; todos los mitos sobre la creación expresan esta
realidad principal en términos —a menudo antropomórficos— que son un reflejo
de las distintas culturas.
Y a pesar de que esto podría ser cierto en muchos casos, hay demasiados
mitos que son mutuamente contradictorios con esta propuesta para que podamos
considerarla válida en términos generales. Una explicación más simple es que la
supervivencia de estas creencias no es el testimonio de su veracidad, sino más
bien el poder de inculcación que han tenido doscientas generaciones de
sociedades humanas en el transcurso de más de cinco mil años.

Influencia sobre el pensamiento científico

La supervivencia de estos mitos no solo resistió la primera revolución


científica, sino que los arquitectos de esa revolución jugaron su papel al
descubrir las leyes por las que el Dios judeo-cristiano gobernaba el universo que
había creado. Isaac Newton, el consumador de esa revolución, creía que el
universo «solo podía provenir del asesoramiento y el dominio de un ser
inteligente y poderoso».[24]
Los mitos sobrevivieron también a la segunda revolución científica, que se
inició a mediados del siglo XIX con los argumentos de Darwin a favor de la
evolución biológica y que culminó en el primer tercio del siglo XX con la
transformación que supusieron para la física las teorías de la relatividad y de la
mecánica cuántica. Darwin abandonó sus creencias cristianas y acabó su vida en
el agnosticismo,[25] pero Albert Einstein, el creador de las teorías de la
relatividad especial y de la relatividad general, compartía con Newton la
creencia de que el universo había sido creado por una inteligencia suprema,
aunque negaba la intervención de ese Dios en los asuntos humanos.[26]
Muchos pioneros de la teoría cuántica abrazaron la creencia de que la materia
no existe de manera independiente sino solo como una construcción de la mente.
Erwin Schödinger, por ejemplo, estuvo toda la vida fascinado por la visión de las
Upanishad de que todo, incluido el universo, proviene de la conciencia de
Brahmán, la realidad definitiva que existe fuera del espacio y del tiempo;[27]
hasta qué punto influyo esto en su trabajo es una pregunta que permanece
abierta. Lo que sí es evidente es que el pensamiento científico de David Bohm
estuvo influido por esta creencia. [28]
Hoy en día, una minoría de científicos profesa públicamente su fe religiosa.
Entre ellos destacan John D. Barrow, cosmólogo y miembro de la Iglesia unida
reformada de Cristo Emanuel; Francis Collins, antiguo director del Proyecto del
genoma humano y cristiano evangélico, que ve el «ADN, la molécula de
información de todas las cosas vivas, como el lenguaje de Dios, y la elegancia y
la complejidad de nuestro cuerpo y del resto de la naturaleza como un reflejo del
plan de Dios»[29] y Ahmed Zewail, musulmán y Premio Nobel de Química en
1989. En general, estos científicos sostienen que la ciencia y la fe religiosa
operan en terrenos distintos, aunque algunos, como John Polkinghorne, físico
teórico y sacerdote anglicano, promueven activamente el debate sobre la
intersección entre ciencia y teología.
Alejándose del mito, la ciencia nos ofrece una comprensión más clara del
origen del universo y, a partir de ahí, de la materia y la energía a partir de las
cuales evolucionamos. ¿O no?
[1]1 El día que los científicos de la NASA anunciaron que los datos de la sonda espacial Wilkinson
Microwave Anisotropy Probe (WMAP), habían confirmado el modelo del Big Bang y les habían per mitido
determinar la edad del universo con un uno por ciento de margen de error, una exactitud sin precedentes. El
21 de marzo de 2013, científicos de la Agencia Espacial Europea anunciaron que los datos de su telescopio
espacial Planck indicaban que dicha edad debía ser revisada y establecerse en 13,82 miles de millones de
años.
[2]2 Véase el glosario, al final del libro, para una explicación más detallada de estos términos.
[3]Para las traducciones, he utilizado The Rig Veda (1896) y The Upanishads (1987).
[4]Para la mayoría de mitos resumidos en este capítulo, he recurrido a Sproul (1991) y Long, Charles
H., «Creation Myth», Encyclopædia Britannica Online, 2014.
[5]Graves (1955), p. 27.
[6]Sproul (1991), pp. 19-20.
[7]Véase Kak, Subhash C., «Archaeoastronomy and Literature», Current Science, 73: 7, 1997, pp. 624-
627 como ejemplo de un grupo pequeño pero creciente de académicos indios que desafían lo que
consideran la interpretación colonial de la historia y la cultura indias enraizada en la intelectualidad
victoriana.
[8]Finkelstein y Silberman (2001).
[9]The Revised English Bible (1989), Génesis 1:1.
[10]The Holy Qur’an (1938), Sura 7:54 y Sura 41:9–12.
[11]Buda (1997).
[12]Según una encuesta llevada a cabo el 21 y 22 de abril de 2005 por Rasmussen Reports.
[13]Las ramas místicas y más modernas del islam están hoy en día marginadas, véase Ahmed (2007).
[14] Ussher (1581-1656) era arzobispo de Armagh, Irlanda, por lo que se supone que la hora
corresponde con la del meridiano de Greenwich.
[15]Los cálculos de Ussher aparecen en Gorst (2001). Para apoyos contemporáneos véase, por ejemplo,
la Creation Science Association y su página web http://www.csama.org/.
[16]Véase, por ejemplo, Kitcher (1982); Futuyma (1983).
[17]Sproul (1991), p. 17.
[18]Ibíd, p. 6.
[19]Ibíd, p. 4.
[20]Ibíd, p. 10.
[21]Ibíd, p. 29.
[22]Reanney (1995), p. 99.
[23]Finkelstein y Silberman, (2001).
[24]Citado en Snobelen, Stephen D., «God of Gods and Lord of Lords: The Theology of Isaac
Newton’s General Scholium to the Principia», Osiris, 16, 2001, pp.169-208.
[25]Véase el apéndice cuando trata sobre sus creencias religiosas en Darwin, Charles (1929).
[26]Einstein (1949).
[27]Schrödinger (1964).
[28]Véase Krishnamurti y Bohm (1985), (1986), (1999).
[29]http://www.cnn.com/2007/US/04/03/collins.commentary/index.html, consultado el 6 de febrero de
2008.
CAPÍTULO 3. EL ORIGEN DE LA MATERIA: LA
TEORÍA ORTODOXA DE LA CIENCIA

A mí, esa teoría del Big Bang siempre me pareció insatisfactoria.

FRED HOYLE, 1950

[El Big Bang] es un testimonio de aquel fiat lux primordial.

PAPA PÍO XII, 1951

Somos materia. Podríamos ser algo más que materia. Podríamos ser
manifestaciones de una conciencia cósmica, como defienden las visiones
místicas, o simulaciones tridimensionales generadas por un ordenador súper
inteligente, como propone una conjetura filosófica. Pero el objetivo de este
estudio es establecer lo que sabemos en la actualidad, o lo que podemos deducir
de un modo razonable, a partir de la experimentación y la observación del
mundo que percibimos: es decir, lo que la ciencia nos cuenta sobre qué somos y
de dónde venimos.
El punto de partida, por lo tanto, es lo que conocemos sobre el origen de la
materia a partir de la ciencia, y la teoría ortodoxa actual de la ciencia es que la
materia y la energía tienen su origen en el Big Bang que se produjo hace 13,8
miles de millones de años.
Me gustaría destacar la palabra «actual» porque tanto los medios de
comunicación como los libros científicos más populares presentan las teorías
científicas, e incluso las conjeturas, como si fueran hechos indiscutibles. Las
teorías científicas cambian. Para dejar claro este hecho, describiré la teoría
imperante en la primera parte del siglo XX, explicaré por qué y cómo cambió
para dar lugar al modelo del Big Bang, examinaré los problemas que presenta el
modelo y consideraré las soluciones que proponen los cosmólogos actuales para
hacer frente a dichos problemas.

Primera mitad del siglo xx

De haber escrito este libro en 1928, habría dicho que la teoría ortodoxa actual
de la ciencia es que el universo es eterno e invariable.
Era una teoría tan establecida que Einstein cometió lo que posteriormente
reconoció como el mayor error de su vida. En 1915 presentó su Teoría general de
la relatividad, que incorporaba la gravedad en su descripción de toda la materia y
las fuerzas conocidas. Sin embargo, cuando la aplicó al universo como un todo,
descubrió que predecía un universo cambiante —la fuerza de la gravedad
provocaba el efecto de unir toda la materia del universo—, razón por la cual dos
años después introdujo una constante arbitraria, Lambda (Λ), en sus ecuaciones
de campo. Realizando los ajustes necesarios al nivel de Lambda, consiguió que
ese término adicional de las ecuaciones equilibrara exactamente la fuerza de la
gravedad, produciendo, en consecuencia, un universo estático.
Durante los quince años siguientes, todos los teóricos físicos aceptaron la
propuesta porque estaba respaldada por la evidencia: las estrellas se movían muy
poco. El concepto de universo estático siguió imponiéndose incluso después de
que el astrónomo Edwin Hubble demostrara en 1924 que en la única galaxia
conocida por aquel entonces —la Vía Láctea— había manchas difusas de luz
que no eran nubes de gas, sino galaxias de estrellas muy lejanas.
Entre 1929 y 1931, sin embargo, Hubble demostró que en la luz emitida
desde esas galaxias remotas había un desplazamiento al rojo, y que ese
desplazamiento al rojo aumentaba cuanto más lejos estaban de nosotros. La luz
roja consiste en una mezcla de colores que se revela cuando un prisma se
descompone en un espectro de longitudes de onda, siendo las longitudes de onda
más cortas de color azul y las longitudes de onda más largas de color rojo.
Cuando una fuente de luz se aleja del observador, su longitud de onda aumenta y
se desplaza hacia el extremo rojo del espectro. Las observaciones de Hubble
fueron interpretadas como un signo de que las galaxias se alejan de nosotros y
que cuánto más lejos están, a mayor velocidad se mueven.
No fue hasta entonces que los teóricos físicos se tomaron en serio el trabajo
de aquellos que habían producido soluciones distintas a las ecuaciones de campo
de la relatividad general de Einstein y que daban como resultado un universo en
expansión. Uno de ellos fue el jesuita y científico belga Georges Lemaître, que
en 1927 incorporó los datos de Hubble a sus propias ideas y planteó la expansión
del universo con carácter retrospectivo para obtener su hipótesis del átomo
primitivo. La hipótesis defendía que en el tiempo cero, todo lo que contiene el
universo —toda la luz y todas las galaxias, estrellas y planetas— estaba
comprimido en un único átomo súper denso que explotó y formó un universo en
expansión.
En 1948, el astrónomo Fred Hoyle se refirió en tono despectivo a esta
hipótesis como el Big Bang después de haber desarrollado, junto a Thomas Gold
y Herman Bondi, la teoría del estado estacionario. Según esta hipótesis, el
universo está en expansión pero no a partir de un punto, sino que la materia se
crea continuamente en el espacio en expansión y produce una densidad uniforme
en un universo infinitamente grande.
Durante la década posterior a la Segunda Guerra Mundial, varios teóricos
físicos volcaron su atención hacia el rompecabezas de la cosmogénesis, o cómo
se inició el universo. Enrico Fermi, Edward Teller, Maria Mayer, Rudolf Peierls,
George Gamow, Ralph Alpher y Robert Herman estuvieron entre los que
examinaron la idea del Big Bang.
Gamow, Alpher y Herman intentaron averiguar de qué modo pudieron
crearse todos los tipos de átomos que vemos hoy en día en el universo a partir
del plasma increíblemente pequeño, denso y caliente de protones, neutrones,
electrones y fotones de la hipótesis.[1] Demostraron que los núcleos de helio y
los isótopos[2] de hidrógeno estarían producidos por la combinación de protones
y neutrones en los tres primeros minutos posteriores al Big Bang, puesto que
aquel plasma se expandió y se enfrió a una temperatura inferior a mil millones
grados Kelvin.[3] El cálculo de Alpher y Herman sobre la proporción de
hidrógeno y helio producido de esta manera encaja aproximadamente con el que
se observa en el universo, lo que viene a sustentar la hipótesis del Big Bang pero
ni ellos ni nadie, debido a la inestabilidad de los núcleos formados por una
combinación de cinco u ocho protones y neutrones, fue capaz de demostrar
cómo debieron crearse los elementos más pesados. Todo ello sembró dudas
sobre el Big Bang, y Fermi y sus colegas lo dejaron como un modelo de
cosmogénesis.[4]
Según el relato ortodoxo, Gamow y Alpher calcularon que, después de
trescientos mil años de expansión a partir del Big Bang, el plasma se enfrió hasta
alcanzar una temperatura de 4.000 K,[5] momento en el cual los electrones con
carga negativa fueron capturados por los núcleos atómicos con carga positiva
para formar moléculas de hidrógeno diatómicas estables y eléctricamente
neutras, sus isótopos, y átomos de helio. Los fotones —partículas de radiación
electromagnética con carga neutra— dejaron entonces de estar vinculados al
plasma y se separaron para viajar libremente por el espacio en expansión. Con
ello, se enfriaron y su longitud de onda se incrementó. Cuando el universo
alcanzó su tamaño actual, esa longitud de onda se situó en la región de las
microondas y llenó todo el espacio, produciendo un fondo cósmico de
microondas. En 1948, esos científicos estimaron que la temperatura de este
fondo cósmico de microondas era aproximadamente de 5 K. En 1952, Gamow
estimó que la temperatura se situaba alrededor de 50 K.[6]
Entretanto, Fred Hoyle y sus colegas demostraron que los elementos más
pesados podían ser producto de una fusión nuclear en el interior de las estrellas.
Esta obra de la postguerra, por lo tanto, dejo la teoría del estado estacionario
y el Big Bang como dos hipótesis en competencia para explicar el origen del
universo: la primera sostenía que el universo era eterno y que, en consecuencia,
no había principio, mientras que la segunda defendía que el universo empezó
como una explosión de luz y plasma a partir de un punto.
Sin esperar las evidencias que la comunidad científica necesitaba y, de este
modo, poder elegir entre las dos, la iglesia católica romana emitió su veredicto.
En 1951, el papa Pío XII dijo a la Pontificia Academia de las Ciencias que el Big
Bang era un testimonio del relato de la creación plasmado en el Génesis, cuando
Dios dijo que se hizo la luz. La alacridad con la que la Iglesia respondió a esta
hipótesis científica contrasta con los doscientos años que fueron necesarios para
que aceptase que Galileo tenía razón cuando sus observaciones sustentaron la
teoría de Copérnico de que la Tierra no es el centro del universo, sino que la
Tierra y los demás planetas orbitan alrededor del sol.
A diferencia de la iglesia católica, la comunidad científica siguió dividida
entre los seguidores del Big Bang y los de la teoría del estado estacionario hasta
1965, momento en el cual, según la versión ortodoxa de la historia, un
descubrimiento casual produjo las evidencias decisivas.
Los astrónomos Arno Penzias y Robert Woodrow Wilson no conseguían
eliminar el «ruido» de fondo que llegaba desde todas las regiones del
firmamento cuando las observaban a través de su radiotelescopio en los Bell
Laboratories de Nueva Jersey. Pidieron consejo a Robert Dicke, de Princeton,
que, sin que ellos estuvieran al corriente, llevaba tiempo intentando encontrar la
radiación de fondo cósmico de microondas predicha por Gamow. Dicke se dio
cuenta entonces de que este «ruido» uniforme en la región de las microondas era
esta radiación que se había enfriado a una temperatura de 2,7 K.[7]
Rara vez, si alguna, se comenta que Geoffrey Burbridge, profesor de
astrofísica de la Universidad de California, afirmó que este relato ortodoxo está
distorsionado. Según él, la elección de parámetros que Alpher y Herman
realizaron para sus ecuaciones fue lo que hizo que la proporción entre hidrógeno
y los demás elementos ligeros que presentaron se correspondiera
aproximadamente a la proporción observada. Más aún, señaló que el descubridor
de la radiación de fondo cósmico de microondas fue Andrew McKellas, que
estimó además su temperatura entre 1,8 y 3,4 K, y que publicó dichos
descubrimientos en 1941; alegó que Gamow conocía como mínimo estos
resultados y que, por lo tanto, no predijo la radiación de fondo cósmico de
microondas que las observaciones posteriores confirmaron.[8]
Sin embargo, el relato ortodoxo prevaleció y Penzias y Wilson recibieron un
Premio Nobel por su descubrimiento. La inmensa mayoría de la comunidad
científica adoptó el Big Bang como modelo para el origen del universo y los que
no se mostraron de acuerdo con él lo pasaron realmente mal. Según John
Maddox, la continuada adhesión de Hoyle a la teoría del estado estacionario «lo
condenó al ostracismo de sus colegas académicos y a la renuncia sin precedentes
de su puesto como profesor en Cambridge».[9]
Probablemente, este último hecho fue una consecuencia de las duras críticas
de Hoyle a las evidencias contra la teoría del estado estacionario que presentó su
colega académico en Cambridge, Martin Ryle, y que acabaron con la enemistad
entre los dos. Y mientras que Hoyle jamás consiguió un nuevo puesto
académico, Ryle acabó convirtiéndose en Astrónomo Real de Gran Bretaña y
siendo galardonado con un Premio Nobel. De manera inexplicable, el Premio
Nobel de 1983, concedido por el trabajo sobre la nucleosíntesis estelar, fue
otorgado únicamente a William Fowler e ignoró tanto a Hoyle como a Geoffrey
y Margaret Burbidge, los otros tres autores del trascendental documento de 1957
que describe en detalle cómo se forman en el interior de las estrellas todos los
elementos naturales distintos al hidrógeno y el helio. Fowler reconoció
libremente que Hoyle fue el primero en establecer el concepto de nucleosíntesis
estelar y que se había incorporado a Cambridge con una beca Fullbright con el
único fin de trabajar con Hoyle.[10]
El relato ortodoxo ejemplifica el método científico según el cual una teoría
consolidada —el universo eterno— queda descartada cuando nuevos datos
confirman predicciones realizadas por una hipótesis distinta —el Bing Bang—,
que pasa entonces a convertirse en la teoría ortodoxa. En el trato recibido por
Hoyle, ejemplifica también el comportamiento de la clase dirigente científica
hacia aquellos que se muestran disconformes con la ortodoxia.
Desde mediados de la década de los sesenta del siglo pasado, el modelo del
Big Bang se ha mantenido con la misma convicción que mantenía la teoría del
universo eterno e invariable en 1928. ¿Pero siguen las evidencias validando este
modelo y, en caso contrario, como ha respondido la comunidad científica?

La teoría actual: el Big Bang

Para ver si el modelo del Big Bang ofrece una explicación satisfactoria del
origen del universo, debemos examinar su base teórica.

Base teórica

A diferencia del método científico[11] comúnmente aceptado, la teoría del


Big Bang no derivó de la observación sino que surgió a partir de soluciones a las
ecuaciones de la teoría general de la relatividad de Einstein, una de las cuales fue
seleccionada por ser la que mejor encajaba con las observaciones.
La visión de Einstein produjo leyes del movimiento que no dependen de que
el observador se mueva de un modo particular en relación con lo que está
observando. Einstein asumió que la velocidad de la luz (c) es constante, que es la
misma para todos los observadores en cualquier momento y en todas las partes
del universo, y que no hay nada que pueda viajar más rápido. Su teoría de la
relatividad especial de 1905 aporta la idea de que espacio y tiempo son
independientes y absolutos: ofrece una matriz espacio-tiempo de cuatro
dimensiones en la que el espacio o el tiempo podrían expandirse o contraerse
dependiendo del movimiento del observador, pero el espacio-tiempo es igual
para todo el mundo.
Una consecuencia de la teoría de la relatividad especial es que la masa (m) y
la energía (E) son equivalentes, lo que queda reflejado en la famosa ecuación E
= mc2.
Cuando Einstein incorporó la gravedad a estas leyes del movimiento para
producir una teoría general de la relatividad, su visión era que la gravedad no es
una fuerza que actúa instantáneamente entre masas, según definía la ley de
Newton, sino que es una distorsión en el tejido espacio-tiempo provocada por la
masa y que, cuánto más grande sea la masa, mayor será la distorsión. Estas
distorsiones dictan entonces el movimiento de otras masas en el espacio-tiempo.
Para parafrasear a John Archibald Wheeler, la materia le dice al espacio-tiempo
cómo debe curvarse y el espacio-tiempo le dice a la materia cómo debe moverse.
Para producir una ecuación que cuantificara este concepto y permitiera
realizar predicciones, Einstein utilizó una rama complicada de las matemáticas,
conocida como geometría diferencial, que se ocupa de las superficies curvas.
Llegó de este modo a lo que hoy en día se conoce como las ecuaciones de campo
de Einstein. Se utiliza el plural porque la ecuación única contiene tensores[12]
que tienen diez posibilidades lo que genera, a todos los efectos, diez ecuaciones.
Las muchísimas soluciones posibles a estas ecuaciones producen muchos
universos teóricos y el reto consistía en descubrir la solución que mejor encajara
con los datos observacionales.
Resolver estas ecuaciones es extremadamente difícil. Los intentos fueron
liderados por cuatro hombres. Además de Einstein y Lemaître, los otros dos
fueron el astrónomo holandés Willem de Sitter y el meteorólogo ruso Alexander
Friedmann.

Simplificación de supuestos: isotropía y omnicentrismo

Todos ellos realizaron dos supuestos con fines de simplificación: en cualquier


momento dado, el universo es el mismo independientemente de la dirección
hacia la que miremos (es isotrópico) y esto sigue siendo cierto si observamos el
universo desde cualquier otra parte (es omnicéntrico). Estos dos supuestos
implican necesariamente que el universo es el mismo en todos sus puntos (es
homogéneo).[13]
Evidentemente, el supuesto isotrópico no es totalmente válido: las estrellas
de nuestra galaxia forman una banda perceptible de luz en el cielo nocturno, lo
que conocemos como la Vía Láctea. Pero los supuestos se hicieron por tres
motivos: (a) la intuición de que era una buena aproximación a la escala del
universo; (b) la creencia de que no ocupamos un lugar especial, o privilegiado,
en el universo, del mismo modo que Copérnico demostró que no ocupamos un
lugar único en el sistema solar; y (c) la conveniencia matemática, puesto que
reduce drásticamente el número de posibles geometrías, o espacios-tiempo, que
describen la forma del universo pues, si la materia produce curvatura y si el
universo es homogéneo, la curvatura del universo es la misma en todas partes.
Friedman demostró que una consecuencia de estos supuestos es que el
universo solo puede tener tres geometrías: cerrada (esférica), abierta
(hiperbólica) o plana, cada una de las cuales cambia con el tiempo según el
factor de escala, o expansión, del universo. Según las ecuaciones de campo de
Einstein, es la materia lo que curva la totalidad —geometría tridimensional más
el factor de escala función del tiempo— que define el espacio-tiempo.
Estas matrices matemáticas cambiantes de cuatro dimensiones son difíciles
de visualizar. La figura 3.2 ofrece solo representaciones bidimensionales de los
espacios tridimensionales que cambian con el tiempo.

Friedman demostró que los universos con estas tres posibles geometrías
tenían tres destinos distintos. El universo cerrado (o esférico) se expande a partir
de un Big Bang, pero el efecto gravitacional de su materia es lo bastante fuerte
como para ralentizar, detener y cambiar el sentido de la expansión hasta que el
universo en contracción termina en un Big Crunch, o gran implosión. El
universo abierto (o hiperbólico) se expande a partir de un Big Bang, pero el
efecto gravitacional de su materia es demasiado débil para detener esta
expansión, que continúa indefinidamente a un ritmo regular hasta que sus
elementos dejan de tener contacto entre ellos, lo que conduce a un universo
vacío. El universo plano se expande a partir de un Big Bang, pero el efecto
gravitacional que une su materia equilibra exactamente la energía cinética de la
expansión, lo que da como resultado que el ritmo de la expansión disminuya
pero no lo bastante como para detenerla, de modo que el universo se expande
eternamente a un ritmo de expansión continuamente más lento.
Como consecuencia de los supuestos de simplificación, tanto el universo
plano como el abierto son necesariamente infinitos en su extensión: si llegaran a
un límite definido, entrarían en contradicción con el supuesto de que el universo
se ve igual desde todos los puntos. Pero esto no aplica para un universo esférico:
una esfera perfecta tiene el mismo aspecto desde todos los puntos de su
superficie.
A diferencia de Einstein, Friedman no incorporó una constante arbitraria
Lambda para conseguir el resultado deseado. En su modelo matemático, la
fuerza de la gravedad de la materia en relación con la energía cinética de la
expansión se expresa como el parámetro de densidad crítica Omega (Ω). En un
universo cerrado, Omega es mayor que 1; en un universo abierto, Omega es
menor que 1; en un universo plano, Omega es igual a 1.
Después de que Hubble publicara sus datos, la mayoría de científicos llegó a
la conclusión de que lo que más encajaba con las observaciones era un universo
plano iniciado a partir de un Big Bang muy caliente, razón por la cual el modelo
Friedmann-Lemaître pasó a ser el modelo ortodoxo.[14]
Una geometría cerrada es el análogo tridimensional de la superficie de una
esfera: en esta geometría, la suma de los ángulos de un triángulo es superior a
180º y la circunferencia de un círculo es inferior a π veces su diámetro. Una
geometría abierta es el análogo de una superficie hiperbólica, o en forma de silla
de montar: en este caso, la suma de los ángulos de un triángulo es inferior a 180º
y la circunferencia de un círculo es superior a π veces su diámetro. Una
geometría plana es la geometría euclidiana que conocemos: la suma de los
ángulos de un triángulo es igual a 180º y la circunferencia de un círculo es
exactamente π veces su diámetro. Las distintas geometrías espaciales cambian
con el tiempo según el factor de escala, o de expansión, del universo. Sin
embargo, si introducimos una constante cosmológica distinta a cero, podrá
producirse cualquier tipo de geometría con cualquier tipo de evolución en el
tiempo.
Problemas de la teoría del Big Bang

El universo como sujeto de la investigación científica dejó de ser dominio


exclusivo de la astronomía observacional y teórica. Surgió entonces una nueva
ciencia de la cosmología, que definiré como

Cosmología: el estudio del origen, la naturaleza y la estructura a gran


escala del universo físico, que incluye la distribución y la interrelación de
todas las galaxias, cúmulos de galaxias y objetos cuasi-estelares.

La teoría de la relatividad había jugado un papel crucial en la investigación


del universo como un todo en comparación con la astronomía, que
tradicionalmente había puesto su foco en las estrellas y las galaxias. En la
actualidad se utiliza la física de partículas, la física de plasmas y la física
cuántica, tanto a nivel teórico como experimental, para examinar lo que sucedió
durante el Big Bang, e inmediatamente después del mismo, cuando el universo
era increíblemente minúsculo y caliente. Cuando los científicos aplicaron estas
disciplinas al modelo del Big Bang, se encontraron con cuatro problemas.
Sin constante cosmológica, una densidad de masa lo suficientemente elevada
como para cambiar el sentido de la expansión produciría un universo cerrado;
una densidad de masa baja sería insuficiente para cambiar el sentido de la
expansión, que seguiría a un ritmo constante y llevaría a un universo abierto; si
la densidad es igual a la densidad crítica tendría una geometría plana: se
expandirá eternamente, pero a un ritmo cada vez menor.
Monopolo magnético

Los físicos de partículas y de plasmas defienden la teoría de que la


temperatura extremadamente elevada y la energía del plasma inmediatamente
posteriores al Big Bang tendrían que haber creado monopolos magnéticos, que
son partículas con un único polo de carga magnética en vez de los habituales
dos.[15] Y utilizando la teoría de la relatividad, calcularon que el Big Bang
tendría que haber producido la cantidad suficiente de los mismos como para
generar un centenar de veces la densidad de energía observada del universo.[16]
En el universo no se ha detectado ni un solo monopolo magnético.

Homogeneidad

Los dos supuestos del modelo ortodoxo producen un universo que es


homogéneo, o completamente uniforme, mientras que todas las demás
soluciones a las ecuaciones de campo de Einstein sin estos supuestos, producen
universos irregulares.
Contrastando con este modelo, cuando observamos el universo vemos que no
es completamente uniforme. Tiene sistemas solares, cúmulos de galaxias y
supercúmulos, todos ellos separados por inmensos vacíos que contienen poca o
ninguna materia. La Tierra tiene una densidad unas 1030 veces superior a la de
la media del universo, el aire que respiramos tiene una densidad 1026 veces
superior, la densidad media de nuestra galaxia, la Vía Láctea, es 106 veces
superior, nuestro grupo de galaxias tiene una densidad media doscientas veces
superior, mientras que los vacíos entre los supercúmulos tienen normalmente una
anchura de ciento cincuenta años luz.[17]
Si el universo fuese perfectamente homogéneo, no estaríamos aquí para
observarlo.
Sin embargo, los cosmólogos piensan que en una escala del tamaño del
universo, el alejamiento de la homogeneidad es solo de una cienmilésima parte.
El modelo del Big Bang no consigue explicar cómo y por qué el universo
debería estar tan extremadamente cerca de la homogeneidad perfecta, aunque sin
llegar a alcanzarla, y permitir aun así la formación de estructuras como nuestro
sistema solar, con planetas como la Tierra en la que el hombre ha evolucionado.

Isotropía del fondo cósmico de microondas (el problema del horizonte)

El modelo del Big Bang defiende que el fondo cósmico de microondas


(FCM) es la radiación que se escindió de la materia en estado de plasma unos
380.000 años (según las estimaciones revisadas) después del Big Bang, y que
perdió energía y que, a medida que el universo fue expandiéndose, se enfrió
hasta alcanzar su temperatura actual de 2.73 K.
Los detectores de los satélites Cosmic Background Explorer (COBE) y
Wilkinson Microwave Anisotropy Probe (WMAP) demostraron que esta
temperatura es prácticamente isotrópica, es decir, que es la misma en todas
direcciones. Para alcanzar esta temperatura casi uniforme, todas las partículas de
radiación (fotones) deberían haberse combinado a través de colisiones repetidas
justo después de escindirse del plasma.
La teoría de la relatividad afirma que nada puede viajar más rápido que la
velocidad de la luz. De ahí que, para poder combinarse, la distancia de
separación entre los fotones no debería ser mayor a la que se puede viajar a la
velocidad de la luz. Esta distancia se conoce como el horizonte de contacto del
fotón.
Sin embargo, el modelo del Big Bang afirma que el ritmo de expansión del
universo se ralentizó. En consecuencia, en un universo mucho más joven, el
horizonte de contacto de un fotón era muy inferior al que pueda ser ahora. De ahí
que habría sido imposible que todos los fotones estuvieran en contacto entre sí
justo después de escindirse del plasma. Por lo tanto, la energía de los diversos
fotones debía de ser distinta y esto tendría que quedar patente en la actualidad
con distintas temperaturas del fondo cósmico de microondas medido en distintas
direcciones.
La teoría del Big Bang es incapaz de explicar este conflicto con pruebas
observacionales.

Planicidad (Omega)

Un universo plano es inestable por definición. Se sustenta mediante el


equilibrio precario entre la energía cinética de la expansión y la atracción de
fuerza gravitacional de su materia para producir Omega = 1. Pero los cálculos
matemáticos del modelo del Big Bang demostraron que Omega es
extremadamente sensible, sobre todo en el universo primitivo. Las desviaciones
ínfimas de la unidad, en un sentido u otro, pueden magnificarse muy
rápidamente, inclinando el universo hacia una configuración cerrada o abierta.
Dicke calculó que cuando el universo tenía un segundo de antigüedad, el valor
de Omega debió de situarse entre 0,99999999999999999 y
1,00000000000000001, es decir, una sensibilidad de ± 1-17. Si Omega se
hubiera desviado de 1 por una cantidad superior a esta cifra, el universo habría
colapsado en un Big Crunch o se habría expandido hacia el vacío mucho antes
de que pudieran formarse los sistemas solares y los planetas, y nosotros no
estaríamos aquí para hacer especulaciones sobre el Big Bang.
La mayoría de cosmólogos deduce, a partir de bases teóricas más que de la
observación, que el universo se ha estado expandiendo desde que tenía 10-43
segundos de vida[18] (por ninguna otra razón que la teoría cuántica[19] se
desmorona con un tiempo inferior). De ser así, el valor de Omega no podría
diferenciarse de la unidad por más de 10-64, una sensibilidad que resulta
inconcebible.[20]
Pero Omega no podía ser exactamente igual a uno desde un buen principio;
de ser este el caso, el universo jamás se habría expandido.
El modelo del Big Bang no consigue explicar cómo o por qué el valor de
Omega tiene que situarse tan increíblemente cerca de uno, aunque no ser igual a
uno, para permitir que el universo se expanda establemente.
Existe un quinto problema, más fundamental si cabe, que la inmensa mayoría
de cosmólogos no aborda. Consideraré este esqueleto encerrado en el armario en
el siguiente capítulo, cuando examine lo que el modelo revisado no consigue
explicar.

La solución de la teoría de la inflación

Hay una idea que afirma solucionar estos primeros cuatro problemas de un
solo plumazo.
A quién se le ocurrió la idea fue, y sigue siendo, tema de debate. Alan Guth,
del Massachusetts Institute of Technology, declara «Protagonicé el debut oficial
de la inflación en el seminario que impartí en SLAC el 23 de enero de 1989».
[21] El ruso Andrei Linde, que trabaja actualmente en la Universidad de
Stanford, California, reivindica que Alexei Starobinsky, David Kirzhnits y él
desarrollaron los conceptos esenciales de la inflación en la antigua Unión
Soviética antes de esa fecha.[22]
Según la versión publicada por Guth en 1981, muy poco después de que se
produjera el Big Bang el universo sufrió una expansión enorme y casi
instantánea que lo infló billones de veces en lo que podría haber sido menos de
un billón de billones de billones de segundo. Para que este fenómeno fuera
posible, el universo estaba en un estado inestable tremendamente frío; esta
inflación decadente acabó deteniéndose y el inmenso universo inició la
expansión desacelerada que predice el modelo básico del Big Bang.[23]
Después de la inflación, el universo ha quedado convertido en algo tan
inmenso que solo alcanzamos a ver una mínima fracción del mismo. Y esta es la
razón por la cual, igual que sucede con un área minúscula en la superficie de un
globo gigantesco, nuestra parte tiene aspecto plano. Dicho de otra manera, la
inflación diluye de tal manera cualquier desequilibrio entre la energía explosiva
de la expansión y la energía de la fuerza de gravedad de la materia del Big Bang
que permite que el universo post-inflación experimente una expansión
desacelerada estable. En efecto, después de la inflación Omega queda igual a
uno y el universo no está destinado a sufrir una aceleración rápida hacia el vacío
ni una contracción veloz hacia el colapso: sigue el modelo matemático del
universo plano. Lo cual soluciona el problema de la planicidad.
La enorme expansión inflacionaria ha diluido también cualquier irregularidad
surgida a partir del Big Bang explosivo. Lo cual soluciona el problema de la
homogeneidad.
De un modo similar, todos esos monopolos magnéticos existen en algún
lugar del inmenso universo, pero nuestra región es tan increíblemente minúscula
que no contiene ninguno. Lo cual soluciona el problema de los monopolos
magnéticos.
El universo que somos capaces de ver actualmente, cuyas distancias más
lejanas están limitadas por la velocidad de la luz y la edad del universo, es solo
la región post-inflación expandida de lo que fue una parte increíblemente
minúscula del universo inflacionado. En esta parte increíblemente minúscula,
todos los fotones estuvieron en contacto y alcanzaron una temperatura uniforme.
Lo cual soluciona el problema del fondo cósmico de microondas.
La conjetura sobre la inflación de Guth, sin embargo, tenía un punto débil
que acabó resultando fatal. Su mecanismo para terminar con la expansión
exponencial desbocada y que permitía que el universo pudiera entonces iniciar
su expansión desacelerada según el modelo básico de universo plano de
Friedmann-Lemaître, producía en el universo grandes heterogeneidades que las
observaciones refutan. Guth la retiró después de un año.
Andreas Albrecht y Paul Steinhardt y, por otro lado, Linde, presentaron
versiones modificadas.
Pero según Linde, estas versiones tampoco funcionaban. Declaró que los
problemas de la conjetura de la inflación solo quedaron solventados cuando, en
1983, él concibió una nueva versión más sencilla en la que prescindía del súper
enfriamiento, de los efectos cuánticos de la gravedad e incluso del supuesto
habitual de que el universo era caliente en su origen; se basaba simplemente en
los campos escalares. Un campo escalar en un concepto matemático según el
cual todo punto del espacio está asociado a un escalar, una cantidad como la
masa, la longitud o la velocidad que queda totalmente especificada por su
magnitud.[24] Linde se limitó a asumir que el universo tenía todos los campos
escalares posibles, y que cada uno de ellos tenía todos los valores posibles. Este
supuesto otorgó a su modelo matemático infinitas posibilidades y produjo,
teóricamente, regiones del universo que continúan siendo pequeñas y otras que
se inflan de manera exponencial. Por su naturaleza arbitraria, lo denominó
«inflación caótica». Se convirtió en una versión popular de la inflación y desde
entonces se han propuesto muchas más versiones de la misma.[25]
La conjetura de la inflación no solventa el problema del esqueleto en el
armario —de hecho, agranda incluso más el tamaño del esqueleto—, pero los
cosmólogos se sintieron tan aliviados al ver que solucionaba los cuatro
problemas que habían identificado, que la aceptaron con entusiasmo. De hecho,
acordaron ponerle el título de Teoría de la inflación y el modelo Inflacionario del
Big Bang pasó a convertirse en la ortodoxia científica.

Validez de la teoría inflacionaria del Big Bang

Que esta ortodoxia cosmológica revisada ofrezca una explicación científica


al origen del universo depende de si tanto la teoría básica como el añadido
inflacionario son válidos en dos sentidos: (a) ¿es fiable la teoría? y (b) ¿está
sustentada por observaciones o experimentación?

Fiabilidad de la teoría básica

La teoría básica del Big Bang caliente consta de dos partes. La primera es la
solución a las teorías de campo de Einstein que asume que el universo es tanto
omnicéntrico como isotrópico (y, por lo tanto, homogéneo) y la elección de un
universo geométricamente plano. La segunda parte es el modelo estándar de la
física de partículas.
El supuesto omnicéntrico no es verificable. Incluso en el caso de que una
civilización avanzada de una galaxia remota nos hiciera llegar su visión del
universo, estaría tremendamente obsoleta cuando llegara a nosotros.
A pesar de que tanto el supuesto de isotropía como el supuesto de
homogeneidad no son totalmente válidos porque el universo está integrado por
sistemas solares, galaxias, grupos locales de galaxias, cúmulos de galaxias y
supercúmulos separados por gigantescos vacíos, los cosmólogos creen que estos
supuestos son válidos en la escala del universo. Sin embargo, cada vez que los
astrónomos han examinado secciones grandes a enormes distancias con
instrumentos cada vez más sofisticados, han descubierto estructuras tan grandes
como el tamaño de la región examinada. En 1989, Geller y Huchra identificaron
una estructura casi bidimensional de aproximadamente 650 millones de años luz
de longitud a la que apodaron la Gran Muralla. En 2005, Gott y sus colegas
detectaron la Gran Muralla Sloan, de más del doble de longitud que la primera,
1,3 miles de millones de años luz, a una distancia aproximada de nosotros de mil
millones de años luz. En 2013, Roger Clowes y sus colegas identificaron un
grupo de cuásares sin precedentes con una longitud de cuatro mil millones de
años luz a una distancia que se sitúa entre ocho y nueve mil millones de años
luz.[26] En 2014, István Horváth y sus colegas informaron de que en 2013
habían realizado el descubrimiento de un objeto que multiplicaba por seis el
tamaño de la Gran muralla Sloan, de una longitud de entre siete y diez mil
millones de años luz y a una distancia aproximada de diez mil millones de años
luz.[27] Los tamaños de estos objetos contradicen los supuestos de isotropía y
homogeneidad.
En cuanto a la elección de la geometría plana, no podemos verificar la
consecuencia de que el universo tiene un tamaño infinito.
Más aún, la idea de que el universo, espacio-tiempo incluido, cobra
existencia a partir de la nada gracias un Big Bang caliente partió de extrapolar la
expansión del universo al momento de tiempo cero. Pero la teoría cuántica se
desmorona en ese momento porque su Principio de la incertidumbre defiende
que no es posible especificar nada dentro de un periodo inferior a 10-43
segundos, lo que se conoce como tiempo de Planck.[28] Además, esta
extrapolación comprime el universo hasta un punto de densidad infinita donde la
curvatura del espacio-tiempo es infinita, lo que provoca el derrumbe de la teoría
de la relatividad.[29] Como dice Guth, «la extrapolación a temperaturas
arbitrariamente elevadas nos lleva mucho más allá de la física que
comprendemos, razón por la cual no existen motivos válidos para confiar en ella.
La verdadera historia del universo en “t = 0” sigue siendo un misterio».[30]
Una teoría que se basa en un misterio en el que las teorías que la sustentan se
desmoronan y, que se basa además en supuestos simplificadores, uno de los
cuales no puede verificarse mientras que los demás entran en contradicción con
las observaciones astronómicas, queda lejos de ser totalmente fiable.
La segunda parte de la teoría básica del Big Bang es el modelo estándar de la
física de partículas, que utiliza la teoría del campo cuántico para explicar cómo,
mediante un mecanismo denominado ruptura de simetría, se forman las
partículas subatómicas a partir de la energía liberada por el Big Bang.

Modelo estándar de la física de partículas: pretende explicar la


existencia de, y las interacciones entre, todas las cosas, excepto la
gravedad que observamos en el universo, en términos de partículas
elementales y sus movimientos. Actualmente describe diecisiete tipos de
partículas elementales, agrupadas en forma de cuarks, leptones o bosones.
Cuando se tienen en cuenta las correspondientes antipartículas y
variaciones de bosones, el total de partículas elementales asciende a
sesenta y una.

Según este modelo, distintos tipos de cuarks se combinan para crear los
protones y los neutrones (cuyas distintas combinaciones crean el núcleo de todos
los átomos). Las interacciones entre doce de estos tipos de partículas elementales
son los movimientos de cinco partículas elementales más, bosones que son
portadores de fuerza, como los gluones, que proporcionan la fuerza de unión a
los cuarks.[31]
El modelo ha predicho con éxito la existencia de partículas que
posteriormente han sido detectadas, directamente o por inferencia en el caso de
los cuarks, mediante experimentación u observación. Una predicción clave es la
existencia de una partícula conocida como el bosón de Higgs, esencial para
explicar por qué los dieciséis tipos de partículas elementales restantes, con la
excepción del fotón y el gluon, tienen masa. En 2012, dos experimentos llevados
a cabo con el Large Hadron Collider, o Gran Colisionador de Hadrones (LHC),
construido por el Centro Europeo para la Investigación Nuclear (CERN) en el
subsuelo de la frontera franco-suiza, identificó la muy efímera existencia del
bosón de Higgs, o posiblemente de una familia de bosones de Higgs, en cuyo
caso el modelo estándar necesitaría revisión.
Incluso en el caso de que solo se confirmara un único bosón de Higgs
después de que el LHC reabriera en 2015 con niveles de energía muy superiores,
seguiría habiendo problemas importantes. El modelo estándar contenía
diecinueve parámetros, que se revisaron después de 1998 a veintinueve para
permitir que los neutrinos tuvieran masa, algo que no había predicho el modelo.
Estos parámetros son constantes libremente ajustables cuyos valores deben
elegirse: desde un punto de vista matemático, la teoría resulta consistente
independientemente de los valores que se incorporen. Estas constantes
especifican las propiedades de la materia, como la carga de un electrón, la masa
de un protón y constantes de acoplamiento (números que determinan la fuerza de
las interacciones entre partículas). Las constantes se calculan experimentalmente
y luego se incorporan al modelo «a mano». Tal y como Guth reconoce «[según el
modelo estándar] las masas de la partícula W+ y del electrón surgen
esencialmente de la misma manera, de modo que el hecho de que la masa del
electrón sea 160.000 veces inferior se incorpora a la teoría amañando los
parámetros para que así suceda».[32] Una teoría de este estilo es, por naturaleza,
menos fiable que aquella cuyas predicciones queden posteriormente confirmadas
por la experimentación y la observación.
Cuando se tienen en cuenta las antipartículas correspondientes y las
variaciones en los bosones, el número de partículas elementales asciende a
sesenta y uno, [33] lo que parece un número importante para definirlas como
elementales o irreducibles. Además, el actual modelo estándar es necesariamente
incompleto porque no tiene en cuenta la gravedad. De hacerlo, se harían
necesarias más partículas elementales, como los gravitones.
La fiabilidad de la teoría básica del Big Bang depende también de su
correspondencia con la realidad. Los cosmólogos han adoptado la interpretación
que hizo Friedman para solucionar matemáticamente las ecuaciones de campo de
Einstein. Esta interpretación defiende que las estrellas (que posteriormente se
revisaron para pasar a ser galaxias y más adelante cúmulos galácticos) no se
mueven. Están incrustadas en el espacio y lo que se expande es el espacio entre
las galaxias. Puede que la lógica matemática que lo respalda sea correcta, pero
para muchos no-cosmólogos parece una interpretación jesuítica: en el mundo
real, si la distancia entre dos galaxias aumenta con el tiempo, las galaxias se
distancian durante ese tiempo. De hecho, los cosmólogos se refieren al
desplazamiento al rojo de una galaxia como la medida de la velocidad a la que
esa galaxia se aleja de la nuestra.

Necesidad de evidencias que sustenten la teoría básica

La inmensa mayoría de cosmólogos reivindica la existencia de tres


plataformas distintas de evidencias que sustentan con fuerza suficiente la teoría
básica del Big Bang: (a) los desplazamientos al rojo observados de galaxias que
demuestran que el universo está expandiéndose; (b) la existencia y la forma de
cuerpo negro del fondo cósmico de microondas; y (c) la abundancia relativa
observada de elementos ligeros.

Desplazamiento al rojo cosmológico

La interpretación del desplazamiento al rojo observado en los objetos


celestes como su movimiento de alejamiento de nosotros y la conclusión de que
cuánto más se alejan dichos objetos más rápido es su movimiento, dio lugar a la
constante de Hubble, la proporción entre velocidad de recesión y distancia. Su
cálculo es tremendamente complicado, por no decir, además, que calcular la
distancia es un reto gigantesco.[34] Pero con todo y con eso, los cosmólogos
ortodoxos asumieron que todos los desplazamientos al rojo de objetos que se
alejan de nuestro Grupo Local de galaxias se deben a la expansión del universo y
adoptaron el desplazamiento al rojo como una medida de distancia.
Diversos astrónomos de renombre han desafiado este supuesto y afirman que
las evidencias demuestran que muchos desplazamientos al rojo tienen un origen
distinto. Examinaré las distintas reivindicaciones en conflicto en el capítulo 6,
cuando trate sobre los problemas a los que se enfrenta la cosmología como
medio explicativo. Pero si su interpretación de los datos[35] es correcta, el
desplazamiento al rojo por sí mismo —y muy especialmente el desplazamiento
al rojo muy elevado sin evidencias de que surge del espectro de emisión o
absorción de luz estelar— no sería un indicador fiable ni de la distancia
cosmológica ni de la velocidad de recesión y, consecuentemente, de la edad. Lo
cual socavaría una de las tres plataformas claves de evidencias que soportan el
modelo del Big Bang de la cosmología ortodoxa.

Fondo cósmico de microondas

La temperatura de 2.73K del fondo cósmico de microondas (FCM) es


consistente con la radiación que se habría desprendido de la materia en las
primeras fases del Big Bang caliente y de su enfriamiento en su diseminación
por el universo en expansión. Además, dicha radiación tendría lo que se conoce
como un espectro de cuerpo negro de Planck. El satélite COBE, lanzado al
espacio en 1989, detectó este espectro, lo que aportó una base sólida al modelo
ortodoxo.[36]
Sin embargo, como veremos en el capítulo 6 cuando considere la
interpretación de los datos, los defensores de otros modelos cosmológicos
afirman también que la existencia y las características del FCM son consistentes
con sus hipótesis.

Abundancia relativa de los elementos ligeros

Gamow, Alpher y Herman demostraron que los núcleos de helio, deuterio y


litio podrían ser resultado de la fusión nuclear de protones y neutrones en el
plasma tremendamente caliente existente durante los dos primeros minutos
posteriores al Big Bang.[37] La abundancia relativa de estos elementos ligeros
antes de la expansión y el enfriamiento que provocaron el proceso de
nucleosíntesis debería permanecer básicamente invariable en el universo actual.
La predicción que hicieron Alpher y Herman de la proporción de
aproximadamente un 75 por ciento de hidrógeno y un 25 por ciento de helio por
masa es la misma proporción observada y se cita como evidencia convincente
del Big Bang.
Como se ha apuntado anteriormente, Burbridge declaró que el valor que
Alpher y Herman eligieron en sus ecuaciones para la proporción entre la
densidad de bariones (material normal, visible) y la radiación, se calculó
expresamente para que produjera la proporción entre hidrógeno y helio
observada entonces y que, en consecuencia, no era una predicción.[38]
Reconoció que el parámetro elegido también produce la proporción observada de
hidrógeno respecto a deuterio y que ello sustenta la hipótesis del Big Bang.
Sin embargo, en 2004, Michael Rowan-Robinson, entonces profesor de
Astrofísica del Imperial College de Londres y presidente de la Royal
Astronomical Society, destacó que las estimaciones más recientes presentadas
por Tytler y sus colegas sobre la abundancia de deuterio procedente de las líneas
de absorción de cuásares con un desplazamiento al rojo muy alto y situados en el
mismo campo visual, precisa una revisión de la estimación de la densidad
bariónica. El nuevo valor está sustentado por el análisis de las fluctuaciones del
fondo cósmico de microondas. Y coincide poco con la abundancia de helio.[39]
Todo esto sugiere que esta plataforma de evidencias del Big Bang podría no
ser tan sólida como la mayoría de cosmólogos afirma.
Una hipótesis alternativa planteada por Hoyle y Burbridge sostiene que todos
los elementos surgen a partir de la nucleosíntesis que se produce en el interior de
las estrellas. Para sustentarla, afirman que si la abundancia de helio que
conocemos se hubiera producido de esta manera a partir del hidrógeno, la
energía liberada cuando aumenta de temperatura generaría un espectro de cuerpo
negro como el del fondo cósmico de microondas a una temperatura de 2.76 K,
que coincide casi exactamente con la observada. Defienden que los demás
elementos ligeros podrían crearse bien a partir de la actividad de las llamaradas
que se producen en la superficie de muchas estrellas, como se sabe que sucede
con el sol y otros astros, bien a partir de la combustión incompleta del hidrógeno
en su interior.[40]

¿Objetos antiguos en galaxias jóvenes?

Astrónomos respetables afirman que las galaxias con desplazamientos al rojo


muy elevados, que según el modelo ortodoxo serían muy jóvenes, contienen
objetos muy antiguos, como estrellas rojas gigantes además de hierro y otros
metales. Como que las galaxias no pueden contener objetos más antiguos que
ellas mismas, los astrónomos defienden que la teoría ortodoxa del Big Bang es,
por lo tanto, errónea. Consideraré esta postura con mayor detalle cuando
examine la evolución de la materia en el universo en el capítulo 8.
De los cinco problemas mencionados previamente, tres presentan conflictos
menos controvertidos con las evidencias: la ausencia de monopolos magnéticos,
el alejamiento de la homogeneidad de solo una cienmilésima parte y la isotropía
del fondo cósmico de microondas. Fueron estas tres inconsistencias con las
evidencias, además del problema de planicidad del modelo del Big Bang, lo que
empujó a la mayoría de cosmólogos a aceptar la solución de la teoría de la
inflación como parte del modelo ortodoxo del universo. De ahí que se haga
necesario examinar la validez de esta incorporación a la teoría básica del Big
Bang.

Fiabilidad de la teoría de la inflación

Linde dice que «si el universo en el inicio de la inflación tenía un tamaño de


10-33 centímetros,[41] después de 10-35 segundos de inflación este campo
adquiere un tamaño increíble. Según algunos modelos inflacionarios, este
tamaño en centímetros puede ser equivalente a (1010)12», es decir,
101000000000000 centímetros.[42] Lo que pretende decir uno de los creadores
de la teoría de la inflación es que en cien mil millones de millones de millones
de millones de millonésimas de segundo, un universo con un supuesto diámetro
de mil millones de millones de millones de millones de millonésimas de
centímetro podría haberse expandido en un orden de magnitud de más de diez
miles de millones del universo que hoy observamos. Sería presuntuoso poner
reparos al calificativo «increíble» que propone Linde.
Pero que una conjetura sea increíble, sin embargo, no significa que sea
científicamente inválida. Aunque alcanzar un tamaño tan increíble en un espacio
de tiempo tan breve sí significa que el universo se expandió a una velocidad de
magnitudes muchísimo más elevadas que la velocidad de la luz. Los
inflacionistas sostienen que esto no viola la teoría de la relatividad. Apelando a
la interpretación de Friedmann, defienden que no fue la sustancia del universo lo
que viajó más rápido que la velocidad de la luz sino el espacio entre la sustancia,
y lo que prohíbe la teoría de la relatividad es que la sustancia y la información,
que no el espacio, viajen más rápido que la luz.
Una mayoría de inflacionistas sostiene actualmente la postura de que el Big
Bang caliente se produjo después de la inflación, es decir, que lo que sufrió la
inflación no fue sustancia —materia y radiación— sino solo una burbuja de
vacío que al finalizar la inflación se convirtió en energía y materia. Sin embargo,
los inflacionistas defienden también que el espacio o vacío que se expandió
posee una energía del estado fundamental, y como que energía y masa son
equivalentes, la masa-energía del espacio o vacío viajó a una magnitud
muchísimo más veloz que la luz, lo que entra en conflicto con la teoría de la
relatividad.
Cómo y cuándo se inició la supuesta inflación del universo sigue siendo una
pregunta sin respuesta. La versión que Guth planteó de entrada estaba basada en
teorías de gran unificación (TGU) de la física de partículas, y propone que la
inflación se inició unos 10-35 segundos después del Big Bang. Desde entonces,
los teóricos han desarrollado más de cien versiones distintas de la inflación
basadas en diversos mecanismos y que suelen incorporar algún tipo de campo
escalar al que genéricamente se refieren como campo de inflación; entre estas
teorías destacan la inflación caótica, doble, triple e hibrida, y la inflación que
utiliza la gravedad, el espín, los campos vectoriales y las branas de la teoría de
cuerdas.[43] Cada una de ellas plantea un distinto momento de inicio, un periodo
distinto de inflación exponencial más rápida que la velocidad de la luz y un
momento distinto de finalización, lo que produce una inmensa variedad de
tamaños del universo. Pero, con todo y con eso, cada versión defiende que su
periodo inflacionario termina con un universo con una densidad crítica altamente
improbable en la que Omega = 1, de modo que un universo plano experimenta
una expansión estable y desacelerada.
Si el Big Bang se produjo después de que el universo experimentara una
inflación, surgen las preguntas acerca de qué había antes de la inflación y por
qué, cómo y cuándo se inició la inflación. Pero es algo que no parece preocupar
a Guth: «la teoría inflacionista permite una amplia variedad de supuestos sobre
el estado del universo antes de la inflacion»,[44] y «Independientemente de lo
poco probable que sea que se iniciara la inflación, el crecimiento exponencial
externo puede fácilmente compensarlo».[45] Respuestas tan vagas no son
precisamente el sello distintivo de una teoría fiable.
Otra pregunta que suscitan estas teorías inflacionistas es la de qué es lo que
conduce a los distintos mecanismos a inflar de forma exponencial un universo
primigenio súper denso contra su inmenso campo gravitatorio, que cabría
esperar que se comprimiera en un agujero negro[46] del que nada podría escapar.
Para dar una respuesta, la mayoría de teóricos reintrodujo en sus ecuaciones la
constante arbitraria Lambda que Einstein descartó como un error. Al asignar a
esta constante arbitraria un valor positivo mucho mayor del que Einstein le
otorgó, fueron capaces de proporcionar a sus campos de inflación conceptuales
una enorme energía gravitatoria negativa (o repulsiva) que hace insignificante el
inmenso campo gravitatorio normal.
Y en cuanto a lo que Lambda es en la realidad física, para diferenciarlo de la
constante matemática arbitraria que proporciona a una ecuación la solución
deseada, consideraré los distintos puntos de vista en el capítulo 4 puesto que,
más de quince años después de la presentación de la hipótesis de la inflación, los
cosmólogos volvieron a invocarla —aunque con un valor muy distinto— para
explicar otra observación astronómica que contradecía el modelo del Big Bang.
Es evidente que no todas las versiones de la inflación pueden ser acertadas,
aunque Guth comenta: «De las muchas versiones de la inflación que se han
desarrollado, pueden extraerse algunas conclusiones […]. La inflación solo
exige que haya algún estado que juegue el papel de falso vacío, y que haya algún
mecanismo que produzca los bariones (por ejemplo, los protones y neutrones)
del universo una vez la inflación haya finalizado. Por lo tanto, la inflación puede
sobrevivir incluso si las teorías de gran unificación se equivocan [la cursiva es
mía]».[47] Esto no define una teoría tal y como la entiende la ciencia, sino una
colección de conjeturas tan abstracta y generalizada que carece de sentido en el
mundo físico.
Este problema de definición surge porque la cosmología ha estado liderada
por teóricos cuyo principal instrumento son las matemáticas. Los matemáticos
utilizan el término «teoría» para describir una colección de propuestas sobre un
tema que son demostrables mediante razonamiento deductivo para un conjunto
de supuestos o axiomas y que se expresan mediante símbolos y fórmulas. Una
teoría matemática no tiene por qué mantener relación con los fenómenos físicos,
tal y como Einstein reconoció sin reservas: «Los escépticos dirán: “Tal vez sea
cierto que este sistema de ecuaciones es razonable desde un punto de vista
lógico. Pero ello no demuestra que tenga correspondencia en la naturaleza”.
Tiene usted razón, mi querido escéptico. Solo la experiencia puede decidir
acerca de la verdad».
Mientras que la mayoría de cosmólogos afirma que su disciplina es una
ciencia, muchos fusionan teoría matemática con teoría científica, algo que es
bastante distinto. La ciencia es una disciplina empírica, y una teoría científica es
la explicación de un conjunto de fenómenos validado por experimentos u
observaciones independientes y se utiliza para realizar predicciones o
retrodicciones rigurosas sobre fenómenos.

Necesidad de evidencias que sustenten la teoría de la inflación

¿Hay alguna de las hipótesis de la inflación que realice predicciones únicas


que hayan quedado confirmadas por las evidencias? En 1997, Gurth escribió:
«Es justo decir que la inflación no está demostrada, pero creo que está
avanzando rápidamente de hipótesis de trabajo a hecho aceptado».[48] En 2004,
declaró que «Las predicciones de la inflación coinciden maravillosamente con
las mediciones del fondo cósmico de microondas».[49] De hecho, el equipo
científico responsable del satélite espacial Wilkinson Microwave Anisotropy
Probe (WMAP) anunció en 2006 que las ondulaciones detectadas en el fondo
cósmico de microondas (FCM) favorecen las versiones más simples de la
inflación, lo que confirmó la inflación como un elemento esencial de la
explicación que da la cosmología ortodoxa a la aparición del universo.
Más aún, en 2014 el equipo encargado de examinar de uno a cinco grados del
firmamento (de dos a diez veces el ancho de una luna llena) desde una estación
situada cerca del polo sur, como parte del proyecto que lleva el nombre de
BICEP2, anunció haber encontrado evidencias directas de inflacion.[50]
Lo que de hecho descubrieron fue una señal de polarización de modo B en el
fondo cósmico de microondas (FCM). El equipo del BICEP2 llegó a la
conclusión de que esta señal estaba provocada por ondas gravitacionales
primigenias generadas por la expansión inflacionaria del universo. Después de la
excitación inicial y de las declaraciones de diversos premios Nobel, dos estudios
independientes de los datos aportados por BICEP2 afirmaron que la señal podía
ser también resultado del polvo y los campos magnéticos galácticos de nuestra
propia galaxia, la Vía Lactea.[51] Además, las señales eran mucho más potentes
de lo esperado e inconsistentes con los datos de la sonda WMAP y del telescopio
Planck.
Si las distintas versiones de la inflación consiguen realizar predicciones y si
los parámetros de sus ecuaciones de campo Estan forzados para producir
resultados consistentes con las observaciones es un tema que examinaré en el
capítulo 8. Más aún, la literatura cosmológica rara vez menciona que las ondas
del FCM sean consistentes con otras hipótesis, como la de un modelo de
universo esféricamente simétrico y no homogéneo, el modelo de universo cíclico
ecpirótico, la cosmología de estado cuasi-estacionario y el modelo de universo
eterno de la cosmología del plasma.
Examinaré estas posturas y los datos de la sonda WMAP con más detalle
cuando trate sobre la cuestión de la interpretación de los datos en el capítulo 6.
Baste con decir por el momento que Peter Coles, profesor de Astronomía de la
Universidad de Nottingham, subraya las discrepancias entre los datos de la
WMAP y la inflación, citando el alineamiento inexplicable de determinados
componentes de puntos calientes y fríos, que teóricamente no deberían poseer
estructura. Concluye con:

Existen escasas evidencias directas de que la inflación tuviera realmente lugar. Las observaciones
del fondo cósmico de microondas […] son consistentes con la idea de que la inflación se produjo,
pero eso no significa que realmente tuviera lugar. Lo que es más, seguimos incluso sin saber qué
habría causado de haberse producido.[52]

Lo cual es una réplica de la conclusión de Rowan-Robinson:

Se han propuestos distintas versiones sobre cómo se produjo la inflación. La característica común
esencial es el periodo de expansión exponencial en el universo temprano, lo que resuelve los
problemas del horizonte y la planicidad. Sin embargo, no existen evidencias de que alguna de estas
fases se haya producido y comprender cómo podrían obtenerse dichas evidencias resulta
tremendamente difícil.[53]

Ellis llama la atención hacia la debilidad explicativa y el escaso poder


predictivo de la teoría de la inflación.

Si la hipótesis solo soluciona los problemas concretos sobre el universo primigenio para los que fue
diseñada y nada más, la verdad es que tiene escaso poder explicativo y se quedaría tan solo en una
descripción alternativa (tal vez preferible desde un punto de vista teórico) de la situación conocida
[…] el supuesto campo inflatón que sustenta una era inflacionaria de rápida expansión en el
universo primigenio no se ha identificado y ningún experimento de laboratorio ha demostrado su
existencia. Al ser φ un campo desconocido, podemos asignarle un potencial arbitrario V(φ) […]. Se
ha demostrado que podemos obtener la evolución de escala S(t) deseada del universo si elegimos
adecuadamente su potencial; y también es posible obtener la perturbación del espectro que
deseemos si realizamos la elección (posiblemente distinta) adecuada. De hecho, en todos los casos
es posible realizar los cálculos matemáticos a la inversa, a partir del resultado deseado, para
determinar el potencial V(φ) requerido.[54]

Finalmente, para que una hipótesis se convierta en teoría científica debe ser
susceptible de ser verificada. La reivindicación principal de las diversas
hipótesis de inflación es que el universo que observamos no es más que una
parte increíblemente minúscula de la totalidad del universo. Si la información no
puede viajar a velocidad superior a la de la velocidad de la luz, no podremos
comunicar con, ni obtener ninguna información sobre, ninguna otra parte de este
universo. Hasta que los proponentes de los distintos modelos de inflación
conciban un método para verificar sin ambigüedades la existencia de algo con lo
que no podemos ni comunicar ni obtener información, su principal
reivindicación no solo seguirá pendiente de verificación sino que además seguirá
siendo no verificable. En consecuencia, me referiré a ella como la conjetura de la
inflación.
Como John Maddox, director editorial de Nature durante veintitrés años,
dijo: «Un hecho revelador sobre los hábitos de la comunidad científica es que no
haya vertido con la generosidad acostumbrada su perpetuo y sano escepticismo
sobre esta atrevida e ingeniosa teoría».[55]
Conclusiones

Con tantos supuestos carentes de validez y dependientes de la incorporación


o la variación de los valores de parámetros arbitrarios para que los resultados
coincidan con las observaciones, se hace difícil no llegar a la conclusión de que
la teoría ortodoxa de la cosmología no es fiable. Además, los diversos modelos
de inflación introducidos para explicar las contradicciones reconocidas del
modelo básico del Big Bang con respecto a las evidencias aportadas por la
observación, no solo carecen de fiabilidad sino que además su reivindicación
principal no es verificable.
Y lo que es más, no aborda tampoco, ni explica adecuadamente, varios
conflictos clave que consideraré en el siguiente capítulo.
[1] Véase el glosario, al final del libro, para una explicación más detallada de estos términos.
[2]Los átomos con el mismo número de protones pero un número distinto de neutrones reciben el
nombre de isótopos. El núcleo de un átomo de hidrógeno está formado por un protón, el del deuterio está
formado por un protón y un neutrón, mientras que el del tritio está formado por un protón y dos neutrones.
[3]3 Un kelvin es la unidad de temperatura de la escala de temperatura Kelvin, que empieza con 0K, el
cero absoluto debajo del cual la energía molecular no puede caer. Un grado Kelvin tiene la misma
dimensión que un grado Celsius, y 0K corresponde a -273,15º C.
[4]Burbidge, Geoffrey, «Quasi-Steady State Cosmology», 2001. http://arxiv.org/pdf/astro-ph/0108051.
Consultado el 29 de diciembre de 2006.
[5]K es la abreviatura de Kelvin.
[6]Assis, Andre K. T. y Neves, Marcos C. D., «History of the 2.7 K Temperature Prior to Penzias and
Wilson», Apeiron 2: 3, 1975, pp. 79–87.
[7]Véase, por ejemplo, Bryson (2004), pp. 29–31.
[8]Burbidge (2001).
[9]Maddox (1998), pp. 33–34.
[10]Fowler, William, A., Autobiography, Fundación Nobel, 1993,
http://nobelprize.org/nobel_prizes/physics/laureates/1983/fowler-autobio.html. Consultado el 31 de octubre
de 2007.
[11]Véase el glosario para una descripción completa.
[12]Un tensor es una entidad algebraica de varios componentes que cambian en la transformación de un
sistema coordinado de espacio a otro.
[13]Isotrópico significa que, para el observador, el universo es el mismo en todas direcciones.
Homogéneo significa que el universo es igual en todos sus puntos. Lo cual no es necesariamente lo mismo.
Por ejemplo, un universo con un campo magnético uniforme es homogéneo porque todos sus puntos son
iguales, pero no es isotrópico porque un observador vería distintas líneas de campos magnéticos en distintas
direcciones. Por otro lado, una distribución esféricamente simétrica de material es isotrópica cuando se
observa desde su punto central, pero no es necesariamente homogénea; el material de un punto determinado
podría no ser el mismo que el de un punto distinto en la misma dirección. Sin embargo, si asumimos que la
distribución de material es isotrópica cuando se observa desde todos los puntos, el universo será
necesariamente homogéneo.
[14]Magueijo (2003), pp. 79–85.
[15]Véase el glosario para una definición completa.
[16]Ibíd, pp. 109–111; Linde (2001).
[17]Guth (1997), pp. 213–214.
[18]Es lo que se conoce como tiempo de Planck; véase el glosario para su explicación.
[19]Véase el glosario para una definición de teoría cuántica y página 159 para una descripción más
completa.
[20]Magueijo (2003), pp. 94–98.
[21]Guth (1997), p. 186
[22]Linde (2001).
[23]Guth, Alan y Steinhardt, Paul, «The Inflationary Universe», Scientific American, 250, 1980, 116-
128.
[24]Véase el glosario para una definición completa.
[25]Linde (2001).
[26]Clowes, Roger G., et al., «A Structure in the Early Universe at Z ~ 1.3 That Exceeds the
Homogeneity Scale of the R-W Concordance Cosmology», Monthly Notices of the Royal Astronomical
Society, enero 2013.
[27]Horváth, I., et al., «Possible Structure in the GRB Sky Distribution at Redshift Two», Astronomy &
Astrophysics, 561, 2014, L12, 4pp. http://arxiv.org/abs/1401.0533v2. Consultado el 29 de Agosto de 2014.
[28] Véase el glosario para una explicación del Tiempo de Planck y el Principio de incertidumbre.
[29]Hawking (1988), p. 46.
[30]Guth (1997), p. 87.
[31]Véase el glosario para una definición de cuark, leptón y bosón.
[32]Ibíd, pp. 238–239.
[33]Braibant, et al. (2012), pp. 313–314.
[34]Véase página 140.
[35]Véase página 146 para más discusión sobre esta interpretación de los datos.
[36]Rowan-Robinson (2004), pp. 89–92.
[37]Véase página 55.
[38]Véase página 56.
[39]Ibíd, p. 99.
[40]Burbidge, Geoffrey y Hoyle, Fred, «The Origin of Helium and the Other Light Elements», The
Astrophysical Journal, 509, 1998, L1–L3; Burbidge (2001).
[41]Un supuesto basado en la longitud debajo de la cual la teoría cuántica se desmorona.
[42]Linde (2001).
[43]Las principales versiones se consideran en mayor detalle en la página 201 y las páginas siguientes.
[44]Guth (1997), p. 186.
[45]Ibíd, p. 250.
[46]Véase el glosario para una descripción completa de agujero negro.
[47]Ibid. pp. 278–279.
[48]Ibíd, p. 286
[49]Alspach, Kyle, «Guth, Linde Win Gruber Cosmology Prize», Science & Technology News, 1, mayo
2014, pp. 1 y 3.
[50]Ade, P. A. R. et al., «Detection of β-Mode Polarization at Degree Angular Scales by BICEP2»,
2014, http://arxiv.org/pdf/1403.3985. Consultado el 18 de marzo de 2014.
[51]Cowan, Ron, «Big Bang Finding Challenged», Nature, 510, 2014, p. 20.
[52]Coles, Peter, «Inside Inflation: After the Big Bang», New Scientist Space, 2007, Informe especial, 3
de marzo de 2007,
http://space.newscientist.com.libproxy.ucl.ac.uk/article/mg19325931.400;jsessionid=CCHNEIPIDDIE.
Consultado el 2 de abril de 2007.
[53]Rowan-Robinson (2004), p. 101.
[54]Ellis (2007), S.5.z
[55]Maddox (1998), p. 55.
CAPÍTULO 4. LO QUE LA TEORÍA ORTODOXA DE
LA CIENCIA NO CONSIGUE EXPLICAR

Como principio científico general, no es deseable depender esencialmente de lo que no es observable


para explicar lo observable.

HALTON ARP, 1990

No solo no podemos ver aquello de lo que está hecha la mayor parte del universo, sino que además ni
siquiera estamos hechos de lo que la mayor parte del universo está hecha.

BERNARD SADOULET, 1993

Si la teoría ortodoxa de la ciencia, el modelo del Big Bang inflacionario,


pretende proveernos de un relato convincente sobre el origen de la materia de la
que estamos hechos, debería ofrecernos una respuesta satisfactoria a seis
preguntas clave.

Singularidad

Según el modelo del Big Bang, si echáramos hacia atrás el reloj de la


expansión del universo se produciría una singularidad. Los físicos teóricos
desarrollaron el concepto de singularidad cuando estudiaron los agujeros negros.
Podría definirse como sigue:

Singularidad: región hipotética en el espacio-tiempo donde la fuerza de


la gravedad hace que una masa finita quede comprimida en un volumen
infinitamente pequeño, y por lo tanto tenga una densidad infinita, y donde
el espacio-tiempo queda infinitamente distorsionado.

En 1970, Stephen Hawking y Roger Penrose publicaron una prueba


matemática de que el universo empezó a existir a partir de una singularidad, el
Big Bang, siempre y cuando la teoría general de la relatividad fuera correcta y el
universo contuviera toda la materia que observamos. Y esto se convirtió en la
teoría ortodoxa.
Hawking, sin embargo, ha cambiado de idea desde entonces y sostiene que la
singularidad desaparece en cuanto tenemos en cuenta los efectos cuánticos
(véase el universo sin límites de Hartle-Hawking en el próximo capítulo).
Nos preguntamos, por lo tanto, ¿hubo una singularidad en el Big Bang y, de
haberla habido, qué sabemos sobre el universo en aquel momento? La teoría
ortodoxa se muestra ambigua respecto a la primera parte de la pregunta. Y
respecto a la segunda parte, si hubo una singularidad en el Big Bang, no nos dice
nada porque, como se ha comentado en el capítulo anterior,[1] la teoría de la
relatividad y la teoría cuántica que la sustentan se desmoronan. Por mucho que
un periodo de 10-43 segundos pueda parecer un periodo de tiempo absurdamente
pequeño en el que no es posible concretar nada, diversos modelos de inflación
especulan que en o durante ese periodo de tiempo, antes o después del Big Bang,
se produjeron sucesos tremendamente importantes.

Proporción observada de materia respecto a radiación

La teoría ortodoxa sobre el origen de la materia invoca la teoría estándar de


física de partículas para explicar la creación de la materia a partir de la energía
que liberó la explosión del Big Bang.
Según la teoría estándar, una partícula elemental de materia se materializa
espontáneamente a partir de un campo de energía junto con una partícula de
antimateria simétricamente opuesta a ella, que posee la misma masa y espín pero
carga eléctrica opuesta. Así pues, un electrón (con carga negativa) aparece con
un positrón (carga positiva), y un protón (carga positiva) lo hace con un
antiprotón (carga negativa). En condiciones de laboratorio, estas partículas y
antipartículas pueden separarse y «embotellarse» mediante campos
electromagnéticos. Sin embargo, sin campos aplicados externamente, la vida de
estas partículas y antipartículas elementales es ínfima, normalmente de 10-21
segundos, después de lo cual se aniquilan mutuamente en una explosión de
energía, un proceso contrario al que las crea.
De ahí que el modelo del Big Bang inflacionario tuviera que explicar lo
siguiente: (a) puesto que en la densidad extremadamente elevada que siguió al
Big Bang todas las parejas partícula-antipartícula se vieron presionadas entre
ellas, ¿por qué esas partículas y antipartículas no se aniquilaron mutuamente?; y
(b) ya que sabemos que en el universo existe una cantidad enorme de materia,
¿dónde está la cantidad correspondiente de antimateria?
Las especulaciones sobre las anti-galaxias dieron paso a estimaciones
observacionales de la proporción entre fotones y protones del universo, que se
sitúa aproximadamente en dos miles de millones contra uno. Con ello, los
teóricos llegaron a la conclusión de que para cada mil millones de antipartículas
(antiprotones y positrones) que se materializaron a partir de la liberación de
energía del Big Bang, debieron de materializarse mil millones más una partículas
correspondientes (protones y electrones). Los mil millones de partículas y
antipartículas se aniquilaron entre ellas en una explosión de energía y produjeron
dos mil millones de fotones, que son cuantos de energía electromagnética. Según
el modelo del Big Bang, es esta energía, ahora expandida y enfriada, lo que
forma la radiación de fondo cósmico de microondas que vemos hoy en día. Los
mil millones más uno protones y electrones que quedaron huérfanos
sobrevivieron y se combinaron para crear toda la materia del universo: todos los
planetas, sistemas solares, galaxias y cúmulos de galaxias.
Sin embargo, esto entraba en conflicto con la teoría estándar de la física de
partículas que decía que, según la ley de la simetría, solo pueden materializarse
parejas de partículas y antipartículas.
Este conflicto siguió siendo un problema para los físicos teóricos hasta
mediados de los años setenta del siglo pasado, cuando conjeturaron que, bajo las
condiciones de temperaturas extremadamente elevadas del Big Bang, las tres
fuerzas fundamentales de la naturaleza —electromagnética, nuclear débil y
nuclear fuerte[2]— son simplemente tres aspectos distintos de la misma fuerza.
Los teóricos concibieron asimismo distintos modelos matemáticos, que
denominaron teorías de gran unificación (TGU), aunque los datos
experimentales han refutado la TGU original y hasta el momento no han
conseguido validar ninguna de las otras. Estas conjeturas permiten que todo tipo
de partículas elementales interactúen, y transmuten, con todas las demás
partículas. Como consecuencia de ello, los físicos teóricos consideraron que no
era necesario conservar la simetría entre materia y antimateria. Ajustaron el
modelo estándar para que diera cabida a la asimetría. Este ajuste no predice la
cantidad de asimetría pero, como la carga de un electrón, requiere medidas
obtenidas a partir de la observación que se incorporan luego al modelo para que
el mismo sea consistente con la observación.
A pesar de las esperanzas albergadas en los años setenta, no fue posible
detectar y calibrar en laboratorio la asimetría materia-antimateria hasta 2001,
momento en el cual se produjeron mesones B y anti mesones B y se logró que
sobrevivieran 10-12 segundos. Sin embargo, la asimetría observada no resultó
ser lo bastante grande como para explicar la proporción estimada entre energía y
materia en el universo.[3]
De ahí que la actual teoría ortodoxa de la ciencia sobre el origen de la
materia necesite ofrecer una respuesta convincente a la pregunta de cómo se
formó la materia a partir de la energía liberada por el Big Bang para producir la
proporción entre materia y energía que observamos actualmente en el universo.

Materia oscura y Omega

Y aquí surgen dos problemas.


En primer lugar, si estimamos la masa de una galaxia mediante el método
convencional de medir su luminosidad, vemos que la atracción gravitatoria de la
masa es solo una décima parte de la que sería necesaria para que todas sus
estrellas orbitaran a su alrededor. De un modo similar, la atracción gravitatoria
de la masa de un cúmulo de galaxias medida por su luminosidad es solo de una
décima parte de la que sería necesaria para mantener las galaxias unidas en un
cúmulo.
Lo cual no es una sorpresa, puesto que el método convencional se limita a
medir tan solo la cantidad de luz emitida. Estrellas y galaxias de distintas masas
varían en cuanto a su luminosidad y su distancia de nosotros, y las más remotas
pueden quedar oscurecidas por el gas y el polvo u ocultas por la luz de estrellas y
galaxias más próximas. Por lo tanto, el cálculo de la masa no es más que una
burda estimación basada en el promedio de valores estimados «conocidos».
Y lo que es más importante, el método convencional no mide la masa de
nada que no emita o refleje luz. Si la teoría general de la relatividad fuese válida,
tendría que haber diez veces más cantidad de materia no luminosa —materia
oscura— extendiéndose más allá del radio de cualquier galaxia visible para con
ello impedir que la galaxia no se dispersase. De un modo similar, tendría que
haber diez veces más cantidad de materia oscura en lo que se cree que es el vacío
que rodea las galaxias visibles de un cúmulo.
Las numerosas especulaciones sobre lo que constituye la materia oscura
podrían agruparse en dos tipos:

MACHO: los objetos masivos de halo compacto (MACHO del inglés


«Massive Compact Halo Objects») son formas de materia densa —como
los agujeros negros, las enanas marrones y otras estrellas tenues— que los
astrofísicos utilizan para explicar la materia oscura.

WIMP: las partículas masivas de interacción débil (WIMP, del inglés


«Weakly Interacting Massive Particles») son partículas dejadas por el Big
Bang —como los neutrinos, con una masa que multiplica por cien la del
protón, y otros— que los físicos de partículas utilizan para explicar la
materia oscura.

A pesar de que la existencia de la materia oscura se ha deducido siempre a


partir de sus efectos gravitatorios, más de treinta años de investigaciones no han
logrado todavía identificar la naturaleza de la materia oscura ni confirmar
experimentalmente la existencia de WIMP. Muchos físicos de partículas confían
en que el Gran Colisionador de Hadrones produzca evidencias de la existencia
de WIMP después de su reapertura en 2015 con casi el doble de energía de
colisión que tenía anteriormente.
El segundo problema es que, aun en el caso de que sumáramos toda la
materia oscura estimada para mantener las estrellas orbitando en galaxias y las
galaxias agrupadas en cúmulos a toda la materia estimada visible y conocida,
seguiríamos obteniendo una masa total demasiado pequeña para proporcionar la
atracción gravitatoria necesaria para equilibrar la energía cinética de la
expansión del universo según el modelo ortodoxo del Big Bang inflacionario.
Las estimaciones producen un valor del parámetro de densidad Omega de
aproximadamente 0,3,[4] que es significativamente inferior al 1,0 del universo
plano que supone el modelo ortodoxo de Friedmann-Lemaître y que racionalizan
las conjeturas de la inflación.
Por lo tanto, la teoría ortodoxa de la ciencia sobre el origen de la materia no
consigue responder a las siguientes preguntas: (a) ¿qué es la materia oscura que
al parecer mantiene a las estrellas trazando órbitas y a las galaxias agrupadas en
cúmulos?; y (b) ¿qué y dónde está la materia oscura adicional necesaria para ser
consistente con el modelo ortodoxo del universo?

Energía oscura

Y por si todo esto no fuera bastante malo para el modelo ortodoxo, en 1998
los astrónomos anunciaron un descubrimiento de importancia mayor si cabe.
Gracias al desarrollo de la tecnología y de la teoría astrofísica, dos equipos
internacionales de astrónomos fueron capaces de recopilar datos de supernovas
Tipo 1a con gran desplazamiento al rojo; consideraron que estas explosiones
violentas de estrellas enanas blancas producían luminosidades estándar. Según la
cosmología ortodoxa, el grado de desplazamiento al rojo indicaba que eran
estrellas lejanas, y por lo tanto jóvenes, que habrían explotado cuando el
universo tenía entre nueve y diez miles de millones de años. Sin embargo, eran
más tenues de lo esperado. Los cosmólogos llegaron a la conclusión de que
debían de estar situadas más lejos de lo predicho por el modelo de geometría
plana de Friedmann-Lemaître, que defiende que el ritmo de expansión del
universo está ralentizándose. De ahí que decidieran que alguna cosa tenía que
haber provocado la aceleración de la expansión del universo. Y a ese ingrediente
desconocido le pusieron el nombre de «energía oscura».[5]
Basándose en los supuestos de la teoría ortodoxa y en su interpretación de los
datos astronómicos, los científicos que dirigen la Wilkinson Microwave
Anisotropy Probe anunciaron en 2003 que el universo está integrado por un 4
por ciento de materia conocida, un 23 por ciento de materia oscura de tipo
desconocido y un 73 por ciento de esta misteriosa energía oscura.[6] Es decir,
que la materia oscura desconocida que deja reducida a nada la materia que
conocemos queda a su vez reducida a nada por una energía oscura desconocida
que es responsable de más de dos terceras partes del universo. Tal vez la cita de
Bernard Sadoulet que encabeza el capítulo debería decir: «No solo no estamos
hechos de aquello de lo que está hecho la mayor parte del universo, sino que
además ni siquiera sabemos de qué está hecha la mayor parte del universo».
La figura 4.1 describe esta versión ortodoxa revisada de la historia del
universo.

Los científicos empezaron de inmediato a tratar de identificar la energía


oscura. Los cosmólogos teóricos pensaron que podía ser la responsable de aquel
incremento relativamente reciente de la expansión del universo si reintroducían
Lambda en las ecuaciones de campo de Einstein.
Como vimos en el capítulo 3, Einstein había descartado esta constante
cosmológica, describiéndola como su mayor error. No aparece en las ecuaciones
de Friedmann utilizadas en el modelo básico del Big Bang, pero la mayoría de
modelos de inflación la reintrodujeron, aunque con un valor muy superior al que
le había otorgado Einstein y solo durante un periodo de tiempo increíblemente
breve, para justificar una inflación del universo primigenio y así conseguir la
densidad de masa crítica con Omega = 1 para una expansión con desaceleración
estable. (Al tratarse de una constante arbitraria, los cosmólogos pueden otorgarle
cualquier valor, positivo, negativo o cero.)
Los teóricos actuales han vuelto a introducir la constante cosmológica —
aunque con un valor distinto al que le otorgaron Einstein o los inflacionistas—
para intentar justificar la aceleración implícita, muy inferior a la aceleración
inflacionista. No carece de razón el cosmólogo de la Universidad de Chicago,
Rocky Kolbe, cuando se refiere a ella como la «constante cosmo-ilógica».
Pero si pretende ser algo más que una constante matemática que los teóricos
pueden insertar de manera arbitraria en sus ecuaciones y cuyo valor pueden
manipular hasta que las soluciones cuadren con la observación, deberá significar
alguna cosa en el mundo real. Los físicos de partículas pensaron que
representaba la energía del punto cero, o energía del estado fundamental de la
mecánica cuántica, del universo: es decir, la energía más baja posible del
universo, que es la energía asociada al vacío del espacio. Pero cuando calcularon
su valor de esta manera, resultó que tenía una magnitud ciento veinte veces
superior a la observada por los astrónomos.4
El físico teórico Martin Kunz y sus colegas pusieron palos en la rueda de la
constante Lambda señalando que, en primer lugar, los datos astronómicos
presentan una gran dispersión y, en segundo lugar, la interpretación de los datos
es implícitamente sensible a los supuestos sobre la naturaleza de la energía
oscura. Sugirieron que comparando datos en una amplia variedad de fenómenos
astrofísicos sería posible descartar una constante cosmológica como el origen de
la energía oscura.[7]
Otro físico de partículas, Syksy Rasanen, del CERN, lanzó un palo más a la
rueda al proponer que la expansión acelerada del universo está provocada no por
una energía oscura misteriosa sino, paradójicamente, por una disminución cada
vez mayor del ritmo de expansión de esas pequeñas regiones de espacio
dominadas por la materia. Como que la atracción gravitatoria de estas regiones
las lleva a absorber más materia, se condensan y representan un porcentaje cada
vez más pequeño —y menos importante— del volumen del universo. La
expansión de los vacíos sigue avanzando de manera desenfrenada y, por
consiguiente, ocupan un porcentaje cada vez mayor del volumen del universo.
La consecuencia general de todo ello, sugiere Rasanen, es que el ritmo medio de
expansión del universo aumenta sin necesidad de energía oscura.[8]
En 2011, la física teórica Ruth Durrer, de la Universidad de Ginebra, destacó
que todas las evidencias aportadas hasta la fecha para corroborar la existencia de
la energía oscura dependen de distancias calculadas de desplazamiento al rojo
que son mayores de lo que cabría esperar según el modelo ortodoxo.[9] Richard
Lieu, profesor de Astrofísica de la Universidad de Alabama, va más allá y
argumenta que gran parte del modelo ortodoxo, que ahora incluye materia oscura
y energía oscura, «está sustentado por una cantidad impresionante de propaganda
que reprime las evidencias que apuntan en direcciones opuestas y los modelos
alternativos». Apunta que dos modelos alternativos, uno que elimina la materia
oscura y otro que elimina tanto la materia oscura como la energía oscura, no
presentan resultados peores en cuanto a corresponderse o no con las evidencias,
y concluye diciendo que cuánto más fracase el ámbito ortodoxo —que es el que
domina las entidades de financiación— en su empeño de encontrar estos
ingredientes oscuros desconocidos, más se invertirá el dinero de los
contribuyentes en intentar encontrarlos, hasta el punto de ahogar por completo
cualquier enfoque alternativo.[10]
Ellis sostiene también que hay explicaciones alternativas a los datos
astronómicos que poseemos que son perfectamente posibles. Podrían encajar con
un modelo de universo esféricamente simétrico y no homogéneo, o podrían
deberse en parte a la retro-reacción de heterogeneidades sobre la expansión
cósmica, o al efecto de heterogeneidades sobre el área distancia efectiva.[11]
El cosmólogo Lawrence Krauss concluye diciendo que «la naturaleza de la
“energía oscura” que está provocando la aparentemente acelerada expansión del
universo es, sin lugar a dudas, el mayor misterio de la física y la astronomía».
[12]
Por lo tanto, si la teoría ortodoxa de la ciencia sobre el origen de la materia
pretende ser convincente, deberá responder a lo siguiente: (a) si la expansión del
universo se está acelerando o no; (b) en caso afirmativo, cuándo se produjo el
cambio de expansión desacelerada a expansión acelerada; y (c) que causa
verificable está produciendo esta aceleración.

El ajuste de precisión de los parámetros cosmológicos

Cuando en el capítulo 3 examinamos el problema de la planicidad del


modelo básico del Big Bang, vimos que diferencias extremadamente minúsculas
en el valor de Omega —una medida de la atracción gravitatoria de la materia en
el universo en comparación con su energía de expansión— producen tipos de
universo muy distintos.
En 2000, Martin Rees, astrónomo real de Gran Bretaña, defendió que nuestro
universo no habría evolucionado hasta la fase en la que se encuentra, con seres
humanos como nosotros que reflexionamos sobre el origen del universo, si el
valor, no solo de Omega sino también de cinco parámetros cosmológicos más,
hubiera sido distinto en cantidades increíblemente minúsculas.
De hecho, se afirma que para la evolución humana es imprescindible ajustar
con precisión muchos parámetros, además de los seis apuntados por Rees, y
examinaré la cuestión del «universo antrópico» con más profundidad en
posteriores capítulos. Baste por el momento decir que la teoría cosmológica
ortodoxa no responde a la pregunta de cómo y por qué el universo que emergió
del Big Bang adoptó la forma que adoptó entre otras muchas formas posibles.

La creación a partir de la nada

Este es el esqueleto encerrado en el armario. Es la pregunta más importante


que la teoría ortodoxa sobre el origen de la materia está obligada a responder.
Dicho de forma muy sencilla: ¿de dónde vino todo?
Y más concretamente, ¿de dónde procede la energía que no solo produjo todo
el universo, sino que además contrarrestó la inmensa atracción gravitatoria de la
materia súper densa que se creó —infinitamente densa si se inició como una
singularidad— y expandió el universo hasta su tamaño actual?
Muchos cosmólogos apoyan la idea de que procede de la energía neta cero
del universo. Según la teoría de la relatividad especial de Einstein, toda masa m
posee una energía equivalente calculada mediante E = mc2 y,
convencionalmente, esta energía de la masa de la materia en reposo tiene un
valor positivo. Guth defiende que la energía de un campo gravitatorio es
negativa. Basándose en una idea que al parecer fue avanzada por Richard
Tolman en 1934,[13] la argumentación de Guth para la creación a partir de la
nada utilizando el concepto de energía neta cero se resumiría como sigue:

1. Si el principio de conservación de la energía aplica al universo, entonces el


universo tiene que tener la misma energía a partir de la cual fue creado.
2. Si el universo fue creado de la nada, entonces la energía total del universo
tiene que ser cero.
3. Como que es evidente que el universo observable está lleno a rebosar de la
inmensa energía-masa de cien miles de millones de galaxias en expansión,
dicha expansión tiene que estar originada por otra energía.
4. Como que el campo gravitatorio tiene energía negativa, la inmensa energía
que observamos puede quedar anulada por una contribución negativa de
igual magnitud del campo gravitatorio.
5. Como que la magnitud de energía del campo gravitatorio no tiene límite,
tampoco tiene límite la cantidad de energía-masa que es capaz de anular.
6. Por lo tanto, el universo podría haber evolucionado a partir de
absolutamente nada y de forma consistente con todas las leyes de
conservación conocidas.[14]

La proposición (2) depende de la condición de que el universo fue creado a


partir de la nada. Lo cual no es una verdad obvia. De ahí que la validez de esta
proposición sea cuestionable.
La proposición (5) se basa en un supuesto cuestionable; en el capítulo 6,
cuando examine la infinitud de un cosmos físico, discutiré términos como
«ilimitado» e «infinito».
Pero aun aceptando proposiciones tan cuestionables como estas, el
argumento muestra que, en teoría, el universo podría haber evolucionado a
partir de la nada, pero no nos explica cómo evolucionó en la práctica.
En 1973, Edward Tryon propuso la respuesta de la «fluctuación cuántica del
vacío». Según el principio de incertidumbre de la teoría cuántica, es imposible
calcular la energía exacta de un sistema en un momento exacto. En
consecuencia, la teoría cuántica permite la conjetura de que incluso el vacío, un
espacio en el cual todo ha sido eliminado, tiene un punto cero, o estado
fundamental, de energía fluctuante a partir de la cual una pareja de partículas de
materia y antimateria puede materializarse de manera espontánea, existir durante
un periodo de tiempo increíblemente breve y luego desaparecer. Tryon sugirió
que el universo se materializó espontáneamente a partir de un vacío mediante
esta fluctuación cuántica.[15]
Sin embargo, en la teoría cuántica, la probabilidad de que un objeto se
materialice a partir de un vacío disminuye dramáticamente a tenor de su masa y
su complejidad, lo que hace que la probabilidad de que un universo complejo de
catorce mil millones de años de antigüedad y que posee unos diez mil millones
de millones la masa del sol surgiera de esta manera es tan remota, que resulta
prácticamente imposible. Nadie se tomó en serio la sugerencia de Tryon hasta
que la inflación acudió a su rescate.
Guth y otros especularon que, durante el tiempo de vida infinitésimamente
breve de estas fluctuaciones cuánticas del vacío, surgió un proto-universo que se
infló en un instante hasta alcanzar una magnitud cincuenta veces mayor, y que lo
hizo incluso a pesar del campo gravitatorio provocado por su masa que
amenazaba con aplastarlo y acabar con su existencia.
Lo cual plantea dos retos. En primer lugar, como vimos en el capítulo 3, a
pesar del intento de los teóricos de la inflación de defender lo contrario, esta
energía-masa no puede viajar más rápido que la velocidad de la luz sin entrar en
conflicto con la teoría de la relatividad.[16]
En segundo lugar, como vimos también en el último capítulo, existe
alrededor de un centenar de versiones de la inflación, pero en su mayoría siguen
a Linde y asumen que el mecanismo es algún tipo de campo escalar, que recibe
el nombre genérico de campo de inflación. Sin embargo, a diferencia de un
campo electromagnético que puede ser detectado y medido, nadie ha encontrado
todavía la manera de detectar, y mucho menos de medir, un campo de inflación.
Por lo tanto, esta conjetura crucial carece de base empírica.
Se supone que la energía que impulsa este supuesto campo de inflación
proviene de la energía neta cero del universo. Y mientras que Rees se muestra
cauteloso y utiliza la palabra «conjetura» para calificar esta idea[17], Hawking
no tiene tantas reservas. Asevera que, en el caso de un universo que es
aproximadamente uniforme en el espacio, la energía de gravitación negativa
cancela por completo la energía positiva representada por la materia. De ahí que
la energía total del universo sea cero. «El doble de cero es también cero. Por lo
tanto, el universo puede duplicar la cantidad de energía de materia positiva y
duplicar también la energía gravitatoria negativa sin que se viole la conservación
de la energía. […] Durante la fase inflacionaria el universo aumenta su tamaño
en una cantidad muy grande. De este modo, la cantidad total de energía
disponible para crear partículas se hace muy grande. Como comentaba Guth: “Se
dice que la comida gratis no existe. Pero el universo es la comida gratis por
excelencia”».[18]
No conozco muchos científicos, aparte de los cosmólogos, que crean en la
comida gratis. Pero incluso en el caso de que el universo fuera una comida
gratis, la idea sigue sin decirnos de dónde provienen los ingredientes.
Concretamente, un vacío con una energía fundamental que experimenta
fluctuaciones cuánticas aleatorias no es la nada. ¿De dónde surgió este vacío?
Más aun, ¿cómo se puede verificar esta conjetura?
Se trata de preguntas que la cosmología ortodoxa está obligada a responder si
pretende que su conjetura de la creación a partir de la nada sea tratada como una
teoría científica.

Conclusiones

El capítulo 3 concluía diciendo que la teoría ortodoxa de la cosmología no es


fiable y que su reivindicación principal, la inflación, que se incorporó para
explicar las contradicciones que presenta la teoría con las evidencias aportadas
por la observación, no es verificable con casi toda seguridad.
Este capítulo llega a la conclusión de que, incluso con dos añadidos
importantes —la materia oscura y la energía oscura—, la teoría actual sigue sin
ofrecer respuestas convincentes a seis preguntas clave: si hubo o no una
singularidad y, en caso afirmativo, cómo se originó el universo como
singularidad; cómo se formó la materia oscura a partir de la energía liberada por
el Big Bang para producir la proporción entre materia y energía que observamos
en la actualidad; qué es esa materia oscura que al parecer es necesaria para
explicar por qué las galaxias y los cúmulos de galaxias no se disgregan, y qué y
dónde está esa cantidad mucho mayor de materia adicional necesaria para
explicar por qué el ritmo de expansión del universo es el pronosticado por la
teoría; cómo y cuándo este ritmo desacelerado de expansión cambió a un ritmo
acelerado y qué es la energía oscura invocada como su causa; cómo y por qué el
universo adoptó la forma que adoptó habiendo tantas otras formas disponibles; y,
lo que es más importante, cómo se creó todo a partir de la nada cuando la
burbuja de vacío originaria posee una energía fundamental y, por lo tanto, no es
la nada.
En 1989, Nature publicó un editorial en el que calificaba de «inaceptable» el
modelo del Big Bang y predecía que «es poco probable que sobreviva la
próxima década».[19] Pero ha sobrevivido más que eso: el Big Bang caliente
inflacionario sigue siendo la explicación ortodoxa de la cosmología para el
origen del universo. ¿Pero por cuánto tiempo más?
En la actualidad, otras hipótesis compiten bien para modificar el modelo
ortodoxo, bien para desbancarlo. ¿Ofrecen un relato más riguroso, desde un
punto de vista científico, sobre el origen del universo?
[1]Véase página 71.
[2]Véase el glosario para una definición de las distintas fuerzas.
[3]Rodgers, Peter, «Where Did All the Antimatter Go?», Physics World, 2001.
http://physicsweb.org/articles/world/14/8/9. Consultado el 12 de junio de 2006.
[4]Ellis (2007), S.2.3.6.
[5]Ellis, George, «Physics Ain’t What It Used to Be», Nature 438: 7069, 2005, pp. 739-740.
[6]Los datos aportados en 2013 por el telescopio espacial Planck de la Agencia Espacial Europea
provocaron una revisión de estas proporciones que quedaron en un 4,9 por ciento de materia conocida, un
26,8 por ciento de materia oscura y un 68,3 por ciento de energía oscura.
[7]Kunz, Martin, et al., «Model-Independent Dark Energy Test with Sigma [Sub 8] Using Results from
the Wilkinson Microwave Anisotropy Probe», Physical Review D (Particles, Fields, Gravitation, and
Cosmology) 70: 4, 041301, 2004.
[8]Shiga, David, «Is Dark Energy an Illusion?», http://www.newscientist.com/article/dn11498-is-dark-
energy-an-illusion.html#.U5GjRSj5hhI. 30 de marzo de 2007.
[9]Durrer, Ruth, «What Do We Really Know About Dark Energy?», Philosophical Transactions of the
Royal Society, 369, 2011, pp. 5102–5114.
[10]Lieu, Richard, «ΛCDM Cosmology: How Much Suppression of Credible Evidence, and Does the
Model Really Lead Its Competitors, Using All Evidence?», 2007, http://arxiv.org/abs/0705.2462.
[11]Ellis (2007), S.2.3.5.
[12]Krauss, Lawrence M., «What Is Dark Energy? », Nature 431, 2004, pp. 519–520.
[13]Tolman (1987).
[14]Guth (1997), pp. 9–12 y 289–296
[15]Tryon, Edward P., «Is the Universe a Vacuum Fluctuation?», Nature 246, 1973, pp. 396–397
[16]Véase página 79.
[17]Rees (1997), p. 143.
[18]Hawking (1988), p. 129.
[19]Maddox, John, «Down with the Big Bang», Nature 340, 1989, p. 425.
CAPÍTULO 5. OTRAS CONJETURAS
COSMOLÓGICAS

Buscar una alternativa [al modelo ortodoxo] es buena ciencia, simplemente. La ciencia avanza con
mayor rapidez cuando hay dos o más ideas en competencia.

PAUL STEINHARDT, 2004

Muchos de los teóricos actuales no parecen estar preocupados por la posibilidad de que sus hipótesis
acaben viéndose confrontadas a observaciones objetivas y reales.

MICHAEL RIORDAN, 2003

Algunos cosmólogos, a diferencia de algunos papas, no están satisfechos con


la idea de que el universo surgió de la nada a partir de una explosión. Para ellos,
resulta mucho más atractivo el concepto de que el universo es eterno. Una de las
dificultades a las que se enfrenta la evaluación, tanto de estas ideas como de
otras alternativas al modelo ortodoxo del Big Bang inflacionario, es que, del
mismo modo que la literatura religiosa está escrita por creyentes en las distintas
religiones, la literatura sobre la especulación cosmológica está escrita por
creyentes en las distintas especulaciones; e igual que sucede con sus homólogos
religiosos, a menudo distan mucho de ser objetivos cuando presentan sus
hipótesis y seleccionan e interpretan las supuestas evidencias que las sustentan.
He elegido las que considero ideas más relevantes.

El universo sin límites de Hartle-Hawking


Para abordar la primera pregunta planteada en el anterior capítulo —si el
universo, incluyendo el tiempo y el espacio, se originó o no como una
singularidad en la que dejan de ser válidas las leyes conocidas de la física—,
Stephen Hawking examinó diversas maneras de aplicar la teoría cuántica al
estado inicial del universo. Plantear sus ecuaciones sin realizar distinción alguna
entre las dimensiones del espacio y la dimensión del tiempo, le permitió
introducir un tiempo imaginario. Lo cual sería equivalente al concepto de los
números imaginarios aceptado desde hace mucho tiempo en las matemáticas. Si
tomamos un número real, como 2, y lo multiplicamos por sí mismo, el resultado
obtenido es un número positivo, 4. Lo mismo sucede si multiplicamos un
número negativo por sí mismo: -2 por -2 igual a 4. Un número imaginario es
aquel que, multiplicado por sí mismo, da un número negativo. Por ejemplo, i
multiplicado por sí mismo es igual a -1, mientras que 2i multiplicado por sí
mismo es igual a -4.
El resultado de este trabajo, que desarrolló junto con Jim Hartle en 1983, fue
producir un universo en el que el tiempo y el espacio son finitos, pero sin límites
de ningún tipo.[1] Una analogía simplificada del universo espacio-tiempo de
cuatro dimensiones de Hartle-Hawking sería la superficie de la Tierra, que es
finita pero no tiene límites, como se muestra en la figura 5.1.

En la figura, el universo se origina con el Big Bang con un tamaño cero en su


equivalente del polo norte, se expande en un tiempo imaginario hasta alcanzar el
tamaño máximo en su equivalente del ecuador, y se contrae en un tiempo
imaginario para terminar en un Big Crunch con tamaño cero en su equivalente
del polo sur. Y del mismo modo que las leyes de la física aplican en el polo norte
real de la superficie de la Tierra, aplican también en el tiempo imaginario cero.
Esta solución describe un universo en el que, según Hawking, «No habría
singularidades en las que las leyes de la ciencia dejaran de ser válidas y no
habría ningún límite del espacio-tiempo […]. La condición de frontera del
universo es que no hay frontera. El universo […] no sería creado ni destruido.
Simplemente SERÍA».
Hawking reconoce que cuando regresemos al tiempo real en el que vivimos,
seguirá pareciendo que hay singularidades, pero sugiere que lo que
denominamos tiempo imaginario podría de hecho ser el tiempo real, mientras
que lo que denominamos tiempo real no es más que un producto de nuestra
imaginación.
Esta propuesta ingeniosa soluciona muchos problemas del modelo ortodoxo
de la cosmología, no siendo precisamente el menor de ellos el de la creación a
partir de la nada. Sin embargo, Roger Penrose, coautor con Hawking de la
prueba matemática de que se produjo una singularidad tipo Big Bang siempre y
cuando la teoría general de la relatividad sea correcta,[2] describe el modelo
como un «truco inteligente» para producir teorías cuánticas de campo
consistentes pero presenta «severas dificultades» cuando se utiliza en conjunción
con las aproximaciones necesarias para resolver las ecuaciones.[3]
Para ver si describe el mundo que experimentamos, hay que comprobarlo.
Hawking afirma que realiza dos predicciones que coinciden con las
observaciones: la amplitud y el espectro de fluctuaciones del fondo cósmico de
microondas. Sin embargo, como en el caso de las de la inflación, las
«predicciones» derivan de la elección arbitraria de campos escalares, más que de
las predicciones reales del modelo del universo sin límites.
Por muy atractivo que resulte conceptualmente el modelo, han pasado más de
treinta años y Hawking no ha conseguido convencer todavía a muchos
cosmólogos teóricos de que sus cálculos matemáticos son viables y de que su
tiempo imaginario es verdaderamente tiempo real. Además, el modelo no ha
realizado ninguna predicción única que esté sustentada por la observación.

La inflación caótica eterna


Si al Big Bang le siguió un periodo de inflación, como la mayoría de
cosmólogos actuales apoya, surge entonces la cuestión de qué fue lo que lo
precedió. En consecuencia, Linde desarrolló en 1986 lo que describió como el
modelo de un «universo que se reproduce a sí mismo a través de una inflación
caótica eterna».[4]
A pesar de que los cosmólogos formados después de 1965 con la cultura del
Big Bang como única cosmogonía rara vez lo reconocen, este modelo tiene
mucho en común con la versión actualizada de la teoría del estado estacionario
conocida como cosmología del estado cuasi-estacionario.[5] Linde propone que
la inflación caótica se prolonga eternamente como un proceso continuado que
crea nuevas regiones de espacio con propiedades distintas. Algunas de estas
regiones podrían ser tan grandes como todo nuestro universo observable. «Con
la inflación eterna, todo sería el mismo universo, pero sus partes estarían tan
distanciadas las unas de las otras que, a todos los efectos prácticos, podríamos
decir que son universos distintos».[6]
El modelo sugiere que una vez estas regiones se hayan inflado, contendrán
necesariamente en su interior partes minúsculas que se inflarán, y que cuando
estas partes se inflen, contendrán también partes minúsculas que a su vez se
inflarán. En consecuencia, el proceso inflacionario se reproduce a sí mismo
eternamente.
Guth lo suscribe con entusiasmo porque «la inflación eterna pone fin a la
difícil cuestión de decidir hasta qué punto es plausible que la inflación se
iniciara». Además,

Si el concepto de la inflación eterna es correcto, el Big Bang no fue un acto singular de creación,
sino más bien algo parecido al proceso biológico de la división celular […]. Dada la plausibilidad de
la inflación eterna, creo que cualquier teoría cosmológica que no conduzca hacia la reproducción
eterna de los universos pronto quedará considerada como algo tan inimaginable como una especie
de bacterias incapaz de reproducirse.[7]

Guth tiene razón al respaldar este punto de vista como una declaración de fe
más que como una conclusión científica.
En principio, la conjetura responde a la cuestión del origen de nuestra región,
o nuestra burbuja, del universo: tuvo un principio y podría o no tener un fin, pero
el proceso no concluirá nunca. Pero Linde ya no está tan seguro en lo referente a
cómo se inició el proceso. En 2001 escribió: «Existe la posibilidad de que todas
las partes del universo se crearan simultáneamente en una singularidad inicial
tipo Big Bang. La necesidad de este supuesto, sin embargo, ha dejado de ser
obvia».[8] Siete años antes, los cosmólogos Arvind Borde y Alexander Vilenkin
llegaron a una conclusión más precisa. Defendieron que, siempre y cuando se
acepten determinados supuestos técnicos, un espacio-tiempo físicamente
razonable que esté inflándose eternamente hacia el futuro tendría que haberse
iniciado a partir de una singularidad.[9]
El peso del argumento sustenta con claridad la conclusión de que la conjetura
de la inflación caótica «eterna» no es eterna: por mucho que la inflación caótica
continuara indefinidamente en el futuro, tuvo un principio. En consecuencia, no
responde a la pregunta fundamental sobre de dónde salió todo, ni pone tampoco
fin a la difícil cuestión de decidir hasta qué punto es plausible que la inflación
empezara. Más aún, presenta exactamente los mismos problemas de
imposibilidad de verificar su principal reivindicación que situaba las demás
versiones de la idea de la inflación fuera del terreno de la ciencia y dentro del
terreno de las conjeturas filosóficas.

La velocidad variable de la luz

Un joven cosmólogo, Joao Magueijo, que en aquel momento estaba en


posesión de una prestigiosa beca para investigación de la Royal Society, propuso
una alternativa a la conjetura de la inflación que, según sostiene, se ha
convertido en la teoría sagrada para la comunidad cosmológica americana. La
idea central es que en el universo primigenio, la velocidad de la luz era
muchísimo más rápida que la actual. Esta conjetura solventa todos los problemas
que solventa la conjetura de la inflación y, a pesar de que no existen evidencias
de la existencia de una partícula inflatón ni de su correspondiente campo
inflacionario, Magueijo defiende que sí hay evidencias observacionales de
estrellas muy jóvenes que sustentan la hipótesis de la velocidad de la luz variable
desarrollada por él y Andreas Albrecht (que también había desarrollado
conjuntamente una de las primeras versiones modificadas de la conjetura de la
inflación, véase página 70). Esta idea, por supuesto, quebranta uno de los
principios fundamentales de la teoría de la relatividad de Einstein, el de que nada
puede viajar más rápido que la velocidad de la luz y, por ello, Magueijo está
intentando reformular en consecuencia las ecuaciones de Einstein.
Especular que en un periodo justo después Big Bang (en el que la teoría de la
relatividad de Einstein deja de ser válida), la velocidad de la luz era miles de
veces más rápida de lo que lo es ahora, no parece más irracional que especular
que la energía-masa de un vacío se infló a una velocidad miles de veces superior
a la velocidad de la luz. A pesar de ello, a Magueijo y a Albrecht les resultó
extremadamente difícil poder publicar su artículo, igual que les sucedió a Hoyle
y a otros cuyas hipótesis difieren de la ortodoxia cosmológica.
El relato de Magueijo sobre sus intentos de publicación y las respuestas a su
artículo de los grandes referentes, ofrece una imagen del tan cacareado proceso
de revisión por parte de los colegas que impera en la ciencia que emula la
revisión por parte de obispos de la ortodoxia que instintivamente rechazan
aquellos puntos de vista herejes que suponen un desafío a las conjeturas en las
que se basa su reputación. Una triste reflexión acerca de Nature la expone el
hecho de que para leer la versión completa de Magueijo me vi obligado a
comprar la edición norteamericana de su libro, puesto que Nature amenazó con
acciones legales al editor británico si no cribaba la primera edición y publicaba
una versión expurgada. Entre otras cosas, Magueijo alega que el consenso en su
campo de investigación es que el editor de cosmología de Nature no está a la
altura del puesto pero que sus colegas no se atreven a decirlo por miedo a
perjudicar su propia carrera profesional. Utiliza un lenguaje desmedido, tildando
al editor de «imbécil redomado» y «científico fracasado» con envidia de pene.
Este tipo de lenguaje degrada su caso. Evidentemente, Nature habría estado más
en la línea de los ideales de la ciencia si hubiese desistido de la idea de
comportarse como el Santo Oficio y hubiese permitido que los lectores
decidieran hasta qué punto el relato de Magueijo es el de un egocéntrico
inmaduro y equivocado o el de un hombre razonable abocado a la frustración.
[10]
El artículo de Magueijo y Albrecht fue finalmente publicado en 1999 por
Physical Review. Su conjetura podría llevar a una teoría más robusta si pudiera
realizar predicciones capaces de ser verificadas por la observación, pero
cualquier opinión al respecto debe esperar a la aparición tanto de más trabajo
teórico como de más evidencias observacionales.

El universo oscilante cíclico

La hipótesis de que el Big Bang surgió del colapso de un universo anterior


fue sugerida por Richard Tolman, del Instituto Tecnológico de California, en un
momento tan temprano como 1934. Se basó en otra solución a las ecuaciones de
la relatividad general de Einstein para el universo, que también asumió que era
isotrópico y omnicéntrico, pero cerrado en lugar de plano. Su solución muestra
un universo oscilante, que se expande, se contrae en un Big Crunch y luego
vuelve a expandirse, proceso que se repite ad infinitum. Cuando Tolman aplicó
al modelo la segunda ley de la termodinámica, descubrió que cada ciclo del
universo oscilante era mayor y duraba más tiempo que el anterior.[11]
La hipótesis cayó en desgracia por varias razones, sobre todo cuando los
cosmólogos llegaron a la conclusión de que las evidencias obtenidas mediante la
observación apoyaban el modelo del universo plano. Pero, como hemos visto, el
modelo del universo plano se topó con conflictos tan importantes al ser
contrastado con las evidencias obtenidas mediante la observación, que hubo que
incorporar la conjetura de la inflación además de cantidades inmensas de materia
oscura desconocida y de energía oscura desconocida.
La hipótesis de Tolman parece evitar el problema de la singularidad. Sin
embargo, si cada ciclo del universo oscilante es mayor y más prolongado, cada
ciclo precedente será menor y habrá durado menos tiempo. Si movemos el reloj
hacia atrás, llegará un punto en el tiempo cero en el que el ciclo se aproximará a
una insignificancia infinita y a una densidad infinita, es decir, las condiciones
que se conjeturan para la singularidad del Big Bang. De ahí que el modelo no sea
verdaderamente eterno y no evite el problema básico del origen: cómo y por qué
se origina una singularidad infinitamente pequeña y densa.
Además, nadie ha concebido hasta la fecha ningún medio que sirva para
observar o demostrar la existencia física de un universo previo del supuesto
ciclo. Hasta que no se consiga, esta conjetura deberá mantenerse también fuera
del terreno de la ciencia, tal y como la entendemos hoy en día.

La selección natural de universos

Lee Smolin es un teórico que no solo está preparado para pensar más allá de
las cuatro paredes de la ortodoxia, sino que además cree que es necesario para
que la física progrese. Su conjetura de una evolución de universos mediante
selección natural ha sido tomada muy en serio por diversos sectores de la
comunidad científica, razón por la cual merece la pena examinarla con cierto
nivel de detalle.
En 1974, John Wheeler especuló que el colapso del universo en un Big
Crunch podría conducir a un Big Bounce, o «gran rebote», en el que el universo
se reprocesara para producir un nuevo universo donde las leyes de la física
serían las mismas pero los parámetros físicos, como el de la masa de un protón o
la carga de un electrón, que las leyes no predicen, serían distintos.
Como vimos en el último capítulo cuando hablamos sobre el ajuste de
precisión de los parámetros cosmológicos, cambios muy pequeños pueden
producir universos muy distintos. Por ejemplo, si el único cambio fuera que los
protones son un 0,2 por ciento más pesados, no se formarían átomos estables y el
universo se mantendría en estado plasma; en consecuencia, nunca podría haber
evolucionado la materia compleja, como la del ser humano.
Llevando este concepto un paso más allá, Smolin lanza la conjetura de que
no es solo el colapso de un universo en un Big Crunch lo que produce otro
universo con parámetros distintos a través de un Big Bounce, sino que además el
colapso de una estrella en un agujero negro produce otro universo con
parámetros distintos al otro lado del agujero negro. Generaciones de universos
producidos de esta manera con parámetros aleatorios a partir de un universo
progenitor llevaría, mediante un proceso de selección natural similar al de la
biología,[12] a universos más adaptados para sobrevivir y capaces de permitir la
evolución de vida inteligente.[13]
Esta especulación se sustenta sobre ocho parámetros:
1. Los efectos cuánticos impiden la formación de una singularidad en la que
el tiempo se ponga en marcha o se detenga cuando un universo colapse en
un Big Crunch o una estrella colapse en un agujero negro, de tal modo que
el tiempo continúa en una nueva región de espacio-tiempo conectada al
universo padre solo en su primer momento.
2. Esta nueva región de espacio-tiempo donde el tiempo continúa después del
colapso de una estrella en un agujero negro es inevitablemente inaccesible
para nosotros pero «podría ser tan grande y tan variado como el universo
que podemos ver».
3. Debido a que nuestro universo visible contiene un número enorme de
agujeros negros, «debe de haber un número enorme de otros universos
[…], como mínimo tantos como agujeros negros hay en nuestro universo
[…] [además] si hay muchos más que esos, ¿por qué, entonces, cada uno
de estos universos no podría tener también estrellas que colapsan en
agujeros negros y engendran otros universos?».
4. Los parámetros del primer universo son tales que produce como mínimo
una descendencia de un universo.
5. Cada descendiente sucesivo produce al menos un vástago.
6. Los parámetros del nuevo universo formado por el colapso de un universo
o de una estrella son ligeramente distintos a los de su padre.
7. En el proceso aplican las reglas de la selección natural: el efecto
acumulativo de pequeñas mutaciones aleatorias en los parámetros de los
universos hijos acaba generando universos cuyos parámetros están mejor
adaptados para producir muchos agujeros negros —y de ahí, muchos
vástagos— hasta acabar en universos como el nuestro, que crea alrededor
de 1018 agujeros negros.
8. Los parámetros de universos como el nuestro, con cantidades tan grandes
de agujeros negros, están ajustados para la evolución de vida inteligente.

Estos supuestos no son ni mucho menos evidentes.


Smolin comparte el supuesto (1) con muchos otros teóricos, pero reconoce
que si esto corresponde o no a la realidad depende de los detalles de la teoría de
la gravedad cuántica, que no está completa.
El supuesto (2) parece poco razonable. Si la teoría actual de los agujeros
negros es correcta, los agujeros negros pueden tener una densidad enorme, si no
infinita, pero poseen una masa limitada. Por ejemplo, un agujero negro podría
estar formado por el colapso gravitacional de una estrella con una masa tres
veces superior a la de nuestro sol. Se estima que la masa de la materia luminosa
y de la hipotética masa oscura del universo es aproximadamente la de diez mil
millones de millones de soles. Incluso sin tener en cuenta la energía necesaria
para impulsar la expansión del nuevo universo, suponer que una masa de, por
ejemplo, cinco soles, colapsa en un agujero negro y explota hacia el otro lado
como una masa de diez mil millones de millones de soles, parece ilógico.
Probablemente, Smolin, al igual que Guth y otros teóricos,[14] está siguiendo las
ideas de Tolman, pero se muestra menos ambicioso y crea un nuevo universo a
partir de cinco masas solares en vez de hacerlo a partir de la nada.
En el supuesto (4), Smolin admite que si los parámetros del primer universo
fueran aleatorios es «más probable» (abrumadoramente probable, creo que sería
más adecuado) que en cuestión de microsegundos este primer universo se inflara
hacia el vacío o colapsara. Es decir, que el proceso evolutivo no empezara nunca.
Para evitar esto, Smolin asume que los parámetros del primer universo, y de los
universos posteriores, están afinados con precisión para que los universos
puedan experimentar al menos un rebote. Sin embargo, la única justificación que
ofrece para sustentar este supuesto es que es necesario para que su especulación
funcione. Y además, la especulación no explica cómo se originó este universo
progenitor. Lo cual le impide reivindicar un poder explicativo superior al que
pueda tener el modelo ortodoxo del Big Bang inflacionario.
El supuesto (8) implica que la física que maximiza la producción de agujeros
negros es la física que permite la evolución de la vida, pero Smolin no ofrece
ninguna base que sustente este supuesto.
Por lo que a su base empírica se refiere, esta especulación plantea la
existencia de un número enorme de universos que o han desaparecido o, en el
caso de existir todavía, nos resulta imposible comunicarnos con ellos. Smolin, de
todos modos, sostiene que su conjetura es verificable argumentando que predice
los parámetros de la ley de la física de las partículas elementales que se acercan a
un valor que maximiza el número de agujeros negros de nuestro universo. Se
trata de un argumento circular. La especulación no puede verificarse con ningún
método o medio conocido y de ahí que sea más una conjetura filosófica que
ciencia.

La gravedad cuántica de bucles

Igual que sucede con la conjetura de Smolin, la mayoría de las hipótesis


alternativas al modelo del Big Bang gestiona el problema de la singularidad
especulando que, si echáramos hacia atrás la expansión, los efectos cuánticos
impedirían la formación de una singularidad en la que el tiempo empieza o se
detiene. Intentan unificar la teoría cuántica y la teoría de la relatividad y
proponen un universo que colapsa al otro lado del Big Bang al cual está
conectado nuestro universo a través de un túnel cuántico. De ser así, echarían
por tierra la reivindicación principal del modelo del Big Bang, a saber, que el
espacio y el tiempo surgieron en el Big Bang a partir de la nada.
Un problema importante, que tanto Smolin como otros cosmólogos
reconocen, es que todavía no disponemos de una teoría adecuada de la gravedad
cuántica.

Gravedad cuántica: la esperada teoría de la gravedad cuántica que


permitiría que la energía gravitatoria se unificara con otras formas de
energía en único marco teórico cuántico.

Teoría cuántica: la teoría de que la energía es emitida y absorbida por la


materia en cantidades minúsculas y discretas, cada una de las cuales se
conoce como un cuanto que está relacionado con la frecuencia de
radiación de la energía y, por consiguiente, posee propiedades tanto de las
partículas como de las ondas. Dio lugar a la mecánica cuántica. El
término se utiliza ahora en general para hacer referencia a todos los
desarrollos teóricos subsecuentes.

Abhay Ashtekar, sin embargo, declara con osadía que él y sus colegas del
Penn State Institute of Gravitational Physics and Geometry han sido los primeros
en ofrecer una descripción matemática robusta que establece sistemáticamente la
existencia de un universo colapsado previo y deduce propiedades de geometría
espacio-tiempo en dicho universo. Ashtekar y su equipo utilizan un enfoque
denominado gravedad cuántica de bucles en el afirman demostrar que en vez del
clásico Big Bang, lo que se produce es un rebote cuántico, al otro lado del cual
hay un universo clásico como el nuestro.
Ashtekar reconoce una limitación en su modelo, a saber, los supuestos de que
el universo es homogéneo e isotrópico. «Es una aproximación que se hace en
cosmología, aunque sabemos que el universo no es exactamente así. Así que la
pregunta es cómo conseguir que el modelo sea cada vez más realista. Y eso es
precisamente en lo que estamos trabajando».[15]
El jurado está evaluando el modelo matemático, pero aun en el caso de que el
veredicto emitido fuera «queda demostrado», la ciencia exigiría evidencias
físicas que sustentaran cualquier prueba matemática, y nadie ha sugerido todavía
cómo dichas evidencias podrían obtenerse.

La cosmología de estado cuasi-estacionario

En 1993, Fred Hoyle, Geoffrey Burbridge y Jayant Narlikar modificaron la


teoría del estado estacionario a partir de las observaciones y presentaron lo que
denominaron cosmología de estado cuasi-estacionario (CECE o QSSC, del
inglés «Quasi-Steady State Cosmology»), que defiende que en el plazo de mil
miles de millones de años el universo se expande hasta alcanzar un estado
estacionario, pero que lo hace en ciclos de cincuenta miles de millones de años
de expansión y contracción en los que la contracción nunca llega a cero, es decir,
a una singularidad.
Este equipo de astrónomos y astrofísicos postula que el responsable tanto de
la creación contínua de materia como de la expansión del universo es un campo
universal de creación, al que denominan campo C. El campo C tiene energía
negativa y crea materia en forma de partículas de Planck, la partícula elemental
con el máximo de masa posible: con una masa superior a esta, una partícula
elemental quedaría superada por su propia fuerza gravitacional y colapsaría en
un agujero negro.[16]
El campo C solo tiene la fuerza necesaria para crear partículas de Planck
cuando se encuentra cerca de unos objetos muy masivos, compactos y densos,
que el equipo denomina agujeros casi negros (ACN o NBH, del inglés «near
black holes»), que se encuentran en el centro de las galaxias. Se forman cuando
la fuerza creciente del campo C impide que un objeto celeste en contracción
alcance un radio de 2GM/c2, después de lo cual se convertiría en un agujero
negro. Lo que hace entonces el objeto en contracción es ralentizarse hasta
detenerse y empezar a rebotar contra el radio del agujero casi negro. Aquí, la
fuerza del campo C es lo bastante potente como para crear partículas de Planck,
de aproximadamente un centenar de milésimas de gramo, en un mini-bang no
singular o evento de creación de materia (ECM o MCE, del inglés «matter
creation event»). Dichas partículas se desintegran luego en muchas partículas
más pequeñas, incluyendo entre ellas bariones (como protones y neutrones) y
leptones (como electrones y neutrinos), con la producción de radiación, para
formar la materia a partir de la cual evolucionan las galaxias.
El campo C cobra fuerza cuando crea materia, incrementando tanto la
producción de materia como de radiación. Sin embargo, la energía negativa del
campo C actúa como fuerza repulsiva que expulsa del agujero casi negro la
materia y la radiación recién creadas, por lo que podría considerarse como un
«agujero blanco».
En el modelo de la cosmología de estado cuasi-estacionario, la constante
cosmológica es negativa, mientras que en el modelo ortodoxo es positiva. Por lo
tanto, la materia y la radiación que se crean están sujetas a las dos fuerzas de
atracción de la gravedad y de la constante cosmológica y a la fuerza repulsiva
del campo de creación. La que domina de entrada es esta última, y la materia y la
radiación se ven expulsadas del agujero casi negro a altísima velocidad, lo que
provoca la expansión del universo.
Cuando la materia se expande la densidad disminuye y, con ella, la fuerza del
campo C, hasta el punto que ya no puede seguir creando partículas de Planck.
Las fuerzas de atracción de la gravedad y de la constante cosmológica pasan a
ser dominantes y hacen que el universo se contraiga. Y cuando se contracta hasta
alcanzar una densidad lo bastante elevada, el campo C adquiere la fuerza
suficiente como para crear nueva materia y se inicia el siguiente ciclo.[17]
Cuando la base teórica de todo esto se vió cuestionada, Hoyle destacó con
ironía en una reunión de la Royal Astronomical Society que tuvo lugar en
Londres en diciembre de 1994, que las ecuaciones relevantes de la cosmología
de estado cuasi-estacionario son las mismas que las ecuaciones de la inflación
correspondientes si se sustituye la letra griega «Φ» por la letra «C».
Los defensores de la cosmología de estado cuasi-estacionario defienden que
solo exige un supuesto, el campo C, y que el resto se obtiene a partir de la
observación y queda explicado por la física normal, a diferencia del modelo
ortodoxo, que tiene que recurrir a ideas como la de una era de gravedad cuántica,
un campo de inflación, teorías de gran unificación, materia oscura desconocida y
energía oscura desconocida para mantener la idea del Big Bang y la consistencia
con las observaciones.
Además, mientras que el Big Bang se produce una única vez y no puede ser
observado, los eventos de creación de materia se producen constantemente y
pueden ser observados en los chorros de plasma de las fuentes de radio y en
explosiones de energía en forma de radio, rayos infrarrojos, visibles, ultravioleta
y gamma de las zonas cercanas al centro de las galaxias. (La cosmología
ortodoxa interpreta estas observaciones como emisiones de cuásares en las que
la materia es absorbida por un agujero negro que se encuentra en el centro de
galaxias muy remotas y, por lo tanto, muy jóvenes, véase página 146).
Sus defensores defienden además que la cosmología de estado cuasi-
estacionario ofrece una explicación mejor que la del modelo ortodoxo para otras
observaciones. Por ejemplo, los cosmólogos ortodoxos aceptan la teoría de la
nucleosíntesis estelar avanzada por Hoyle y sus colegas para explicar cómo
todos los elementos, además del litio, se originan a partir de estrellas, pero
afirman que solo el modelo ortodoxo demuestra que la cantidad observada de
helio se corresponde con la generada a partir de la bola de fuego del Big Bang.
Burbidge y Hoyle contraatacaron diciendo que es ilógico pensar que el helio
pueda crearse mediante un método distinto: todos los elementos se originan a
partir de estrellas, y la cantidad de helio observada en la actualidad incluye el
helio producido en la escala de tiempo del universo de la cosmología de estado
cuasi-estacionario, mucho más extensa que los 13,7 miles de millones de años
defendidos (entonces) por la cosmología ortodoxa.
Por otro lado, los cálculos muestran que la termalización de la energía
irradiada por la producción estelar de helio genera casi exactamente la
temperatura de 2.73 K del espectro de cuerpo negro del fondo cósmico de
microondas (FCM) observada en la actualidad.[18] La termalización se consigue
mediante la absorción de esta energía irradiada y la emisión de longitudes de
onda milimétricas que producen las partículas de hierro en forma de aguja del
medio intergaláctico. Estas agujas son resultado de explosiones de supernovas
que expulsan átomos vaporizados de hierro que se enfrían y se condensan en
forma de agujas minúsculas, no de bolas, tal y como se ha demostrado
experimentalmente; este polvo de agujas es un absorbente y un emisor efectivo
de radiación con longitudes de onda milimétricas.
La evidencia de este polvo de agujas la proporciona la radiación del púlsar
del Cangrejo, que muestra un vacío en su espectro en longitudes de onda
milimétricas; la cosmología de estado cuasi-estacionario lo achaca a la absorción
del polvo de agujas de hierro producido por la supernova del Cangrejo que dio
como resultado el púlsar del Cangrejo. Un vacío similar aparece en el espectro
de emisión del centro de nuestra galaxia, donde la actividad supernova se supone
intensa.
La cosmología de estado cuasi-estacionario explica que las heterogeneidades
del fondo cósmico de microondas reflejan las heterogeneidades de la
distribución del cúmulo galáctico en la fase de contracción mínima del ciclo
anterior.
Mientras que la cosmología ortodoxa tiene que invocar un cambio arbitrario
en su constante cosmológica positiva para explicar el desplazamiento al rojo de
las supernovas Tipo 1a, en la cosmología de estado cuasi-estacionario la
constante cosmológica negativa se mantiene constante; estas supernovas
aparecen más débiles de lo esperado porque su luz queda parcialmente absorbida
por el polvo de agujas de hierro.
Narlikar y Burbridge defienden que la observación astronómica acabará
demostrando qué modelo refleja la realidad. La cosmología de estado cuasi-
estacionario predice objetos muy débiles con desplazamiento al azul, que son
fuentes de luz en el ciclo previo, cuando el universo era más grande que ahora; el
modelo ortodoxo no los predice.
La cosmología de estado cuasi-estacionario predice además la existencia de
galaxias muy jóvenes formadas a partir de materia expulsada por el campo C en
el transcurso de eventos de creación de materia relativamente recientes, mientras
que el modelo del Big Bang defiende que las galaxias muy jóvenes tienen que
ser muy remotas porque se formaron en la primera época del universo. Narlikar
y Burbridge defienden que las observaciones astronómicas apoyan la predicción
de la cosmología de estado cuasi-estacionario. Esto, sin embargo, depende de la
interpretación de los desplazamientos al rojo.[19]
La cosmología de estado cuasi-estacionario predice asimismo la existencia de
estrellas muy antiguas formadas en el ciclo anterior. Por ejemplo, una estrella de
la mitad de la masa solar formada entre cuarenta y cincuenta miles de millones
de años debería ser ahora una gigante roja. En consecuencia, si se detectaran
gigantes rojas con poca masa, quedaría confirmada la cosmología de estado
cuasi-estacionario. El modelo ortodoxo, por otro lado, afirma que no puede
existir materia anterior al Big Bang que se produjo hace 13,8 miles de millones
de años.
Narlikar y Burbridge lamentan que los defensores de la cosmología de estado
cuasi-estacionario no disponen del tiempo que les gustaría para poder trabajar
con telescopios, tipo el telescopio Hubble, y poder de este modo probar sus
afirmaciones; los astrónomos ortodoxos defensores del Big Bang monopolizan
los instrumentos, lo cual no es compatible con una investigación científica de
carácter abierto.
Los defensores del modelo ortodoxo de la cosmología rechazan la
cosmología de estado cuasi-estacionario. Ned Wright, profesor de Astronomia de
UCLA y científico de los proyectos COBE y WMAP, argumenta que el modelo
de la cosmología de estado cuasi-estacionario es incompatible con los datos
observados, y muy en particular con los cálculos relacionados con fuentes de
radiación intensas, y sostiene que la afirmación de que el modelo coincide con
los datos del fondo cósmico de microondas es falsa. Además, asevera que el
artículo escrito en 2002 en el que se afirmaba que el modelo de la cosmología de
estado cuasi-estacionario explica mejor los datos de las supernovas Tipo 1a,
requiere que el universo tenga una opacidad óptica elevada, mientras que otro
artículo del mismo año que defendía la conformidad del modelo con la
anisotropía del fondo cósmico de microondas requiere una opacidad baja. «Estos
artículos fueron publicados en distintas revistas y se refieren mutuamente como
ejemplos de cálculos correctos del modelo de la cosmología de estado cuasi-
estacionario, cuando en realidad se contradicen. Se supone que es un intento
deliberado de engañar al lector informal».[20]
La incorporación innecesaria de un ataque por un supuesto engaño por parte
de Narlikar y Burbridge es un triste reflejo de la actitud que a menudo exhiben
los creyentes en modelos cosmológicos distintos. Sin duda alguna, este tipo de
reivindicaciones y reconvenciones seguirá existiendo mientras existan creyentes.
Pero esta en concreto no durará mucho tiempo. Fred Hoyle falleció en 2001 y
Geoffrey Burbridge en 2010, y Halton Arp nació en 1927 y Jayant Narlikar en
1938. Las generaciones de cosmólogos más jóvenes se han criado con las
creencias ortodoxas y, para la inmensa mayoría, la investigación de vías
alternativas ha dejado de ser una opción para hacer carrera académica en el
mundo de la cosmología.

La cosmología del plasma


Eric Lerner, físico del plasma, publicó en 1991 un libro titulado The Big
Bang Never Happened, en el que recopilaba evidencias obtenidas a partir de la
observación que contradicen el modelo ortodoxo de la cosmología. Sostiene que
ese modelo es un mito renovado de un universo creado a partir de la nada que
viola una de las leyes de la física más comprobadas, el principio de conservación
de la energía. Y que además, con el fin de reconciliar el modelo matemático con
la observación, exige la presencia de tres importantes conjeturas —un campo de
inflación, materia oscura y energía oscura— que carecen de base empírica.
Basándose en el trabajo de Hannes Alfven, físico del plasma y laureado con
un premio Nobel, Lerner propone una cosmología que, según él, representa
observaciones astronómicas realizadas a partir de la física del plasma y la
gravedad, ambas empíricamente demostradas. Asume para el universo, igual que
los defensores del modelo ortodoxo, una geometría euclidiana, o plana, que ya
conocemos (véase figura 3.2), pero propone que no tiene ni principio ni fin y que
tampoco se expande.
Según Lerner, dentro de este universo sin expansión, la teoría de la
filamentación del plasma predice la creación de estrellas de masa intermedia
durante la formación de galaxias así como la observada abundancia de los
elementos ligeros. Las estructuras a gran escala —como las galaxias, los
cúmulos y los supercúmulos—, se forman a partir de vórtices de filamentos
comprimidos magnéticamente y ya que la conjetura propone que el universo no
tuvo un principio, el tiempo que necesitan las estructuras a gran escala
observadas para evolucionar a partir del desordenado plasma inicial, no tiene
límite.
La radiación emitida por las primeras generaciones de estrellas proporciona
la energía necesaria para la aparición de eventos de creación de materia. La
densa maraña de filamentos de plasma comprimidos magnéticamente que
impregna el medio intergaláctico termaliza e isotropiza esta energía. Lo cual
cuadra adecuadamente con el espectro del fondo cósmico de microondas y
predice la absorción observada de ondas de radio. Además, el ajuste con la
anisotropía del fondo cósmico de microondas, que contradice la cosmología
ortodoxa, queda explicado porque la densidad de los filamentos absorbentes es
superior localmente a lo largo del eje del supercúmulo local e inferior en los
ángulos rectos con respecto a este eje.[21]
Sospecho que muchos cosmólogos ortodoxos califican a Lerner de científico
poco serio porque no es un académico. Es presidente de Lawrenceville Plasma
Physics Inc. (compañía dedicada a la investigación de la energía de fusión),
miembro del Institute of Electrical and Electronic Engineers, de la American
Physical Society y de la American Astronomical Society, y ha publicado más de
seiscientos artículos. Las evidencias que cita incluyen muchos artículos de
astrónomos del ámbito académico y en 2014 publicó un artículo en coautoría con
dos de estos astrónomos donde se compara el tamaño y la luminosidad de
alrededor de un millar de galaxias cercanas y extremadamente remotas.[22]
Afirma que los resultados contradicen la luminosidad de superficie predicha por
un universo en expansión y que son consistentes con un universo que no se
expande.
Lo que podría denominarse modelo de universo estático evolutivo de la
cosmología de plasma propone un universo eterno y, a diferencia de la
cosmología de estado cuasi-estacionario, no requiere la creación de materia a
partir de la nada. Explica la evolución observada del universo como una
interacción de fuerzas físicas conocidas: electromagnetismo, gravedad y
reacciones nucleares dentro de las estrellas y en rayos cósmicos. Sin embargo, en
su desarrollo hasta el momento, no explica qué fue lo que provocó la existencia
del plasma desordenado inicial de este universo eterno y qué fue lo que provocó
la existencia de estas fuerzas físicas conocidas y las llevó a interactuar para que
produjeran estados de materia más ordenados y complejos.

La quintaesencia

Paul Steinhardt, profesor Albert Einstein de Ciencias de la Universidad de


Princeton, es otro cosmólogo dispuesto a pensar más allá de las cuatro paredes
de la ortodoxia. En vez de utilizar, para un periodo de tiempo increíblemente
breve, una constante arbitraria, Lambda, con un valor muy distinto del que
descartó Einstein o el que introdujeron los inflacionistas, Steinhardt propuso que
la energía oscura supuestamente responsable del aparente aumento en el ritmo de
expansión del universo es en realidad un nuevo componente del universo.
Puesto que los cosmólogos ya habían considerado previamente que la
evolución del universo estaba determinado por cuatro componentes —bariones,
[23] leptones,[24] fotones[25] y materia oscura[26]—, Steinhardt decidió
ponerle el nombre de quintaesencia a este quinto elemento, rememorando la
quinta esencia superior en la que creían los antiguos griegos y que consideraban
el elemento del que estaba constituida la esfera celestial, a diferencia de los
cuatro elementos básicos: tierra, aire, fuego y agua.
Su principal diferencia con respecto a Lambda es que, mientras que la
constante cosmológica tiene el mismo valor en todo el espacio y es inerte, la
densidad de la quintaesencia disminuye lentamente con el tiempo y su
distribución en el espacio no es uniforme. Los cosmólogos ortodoxos criticaron
la quintaesencia destacando que las observaciones obtenidas hasta la fecha no
mostraban evidencias de variaciones temporales o espaciales en la energía
oscura. Lo cual descarta algunos modelos de quintaesencia pero, según
Steinhardt, sigue dando cabida a un amplio abanico de posibilidades.[27]
Sería más elegante un nuevo modelo que eliminara un Lambda arbitrario con
un valor cincuenta veces inferior a la Lambda arbitraria del modelo
inflacionario. Sin embargo, igual que sucede con el modelo ortodoxo, los
modelos de quintaesencia no consiguen explicar de dónde proviene esta energía
oscura variable.
Posteriormente, Steinhardt y otros desarrollaron un modelo alternativo del
universo que dice proporcionar esta explicación. Lo examino a continuación.

El universo ecpirótico cíclico[28]

Esta alternativa al modelo cosmológico ortodoxo se basa en la teoría M, la


última versión de la teoría de cuerdas, que afirma que todo en el universo se
reduce a cuerdas de energía infinitamente pequeñas. Las distintas masas y
propiedades, tanto de las partículas elementales —electrones, neutrinos, quarks,
etc. — como de las partículas de fuerza asociadas a las cuatro fuerzas de la
naturaleza —las fuerzas fuertes y débiles, el electromagnetismo y la gravedad—,
son simplemente un reflejo de las distintas formas de vibración de estas
minúsculas cuerdas unidimensionales.
La teoría M permite que las cuerdas se expandan, y una cuerda expandida se
conoce como una brana (una abreviatura de membrana); estas branas pueden
tener 0, 1, 2, 3 o cualquier cantidad de dimensiones. Con la energía suficiente,
una brana puede alcanzar un tamaño enorme y ser incluso tan grande como
nuestro universo.
En 1999, Steinhardt y Neil Turok, entonces profesor de Física matemática en
la Universidad de Cambridge, asistieron en esa universidad a una conferencia de
cosmología en la que Burt Ovrut, teórico de cuerdas de la Universidad de
Pensilvania, sugirió que nuestro universo consiste en tres grandes dimensiones
espaciales observables (altura, anchura y longitud) en una brana, y seis
dimensiones espaciales adicionales compactadas, demasiado pequeñas para ser
observadas, más una décima dimensión espacial —una línea finita— que separa
esta brana de la brana de otro universo, que tiene también tres dimensiones
espaciales grandes y seis dimensiones compactadas minúsculas. Como que ese
otro universo ocupa dimensiones distintas, queda oculto a nuestra percepción. Lo
cual planteó la pregunta de cómo podrían interactuar dos universos de este estilo.
Steinhardt y Turok llegaron a la conclusión de que si esa décima dimensión
espacial que separa los dos universos se contrajera hasta cero, la interacción
liberaría una cantidad de energía enorme, como la que se liberó en el Big Bang;
además, creyeron que un escenario de universos en colisión podría responder
algunos de los problemas del modelo del Big Bang inflacionario de la
cosmología ortodoxa. Los tres científicos, más Justin Khoury, uno de los
estudiantes graduados de Steinhardt, desarrollaron entonces el modelo del
universo ecpirótico, llamado así por la palabra griega que significa «salido del
fuego» y que describe una antigua cosmología estoica en la que el universo
experimenta un ciclo eterno de ardiente nacimiento, enfriamiento y
renacimiento.
Este modelo ecpirótico encontró también problemas y Steinhardt y Turok lo
desarrollaron para producir una versión cíclica que tiene el ambicioso objetivo
de explicar «toda la historia del universo, pasada y futura, bajo un punto de vista
eficiente y unificado».[29] Lo basaron en tres ideas:

a. El Big Bang no es el inicio del tiempo sino una transición a partir de una
fase anterior de evolución.
b. La evolución del universo es cíclica.
c. Los hechos clave que conformaron la estructura del universo se produjeron
durante una fase de contracción lenta de la décima dimensión antes del Big
Bang y no durante un periodo increíblemente breve de expansión
inflacionaria después del Big Bang.

La construcción de su modelo matemático se basó en tres supuestos. Los dos


primeros son los siguientes:

1. La teoría M es válida. En particular, las partículas observables de nuestro


universo —protones, electrones, etc. — están en nuestra brana: cualquier
partícula que se encuentre en la brana del otro universo puede interactuar
gravitacionalmente con partículas de nuestra brana, pero no
electromagnéticamente ni de ninguna otra manera.
2. Las dos branas se atraen mutuamente mediante una fuerza similar a la de
un muelle que es muy débil cuando las dos branas están a una distancia de
miles de unidades de longitud de Planck (que sigue siendo una distancia
increíblemente pequeña), como sucede en la actual fase de evolución del
universo, pero cuya fuerza aumenta a medida que las branas se acercan.
La figura 5.3 ilustra el ciclo.
«Usted está aquí» indica la fase actual del ciclo (la brana de la derecha es una
representación bidimensional de las tres dimensiones observables de nuestro
universo). La energía oscura dinámica (la quintaesencia) incrementa el ritmo de
expansión del universo de tal modo que, en el transcurso del próximo millón de
millones de años, toda la materia y la radiación se diluirán exponencialmente
hasta que la densidad de la materia sea inferior a un único electrón por mil
millones de millones cúbicos de años luz de espacio: en efecto, cada brana es un
vacío casi perfecto y casi perfectamente plano.
En este punto, la fuerza de atracción entre branas toma el relevo. Al atraer las
dos branas, su fuerza aumenta y detiene la expansión acelerada de las branas. No
existe contracción de las tres dimensiones grandes de las branas, sino solo de la
décima dimensión adicional (una línea) que se sitúa entre ellas. A pesar de que
cada brana es un vacío casi perfecto, cada una de ellas posee una energía de
vacío enorme. A medida que se aproximan, los efectos cuánticos hacen que estas
branas planas se ondulen antes de establecer contacto y se separen con una
liberación explosiva de energía que sería el Big Bang; las dos branas rebotan y
alcanzan la separación máxima casi de inmediato. Puesto que el contacto se
produce primero entre los picos ondulados, la explosión de energía no es
exactamente homogénea: los puntos calientes corresponden a los picos
ondulados y los puntos fríos a las depresiones. Cuando la bola de fuego de
energía de cada brana se expande y se enfría, la materia se condensa fuera de los
puntos calientes y evoluciona en cúmulos galácticos, mientras que los puntos
fríos forman los vacíos intermedios.
Las branas se expanden a un ritmo decreciente, como en el modelo del Big
Bang, hasta que su densidad de energía queda lo suficientemente diluida para
que domine la densidad de energía potencial entre branas. Esta densidad actúa
como una fuente de energía oscura que acelera la expansión de las branas, con lo
que se vuelve al inicio y el ciclo continúa.
Pero a diferencia de lo que sucedía con los ciclos de Tolman, aquí no se
produce reciclaje de materia y la entropía no aumenta en cada ciclo; los ciclos
ecpiróticos de millones de millones de años se repiten eternamente.
Para que el modelo funcione se necesita un tercer supuesto.

3. Las branas sobreviven a la colisión. Esta colisión es una singularidad en el


sentido de que se produce la desaparición momentánea de una dimensión,
pero las demás dimensiones existen antes, durante y después de la colisión.

Steinhardt y Turok afirman que su modelo matemático posee todas las


ventajas del modelo ortodoxo del Big Bang inflacionario en cuanto a que predice
la producción de elementos en la proporción conocida hoy en día, un universo
observable que es casi homogéneo pero con heterogeneidades suficientes como
para que se formen cúmulos de galaxias mediante la atracción gravitacional de
materia y las ondas observadas en un fondo cósmico de microondas isotrópico.
Defienden que presenta la ventaja adicional de la parsimonia: requiere
modificaciones mínimas del modelo básico del Big Bang para ser consistente
con la observación. Las ondas de la materia y la energía de la radiación no
surgen de un añadido inflacionario, lo que invocaría una constante cosmológica
arbitraria, sino que están ya impresas en la liberación de energía del Big Bang
que produce la ondulación de la brana cuando las dos branas-universo vacías y
frías se aproximan entre sí antes de establecer contacto. La energía oscura no es
la reaparición inexplicable de la constante cosmológica con un valor
considerablemente inferior; sino que, como quintaesencia dinámicamente
evolucionada, juega un papel fundamental a lo largo de cada ciclo. El problema
de la singularidad no existe porque ni la densidad ni la temperatura llegan al
infinito durante la transición desde la colisión de las branas hasta el Big Bang.
Más aún, el modelo responde a la pregunta de cómo se iniciaron el tiempo y
el espacio en el Big Bang. No se iniciaron. Desde la perspectiva de nuestro
espacio de tres dimensiones y una sola dimensión temporal, «parecen» haberse
iniciado pero, en el megaverso de diez dimensiones espaciales en el que está
incrustado nuestro universo observable tridimensional, el espacio es infinito y el
tiempo es continúo: los ciclos se prolongan eternamente.
La respuesta a esta hipótesis que tantos problemas resuelve, aparentemente,
resulta reveladora, sobre todo teniendo en cuenta que Steinhardt había
desarrollado en un principio un modelo inflacionario.[30] En el transcurso de
una conferencia, Andrei Linde, fundador de una de las conjeturas inflacionarias
que el modelo ecpirótico desafía, dibujó la caricatura de uno de los gráficos en
forma de U utilizados por Turok y cortó por la mitad la U. En la conferencia de
la USA’s National Academic of Sciences de 2006, Alan Gurth, otro fundador de
la conjetura de la inflación, respondió a la presentación de Turok mostrando una
transparencia con un mono.[31] Respuestas de este estilo no cumplen con lo que
sería un debate razonable.
Para defender que el modelo del universo ecpirótico cíclico es fallido, otros
teóricos afirman que el tercer supuesto no es válido: argumentan que cuando las
branas entran en contacto, la dimensión extra que separa las dos branas pasa de
ser infinitamente pequeña a cero, se produce, pues, una singularidad y las leyes
de la física se desmoronan, como sucede en el modelo básico del Big Bang.
Steinhardt reconviene diciendo que, debido a las condiciones especiales que se
obtienen cuando las dos branas colisionan, no se produce ninguna singularidad,
mientras que otros teóricos especulan que las branas rebotan y se distancian
antes de la colisión, evitando con ello una singularidad.[32]
Actualmente es imposible establecer —matemáticamente o a cualquier otro
nivel— quién lleva la razón, del mismo modo que actualmente es imposible
establecer si en el modelo básico del Big Bang existe o no una singularidad.
Si el modelo del universo ecpirótico cíclico pretende satisfacer su ambicioso
objetivo de explicar la historia del universo, tanto pasada como futura, con un
enfoque eficiente y unificado, deberá responder a cinco preguntas.
En primer lugar, ¿se conserva la energía? La materia y la energía de radiación
producidas por la colisión de las dos branas —una de las cuales crea el universo
que vemos ahora— no se transforman en nada. Al final del ciclo, permanecen en
su brana, aunque estresadas hasta tal nivel de dilución que sus componentes
quedan más allá de sus horizontes de contacto. En el ciclo siguiente, la colisión
de branas produce una nueva masa-energía que es exponencialmente mayor a la
producida en el ciclo anterior.
Según Steinhardt y Turok, esto no viola el Principio de conservación de la
energía. Igual que en las otras conjeturas en competencia —a excepción de la
cosmología del plasma—, el modelo del universo ecpirótico cíclico afirma
funcionar con gravedad: la energía necesaria para producir continuamente nueva
materia y nueva energía de radiación, además de la energía cinética positiva
necesaria para expandir esta materia casi infinitamente densa contra la atracción
gravitatoria de sus componentes, proviene del campo de energía gravitatoria
negativa que aumenta con cada ciclo. Ya he cuestionado la validez de este
argumento al hablar sobre la energía neta cero del universo en el capítulo 4.[33]
Depende del supuesto de que el cosmos se creó a partir de la nada; asume
además que la gravedad es una fuente de energía infinita.
En segundo lugar, ¿describe el modelo de universo ecpirótico cíclico un
universo eterno? Parece que sí, teniendo en cuenta que realiza dos supuestos
adicionales:

4. Las tres dimensiones espaciales que observamos pueden expandirse,


detenerse y expandirse más en el ciclo siguiente, sin límite alguno de
distancia; y
5. el número de ciclos es ilimitado.
Las ecuaciones permiten estos supuestos. Pero hacerlo significa extrapolar
teoría física basada en la evidencia no solo más allá de lo que es verificable, sino
también hasta el infinito; sacan el modelo del ámbito de la ciencia para
convertirlo en una conjetura filosófica.
Además, los supuestos cuarto y quinto plantean la pregunta de qué sucede si
hacemos retroceder los ciclos hasta el punto en que se inició la expansión. En
2004, Steinhardt y Turok sugirieron que «la historia más probable es que los
ciclos estuvieran precedidos por un inicio singular»,[34] aunque posteriormente
Steinhardt dijo que eliminaría las palabras «más probable» porque los
argumentos que había utilizado eran débiles. La respuesta a la pregunta sobre si
el modelo es realmente eterno permanece abierta.[35] Pero no puede ser eterno
si el universo aumenta de tamaño en cada ciclo porque si retrocedemos en el
tiempo, llegaríamos al punto en que la expansión sería infinitamente pequeña, lo
que daría lugar a una singularidad inicial.
Si hubo un inicio singular, Steinhardt y Turok consideran un efecto
denominado «túnel a partir de nada», una forma de crear cuánticamente espacio,
tiempo, materia y energía, todo en uno.[36] Pero esto dependería de la existencia
previa de un campo cuántico, lo cual no es «nada».
La tercera pregunta es: ¿cuál es la naturaleza de la fuerza que se produce
entre las branas, que sería similar a la que ejercería un muelle, y que actúa en esa
hipotética décima dimensión, y cómo podría verificarse su existencia? No
tenemos información al respecto.
El cuarto conjunto de preguntas sería: ¿por qué dos branas-universo distintas
tendrían que estar tan cerca la una de la otra y, además, colocadas en paralelo?
Se trata de un supuesto matemáticamente exigido para que se cumpla la teoría
M, donde la décima dimensión espacial es una línea que une dos branas cuya
existencia es necesaria para que existan partículas con distintas propiedades de
espín. En efecto, las dos branas-universo comparten esta décima dimensión. Lo
que implica que el universo va necesariamente por parejas. ¿Pero por qué tendría
que ser así, excepto para que la teoría M sea consistente con la evidencia de que
existen partículas con distintas propiedades de espín? En principio, la longitud
de esta línea de la décima dimensión no tiene límite; en la práctica, no puede
tener más de un milímetro pues, de lo contrario, la teoría M produce efectos
gravitatorios inconsistentes con lo que observamos. Witten y Horava sugirieron
que, para que la teoría M sea consistente con la observación, la dimensión
adicional tendría que ser de unas diez mil unidades de Planck (10-28
centímetros), y esta es la longitud que Steinhardt y Turok adoptaron como
hipótesis de trabajo. Y mantienen que las dos branas-universo son paralelas
porque curvarlas exigiría mucha energía y el ciclo repetitivo es lo que las
mantiene alineadas así.[37]
De ahí que la respuesta a este cuarto conjunto de preguntas dependa de la
quinta pregunta: ¿es válida esa teoría M en la que se basa todo? Consideraré esto
de aquí a dos secciones.
Steinhardt y Turok han dicho posteriormente que su modelo no se sustenta
sobre la teoría M. El modelo funciona cuando eliminamos las seis dimensiones
espaciales, demasiado pequeñas para ser observadas, y sustituimos la décima
dimensión espacial (la distancia entre las branas en la teoría M) por un campo
escalar que desempeña el mismo papel. El resultado es un modelo matemático
que no es precisamente más exótico que los modelos de la inflacion.[38] Y
tampoco es empíricamente más verificable que muchos modelos inflacionarios
basados en un campo escalar igualmente arbitrario.

El paisaje de posibilidades de la teoría de cuerdas

A partir de la teoría de cuerdas surge otra conjetura. Leonard Susskind afirma


que no hay razón para limitar la vibración de las cuerdas de energía fundamental
para que produzcan solo aquellas partículas y fuerzas que nosotros observamos.
En una miríada de universos distintos, las cuerdas vibran de formas distintas
para producir una miríada de partículas y fuerzas distintas y, en consecuencia,
una miríada de leyes físicas distintas y constantes cosmológicas distintas, etc.
Susskind lo denomina el «paisaje de posibilidades» de la teoría de cuerdas.[39]
[40]
Esto respondería al problema de afinación de los parámetros cosmológicos:
¿por qué nuestro universo emergió tal y como es cuando podría haber sido de
otra manera? El paisaje de posibilidades de la teoría de cuerdas significa que
nuestro universo no tiene nada de especial. Es simplemente un universo donde
las cuerdas vibran de tal manera que generan las leyes de la física y las partículas
que observamos; en una miríada de universos más, son distintas.

Problemas de la teoría de cuerdas

Una teoría que unifica partículas y fuerzas elementales, incluida la gravedad,


y la teoría cuántica y la de la relatividad es el santo grial de la física. La teoría de
cuerdas, que afirma hacer eso sustituyendo las sesenta y una partículas
«elementales» del Modelo Estándar de la Física de Partículas por una cuerda de
energía, e incorporando la gravedad, ha atraído a las mentes más brillantes de la
física teórica, y no solo por su innegable atractivo conceptual sino también por
su elegancia matemática. Era aparentemente el presagio de una nueva era en la
física (una conferencia sobre teoría de cuerdas que se celebró en Harvard llevaba
el nombre de Seminario de física postmoderna) y sus defensores están tan
convencidos de que es cierta, que los hay que incluso han dejado de lado la
norma de la verificación experimental u observacional para buscar solo la
demostración matemática.
Pero esto plantea una pregunta con la que ya nos hemos tropezado antes:
¿constituyen realmente una teoría científica esos diversos modelos matemáticos
(modelos que pueden emplear de inmediato menos o más dimensiones que las
tres dimensiones espaciales y la única dimensión temporal que percibimos)?
Según muchos y respetados teóricos (incluyendo entre ellos al Premio Nobel
Sheldon Glashow, al cosmólogo matemático Sir Roger Penrose y al físico
teórico y antiguo teórico de cuerdas Lee Smolin), la respuesta es no. Las bases
sobre las que se sustenta este punto de vista son las siguientes:

Teoría inadecuada

Las versiones iniciales de la teoría de cuerdas requerían veinticinco


dimensiones de espacio, una partícula que viajara a mayor velocidad que la luz y
partículas que nunca podían quedar en reposo.[41] Estas diferencias con el
mundo que observamos serían, a todas luces, un problema relevante para la
teoría.
En vista del escepticismo despertado entre los teóricos físicos, los pioneros
desarrollaron la teoría de cuerdas durante la década de los 70 y hasta 1984,
momento en el cual John Schwarz y Michael Green convencieron a Ed Whiten,
un destacado físico matemático, de que una teoría de cuerdas que utilizara nueve
dimensiones espaciales más la supersimetría —de ahí la «supercuerda»— era
una buena candidata para una teoría unificada del todo. De pronto, la teoría de
las supercuerdas se convirtió en el último grito de la física teórica.
Surgieron entonces cinco teorías de cuerdas matemáticamente consistentes,
cada una de las cuales postulaba la existencia de diez dimensiones: una de
tiempo, las tres dimensiones espaciales que observamos, y seis dimensiones
espaciales adicionales que son demasiado pequeñas como para poder ser
observadas. Pero algunas simetrías implicaban que las teorías de cuerdas no
podían explicar la existencia de partículas materia, como electrones y neutrinos,
con propiedades de espín a izquierda o a derecha (lo que se conoce como
quiralidad), tal y como exige la teoría cuántica. Además, la existencia de cinco
teorías distintas indicaba algún error. De modo que la teoría de cuerdas acabó
pasando de moda.
Witten «solucionó» este segundo problema en 1995, cuando propuso que las
cinco teorías podían unirse en una teoría M que incorporaba al modelo una
onceava dimensión. Esto permite que las cuerdas se expandan en una brana, que
puede tener todas las dimensiones que se deseen.[42] No existe ninguna
condición de simetría, lo que permite que en una brana exista un universo con
partículas con propiedades de espín a izquierda y derecha. La teoría de cuerdas
volvió a ponerse de moda.
Sin embargo, ni Witten ni nadie ha formulado todavía una teoría M más
elaborada. Tal y como Joan Magueijo, por aquel entonces profesor en el Imperial
College de Londres, expresó con su típica brusquedad, «la gente de la teoría M
lo afirma [que todas esas teorías de cuerdas y membranas se han unificado en un
único invento, la teoría M] con tal fervor religioso, que a menudo se pasa por
alto que la teoría M no existe. No es más que una expresión utilizada para
referirse a una teoría hipotética que en realidad nadie sabe cómo presentar».[43]
Incluso David Gross, Premio Nobel, destacado teórico de cuerdas y antiguo
mentor de Witten, reconoce que «estamos todavía muy lejos de entender qué es
realmente la teoría de cuerdas».[44]
La teoría afrontó un tercer problema importante en 1998, cuando muchos
cosmólogos, en su interpretación de la oscuridad de las supernovas Tipo 1a con
gran desplazamiento al rojo, llegaron a la conclusión de que el universo inició
una expansión acelerada después de unos diez mil millones de años, y que esto
exigía incorporar una constante cosmológica positiva al modelo matemático
ortodoxo.[45] Las teorías de las supercuerdas revisadas no solo no habían
predicho esto, sino que una de sus escasas conclusiones había sido que la
constante cosmológica solo podía ser igual a cero o negativa. Witten reconoció
en 2001: «No conozco ninguna manera clara de llegar al espacio de De Sitter [un
universo con una constante cosmológica positiva] a partir de una teoría de
cuerdas o una teoría M».[46]
Un grupo de teóricos de Stanford «solucionó» este tercer problema a
principios de 2003 cuando presentaron otra versión en la que, entre otras cosas,
envolvían teóricamente con antibranas las seis dimensiones no observables y
elegían valores de parámetros que producían una constante cosmológica
positiva.
Sin embargo, tanto el resultado de este como de otros trabajos implica la
existencia de 10.500, o una infinidad, de teorías de cuerdas. Susskind reconoció
que «Podríamos decir que la esperanza de que surja una solución
matemáticamente única [a partir de este paisaje de teorías de cuerdas] es un acto
de fe similar al del DI [Diseño Inteligente]».[47] Lo cual sitúa la teoría M,
subyacente en el modelo, en el ámbito de la fe, no en el de la ciencia. Y por lo
que a la teoría de las supercuerdas se refiere, si existen infinitas versiones no hay
entonces ninguna que pueda falsarse, lo que la llevaría a no superar el test de
Popper, sobre lo que constituye una hipótesis científica.
En 2003, Dan Frieda, teórico de cuerdas desde 1985, llegó a la conclusión de
que «la teoría de cuerdas, tal y como se presenta en la actualidad, es incapaz de
ofrecer explicaciones precisas a los conocimientos que tenemos del mundo real y
es incapaz de realizar predicciones precisas. La fiabilidad de la teoría de cuerdas
no puede evaluarse, y mucho menos establecerse. La teoría de cuerdas, tal y
como está actualmente, no posee credibilidad para ser candidata a teoría fisica».
[48]
Según Smolin, «la búsqueda por parte de la teoría de cuerdas de una teoría de
la naturaleza única y unificada ha llevado a conjeturar un número infinito de
teorías, ninguna de las cuales puede exponerse con detalle. Y si son consistentes,
conducen a un número infinito de universos posibles. Además de esto, todas las
versiones que podemos estudiar con cierto nivel de detalle discrepan de la
observación. […] Los que creen en estas conjeturas se hallan en un universo
intelectual muy distinto al de aquellos que insisten en creer solo lo que las
evidencias sustentan».[49]
Estos universos distintos están separados por algo más que una diferencia de
puntos de vista con respecto a la necesidad de base empírica. Según Smolin y
Peter Woit,[50] el dominio de los teóricos de cuerdas en los comités estado que
deciden los nombramientos y las becas académicas en los Estados Unidos en el
campo de la física teórica dificulta que enfoques alternativos obtengan
subvenciones. Dibujan la imagen de un culto que lleva a cabo prácticas dudosas
para acallar las opiniones discordantes de otros físicos. La amargura de las
disputas entre los teóricos de cuerdas y sus críticos queda ejemplificada con la
denigración que supuso la crítica que el profesor adjunto de Harvard, Lubos
Motl, realizó en Amazon.com del libro que Smolin publicó en 2006, Las dudas
de la física en el siglo XXI: ¿es la teoría de cuerdas un callejón sin salida?.[51]
Woit contratacó el comentario con otra crítica, alegando que la crítica de Motl
era deshonesta y acusando a Motl de haber ofrecido veinte dólares a todo aquel
que publicara un comentario de su propio libro con la máxima puntuación.
Transcurrida una semana, Amazon eliminó ambas críticas.

Falta de base empírica

Una teoría en la que llevan trabajando los mejores cerebros del campo de la
física desde hace más de treinta años debería haber conseguido una base
empírica importante. Sin embargo, una cuerda es cien mil millones de millones
de millones más pequeña que los protones del núcleo de un átomo. Dicho de otro
modo, si escaláramos un átomo al tamaño del sistema solar, una cuerda tendría el
tamaño de una casa. Lo cual significa que no existe por el momento forma
alguna de poder detectar cuerdas.
De todas maneras, defensores de la teoría de cuerdas, como Brian Green,
creen —el verbo «creer» se utiliza más de lo que cabría esperar en las
publicaciones científicas y en las entrevistas a científicos especialistas— que las
predicciones de la teoría son validables. Uno de los requisitos de las teorías de
las supercuerdas es la supersimetría, que afirma que para cada partícula
subatómica que conocemos, como podría ser un electrón o un protón, existe una
pareja mucho más potente denominada «super compañera». Pero la
supersimetría no depende de la teoría de cuerdas —hay otras hipótesis, como la
extensión supersimétrica mínima del Modelo Estándar y la gravedad cuántica de
bucles que la exigen o son compatibles con ella[52]— y, en consecuencia, no es
una predicción única cuya confirmación validaría la teoría de cuerdas. Además,
nadie ha detectado nunca una súper compañera. A pesar de que hay
investigadores que albergan esperanzas, parece poco probable que ni siquiera el
renovado Gran Colisionador de Hadrones, que en 2015 inició operaciones de
energía mucho más potentes, pueda conseguirlo.
La predicción fundamental de la teoría de las supercuerdas por lo que
respecta al origen de nuestro universo es que existen otras dimensiones con las
que no podemos comunicarnos. Greene cree que es una predicción demostrable,
incluso validable, utilizando otra predicción de las teorías de las supercuerdas,
esta vez sobre los gravitones, hipotéticas partículas desprovistas de masa que
transmitirían la fuerza de gravedad. Las teorías de las supercuerdas defienden
que si en nuestro universo la gravedad es tan débil en comparación con las
demás fuerzas de la naturaleza, es porque las cuerdas de las que consisten los
gravitones son bucles cerrados que no están confinados a la brana en la que
existe nuestro universo de tres dimensiones espaciales observables: un gravitón
puede moverse hacia otras dimensiones. Por lo tanto, si un detector de partículas
observara la desaparición repentina de un gravitón, habría una base experimental
suficiente para sustentar la predicción de la teoría de cuerdas sobre la existencia
de dimensiones adicionales. Sin embargo, nadie ha detectado todavía un
gravitón, y mucho menos un gravitón que desaparezca de forma repentina.
De ahí que debamos llegar a la conclusión de que no existe forma predecible
de verificar las afirmaciones de los teóricos de las supercuerdas y de que su
principal reivindicación es, a todas luces, no comprobable.
A pesar de que la idea de que toda la energía y la materia consisten en
cuerdas de energía me resulta intuitivamente más atractiva que la de sesenta y
una partículas fundamentales, en este momento no es más que una idea que ha
cosechado diversas expresiones matemáticas. A partir de aquí utilizaré la
expresión conjetura de cuerdas o «teoría» de cuerdas para dejar claro que esta
idea no satisface el criterio principal de una teoría científica, tal y como hoy en
día la entendemos.

El universo y sus definiciones

Como hemos visto, la palabra «universo» se aplica hoy en día a cosas muy
distintas. Para evitar malentendidos, definiré el concepto tanto de este término
como de términos relacionados.

Universo: toda la materia y energía que existe en la única dimensión de


tiempo y las tres dimensiones de espacio que perciben nuestros sentidos.

Universo observable: la parte del universo que contiene materia capaz


de ser detectada mediante la observación astronómica. Según la
cosmología ortodoxa actual, queda circunscrito por la velocidad de la luz
y por el tiempo, puesto que la materia y la radiación se escindieron unos
380.000 años después de que el universo empezara a existir a partir del
Big Bang.

Megaverso: un hipotético universo con más dimensiones en el que


estaría incrustado nuestro universo de tres dimensiones espaciales.
Algunas especulaciones defienden que el cosmos comprende muchos
megaversos.

Cosmos: todo lo que existe, incluyendo varias dimensiones hipotéticas


adicionales a las tres dimensiones de espacio y una de tiempo que
percibimos, así como otros universos con los que no tenemos contacto
físico y de los que no podemos obtener información observable o
experimental.

Multiverso: un cosmos hipotético que contiene nuestro universo más


múltiples, e incluso infinitos, universos con los que no tenemos contacto
físico y de los que no podemos obtener información observable o
experimental. Se han propuesto distintos tipos de multiverso, cada uno
con distintas propiedades.

Conclusiones

Ninguna modificación del modelo del Big Bang inflacionario ni ninguna otra
conjetura proporcionan hoy en día una explicación científica satisfactoria,
excepto matemática, al origen de la materia de la que estamos formados ni a por
qué el universo adoptó la forma, y no otra, que permitió la evolución del ser
humano.
Tiene que haber una explicación —y es posible que alguna de estas
conjeturas acabe proporcionándola—, pero la cosmología actual tiene problemas
para superar los test que diferencian la ciencia de la creencia con carácter
especulativo. Consideraré este tema en el siguiente capítulo.
[1]Hawking (1988), pp. 132–141.
[2]Véase página 85.
[3]Penrose (2004), pp. 769–772.
[4]Linde (2001).
[5]Véase página 113.
[6]Citado en Science & Technology News, 1 de mayo de2004, p. 3.
[7]Guth (1997), pp. 250–252.
[8]Linde (2001).
[9]Borde, Arvind y Alexander Vilenkin, «Eternal Inflation and the Initial Singularity», Physical Review
Letters 72: 21, 1994, pp. 3305–3308.
[10]Magueijo (2003).
[11]Barrow, John D., «Einstein and the Universe», Conferencia ofrecida en Gresham College, Londres,
18 de octubre de 2005.
[12]El efecto acumulativo de pequeños cambios genéticos que se producen en generaciones sucesivas
de los miembros de una especie que conduce al dominio de aquellos miembros cuyas mutaciones los hacen
más adaptados para competir y sobrevivir; las mutaciones acaban produciendo una nueva especie cuyos
miembros no se reproducen con los de la especie original.
[13]Smolin (1998), pp. 112–132.
[14]Véase página 95 para el argumento de Guth sobre la energía neta cero del universo.
[15]Ashtekar, Abhay, et al., «Quantum Nature of the Big Bang: An Analytical and Numerical
Investigation», Physical Review D (Particles, Fields, Gravitation, and Cosmology), 73: 12, 2006, 124038.
[16] Véase Masa de Planck en el glosario para una explicación más completa.
[17]Narlikar y Burbidge (2008), capítulo 15.
[18]Véase página 75.
[19] Véase página 146.
[20]Ned Wright, tutorial sobre Cosmología, 2004, http://www.astro.ucla.edu/~wright/stdystat.htm.
[21]Lerner (1992), actualizado en http://www.bigbangneverhappened.org/index.htm.
[22]Scarpa, Riccardo, et al., «UV Surface Brightness of Galaxies from the Local Universe to Z ~ 5»,
International Journal of Modern Physics, D 23: 6, 2014,1450058.
[23] Partículas subatómicas pesadas, como los protones y los neutrones.
[24] Partículas elementales ligeras o prácticamente carentes de masa que no interactúan a través de la
fuerza nuclear fuerte, como los electrones.
[25] Cuantos de energía electromagnética carentes de masa.
[26] La forma o formas desconocidas de materia no radiante invocadas para que la teoría sea
consistente con la observación.
[27]Steinhardt, comunicación personal, 24 de junio de 2007.
[28] Steinhardt lo denomina universo cíclico, pero yo utilizo el término universo ecpirótico cíclico para
diferenciarlo de otros modelos cíclicos, como el universo oscilante cíclico de Tolman y los ciclos de la
cosmología de estado cuasi-estacionario.
[29]Steinhardt, Paul J. y Neil Turok, «The Cyclic Model Simplified», Departamento de Física,
Princeton University, 2004. http://www.phy.princeton.edu/~steinh/dm2004.pdf. Consultado el 11 de marzo
de 2007.
[30] Véase página 68.
[31]Leake, Jonathan, «Exploding the Big Bang», The Sunday Times, Londres, 20 de Agosto de 2006, p.
14.
[32]Steinhardt, comunicación personal, 9 de marzo de 2007.
[33] Véase página 95.
[34]Steinhardt y Turok (2004), (2007).
[35]Steinhardt, comunicación personal, 12 de marzo de 2007.
[36]Ibid.
[37]Steinhardt, comunicación personal, 30 de abril y 7 de mayo de 2007.
[38]Steinhardt, comunicación personal, 20 de agosto de 2014.
[39]Susskind (2005).
[40] Susskind lo denominó «megaverso», pero como he utilizado este término para describir el universo
de diez dimensiones espaciales de la teoría de las súper-cuerdas, etiquetaré la versión de Susskind como una
especulación sobre el cosmos, pues invoca una miríada de megaversos.
[41]Smolin (2007), p. 105.
[42] Una partícula punto se considera una brana de cero dimensiones, una cuerda como una brana de
una dimensión, una membrana es una brana bidimensional, y así sucesivamente.
[43]Magueijo (2003), p. 239.
[44]Gross, David «Viewpoints on String Theory», WGBH, 2003,
http://www.pbs.org/wgbh/nova/elegant/view-gross.html. Consultado el 15 de Agosto de 2006.
[45]Véase página 90.
[46]Citado en Smolin (2007), p. 154.
[47]Citado en ibíd., p. 197.
[48]Friedan, D., «A Tentative Theory of Large Distance Physics», Journal of High Energy Physics,
2003, 10, pp. 1–98.
[49]Smolin (2007), p. 198.
[50]Woit (2006)
[51]Las dudas de la física en el siglo XXI: ¿es la teoría de cuerdas un callejón sin salida?, Crítica,
Barcelona, 2007.
[52]Smolin (2007), p. 176.
CAPÍTULO 6. LOS PROBLEMAS DE LA
COSMOLOGÍA COMO MEDIO EXPLICATIVO

Cuando los científicos generamos ideas teóricas deberíamos ser temerariamente radicales, pero a la
hora de interpretar las evidencias, todos deberíamos ser tremendamente conservadores.

PETER COLES, 2007

La fe en la teoría suele triunfar sobre las evidencias.

GEORGE ELLIS, 2005

Para que una explicación sea científica, debe ser verificable. Y de un modo
más concreto, los criterios científicos generalmente aceptados decretan que la
validez de la explicación de una cosa depende de nuestra capacidad de detectar y
compilar, y a ser posible medir, datos al respecto de dicha cosa, interpretar
correctamente esos datos y extraer una conclusión provisional, o hipótesis, a
partir de los datos a modo de base a partir de la cual realizar predicciones o
retrodicciones que puedan ser verificadas mediante observación o
experimentación y que verificadores independientes puedan confirmar o
rechazar.
La cosmología es distinta de otras ramas de la ciencia, como la química o la
biología, en tres aspectos: solo tenemos un universo; formamos parte de él; y es
incomparablemente grande. No podemos experimentar con él cambiando su
temperatura, su presión o sus condiciones iniciales, por ejemplo, ni tampoco
podemos compararlo con otros universos porque, por definición, el universo es
todo lo que nuestros sentidos pueden percibir; no podemos observarlo desde el
exterior; y su tamaño presenta retos colosales. Estos factores juegan un papel
muy importante en cuatro problemas interrelacionados a los que se enfrenta la
cosmología en su intento de explicar el origen y la evolución de la materia:
dificultades prácticas, interpretación de los datos, teoría inadecuada y
limitaciones intrínsecas.

Dificultades prácticas

Las dificultades prácticas se dividen en dos categorías: límites de detección y


problemas de medición.

Límites de detección

Si la teoría de la relatividad es válida, no existe nada capaz de viajar más


rápido que la velocidad de la luz. Y esto crea el horizonte de partículas.

Horizonte de partículas: es imposible estar causalmente influidos,


obtener información e interactuar con toda partícula, independientemente
de que tenga masa positiva o masa cero, que esté más alejada de nosotros
que la distancia que pueda recorrerse a la velocidad de la luz desde que
empezó el tiempo.

Si el relato de la cosmología ortodoxa actual es válido, nos enfrentamos a un


segundo límite de detección.

Horizonte visual: según el modelo del Big Bang, solo podemos


retroceder hasta el momento de la escisión entre materia y radiación
electromagnética (estimado actualmente 380.000 años después del Big
Bang) porque antes de eso los fotones estaban dispersos por la interacción
continua del plasma inicial, lo que hacía que el universo fuera opaco.

Lo que significa que no podemos detectar radiación electromagnética de


épocas anteriores.

Problemas de medición

El desarrollo de la tecnología desde los años 60 del siglo pasado ha permitido


la aparición de un amplio abanico de medios y métodos más precisos para la
detección de los fenómenos cósmicos. En la actualidad, no solo podemos
realizar observaciones visuales, sino que además podemos detectar emisiones en
todo el espectro electromagnético de ondas de radio, microondas, luz infrarroja,
luz visible, luz ultravioleta, rayos X y rayos gamma. Inventos como los
dispositivos de carga acoplada y la fibra óptica, junto con la capacidad de situar
detectores en el espacio por encima de la atmósfera terrestre, hacen que las
mediciones sean mucho más precisas. Todo esto ha generado una gran riqueza de
datos en los últimos cincuenta años. Pero, según el cosmólogo George Ellis, «el
problema subyacente de la astronomía es determinar la distancia a la que se
encuentran los objetos observados».[1]
Muchos parámetros cosmológicos fundamentales, como la edad de los
objetos celestes y la edad y el ritmo de expansión del universo, dependen de la
determinación de las distancias. Pero los astrónomos no pueden realizar
mediciones directas de esas distancias tal y como lo hacemos con los objetos en
la Tierra, del mismo modo que tampoco pueden utilizar el brillo como medida de
distancia porque, a pesar de que el brillo de las estrellas y las galaxias es más
débil cuanto más alejadas de nosotros están, estos objetos estelares tiene
distintos brillos intrínsecos, lo que técnicamente se conoce como luminosidades.
En consecuencia, los astrónomos calculan la distancia a la que se encuentran las
estrellas cercanas mediante paralaje, trigonometría local con la que calculan los
ángulos delimitados por una estrella desde distintas posiciones de la Tierra a
medida que esta traza su órbita alrededor del sol. Calculan la distancia de objetos
más remotos a partir de una serie de indicadores de distancia, lo que se conoce
comúnmente como «candelas estándar», que son objetos cuya luminosidad
consideran conocer con precisión los astrónomos. Comparan la luminosidad
observada de una candela estándar con su luminosidad conocida para así calcular
la distancia que la separa de nosotros y, posteriormente, la distancia de un objeto
más grande (una galaxia, por ejemplo) de la que forma parte. Las candelas
estándar más utilizadas son las variables cefeidas, estrellas amarillas gigantes
que se iluminan y se oscurecen de manera muy regular y cuyo periodo de
variación depende de su luminosidad intrínseca. Para los objetos más remotos,
los cosmólogos ortodoxos utilizan el desplazamiento al rojo del objeto, el
desplazamiento en la longitud de onda de su radiación hacia el extremo rojo del
espectro.
Las candelas estándar, sin embargo, son menos estándar de lo que algunos
anuncios de distancias podrían llevar a pensar. Por ejemplo, en 1956, un grupo
de astrónomos descubrió que las variables cefeidas eran de dos tipos y que,
además, eran más variables de lo que se suponía. No sería muy científico asumir
que, a medida que los métodos de observación mejoren y el volumen de datos
aumente, no habrá más supuestos o interpretaciones que acaben resultando
falsos.
Además, la luminosidad observada de una candela estándar lejana podría
quedar oscurecida por el gas y el polvo interestelar, o escondida por el brillo de
estrellas o galaxias que se interpongan en el campo visual. Ajustar estos factores
es complicado y exige supuestos que, en el mejor de los casos, sean menos que
indiscutibles.
Los astrónomos han descubierto también que la Tierra no solo orbita
alrededor del sol a 30 kilómetros por segundo mientras el sol traza su órbita al
centro de la Vía Láctea a 220 kilómetros por segundo, sino que además nuestra
galaxia viaja a 200 kilómetros por segundo hacia el centro de un cúmulo local de
galaxias, que a su vez se cree que se mueve más o menos la misma velocidad,
pero en distinta dirección, hacia el centro del supercúmulo local.[2] Cada uno de
estos descubrimientos ha exigido realizar ajustes a la supuesta velocidad de un
cuerpo celestial alejado de la tierra calculada a partir de su desplazamiento al
rojo. Los cosmólogos ortodoxos utilizan el desplazamiento al rojo para calcular
no solo la distancia de objetos cósmicos muy remotos —y, por lo tanto, muy
jóvenes—, sino también el ritmo de expansión del universo y, en consecuencia,
la edad del universo.

Estimaciones de la edad del universo


Una de las consecuencias de estos problemas de medición ha sido la
variabilidad de las estimaciones de la edad del universo. La primera estimación
de Hubble fue de menos de quinientos millones de años.[3] Incluso en un
momento tan tardío como los años 50 del siglo pasado, los astrónomos
calculaban que la edad del universo era de dos mil millones de años, mientras
que la datación de las rocas mediante radiactividad ha demostrado que la edad de
la Tierra era como mínimo de tres mil millones de años. Allan Sandage, el
sucesor de Hubble en Mount Wilson, estimó una edad de veinte mil millones de
años, mientras que Gérard de Vaucouleurs, de la Universidad de Texas, defendió
diez mil millones de años.
En 1994, un equipo internacional de astrónomos utilizó el telescopio espacial
Hubble para realizar la medición de distancia más precisa hasta aquella fecha de
la galaxia M100 y llegó a la conclusión de que el universo tenía entre ocho y
diez mil millones de años de antigüedad.[4]
En 2003, después de la observación de toda la orbe celeste mediante el
satélite espacial Wilkinson Microwave Anisotropy Probe (WMAP), el
investigador jefe de la operación, Charles L. Bennett, declaró que la edad del
universo era de 13,7 miles de millones de años, con un margen de error del uno
por ciento.[5] Esta datación fue revisada en 2013, con los datos aportados por el
telescopio Planck, y se estableció en 13,82 miles de millones de años.[6]
Viendo las dificultades prácticas que conlleva la detección y medición de los
datos que sustentan estas estimaciones, cualquier científico caería en un error si
no anticipara que futuros descubrimientos acabarán alterando las estimaciones
actuales. Sobre todo teniendo además en cuenta que los datos están siempre
sujetos a interpretaciones distintas.

La interpretación de los datos

Antes de que, en 1610, Galileo utilizara un telescopio para estudiar los


planetas, las observaciones podían interpretarse como que los planetas,
incluyendo la Tierra, giraban alrededor del sol o que el sol y los planetas giraban
alrededor de la Tierra; ambas teorías eran consistentes con los datos disponibles.
Prácticamente todos los observadores adoptaron la segunda interpretación. Se
equivocaban, claro está, pero sus creencias religiosas determinaban su
interpretación.
Gran parte de la literatura cosmológica evoca interpretaciones guiadas por las
creencias. Los defensores de las distintas hipótesis cosmológicas suelen
aprovechar o interpretar las evidencias para que respalden sus creencias. Y esto
aplica tanto a quienes sostienen interpretaciones ortodoxas como a aquellos que
las desafían.
Por otro lado, tendemos a prestar más atención a las conclusiones extraídas
de la observación que a los supuestos —normalmente no explícitos— que
sustentan dichas conclusiones. En el caso de la cosmología, estos supuestos son
con frecuencia cuestionables.

Edad del universo

La conclusión aceptada en 2003 por Bennett y el equipo de la NASA de que


los datos del WMAP mostraban que la edad del universo es de 13,7 miles de
millones de años ± 1 por ciento depende de diversos supuestos. Uno de ellos es
el valor de la constante de Hubble. Según Rowan-Robinson, las estimaciones de
esta constante han «seguido siendo un tema de intensa controversia durante los
últimos treinta años».[7] Tres años después del anuncio de Bennett, un equipo de
investigación liderado por Alceste Bonanos, de la Carnagie Institution de
Washington, utilizó lo que afirma que es un sistema de medición más preciso de
la distancia hasta la galaxia M33 para proponer una reducción de un 15 por
ciento en la constante de Hubble, lo que situaría la edad del universo en 15,8
miles de millones de años,[8] confirmando la conclusión de Rowan-Robinson de
que todavía necesitamos una estimación más precisa de la edad del universo.[9]
Y mientras que, por un lado, los cosmólogos ortodoxos cuestionan la edad
generalmente aceptada del universo, la interpretación ortodoxa de los datos y los
supuestos que sustentan las estimaciones de la edad del universo también se ve
desafiada. Por ejemplo, el físico del plasma Eric Lerner afirma que las
estructuras que vemos en el universo —como los súpercúmulos de galaxias
como la Gran Muralla y los enormes vacíos que hay entre ellos— deben de
haber necesitado más de cien mil millones de años para formarse.[10] Su
interpretación de los datos se ha visto desafiada a su vez por el firme defensor de
la ortodoxia actual de la cosmología, Ned Wright.11

Desplazamiento al rojo de las supernovas Tipo 1a

Como vimos en el capítulo 4, el descubrimiento de que las supernovas Tipo


1a con gran desplazamiento al rojo —objetos muy brillantes pero de vida corta
que se considera que son el resultado de la explosión de estrellas enanas blancas
— eran más oscuras de lo esperado, fue interpretado por los cosmólogos
ortodoxos como que el ritmo decreciente de expansión del universo después del
Big Bang había cambiado para volverse creciente. Mientras que otros estudios
afirman apoyar esta interpretación, dependen de interpretar todos los
desplazamientos al rojo como método de medición de la distancia (véase abajo).
Además, el brillo de las supernovas Tipo 1a puede verse oscurecido por el polvo
interestelar, como defiende la cosmología del estado cuasi-estacionario,[11] o,
como sucede con las variables cefeidas, su luminosidad podría no ser tan
estándar como los astrónomos suponen actualmente.

Aceleración aparente del ritmo de expansión del universo

En el capítulo 4 vimos también que los cosmólogos ortodoxos atribuían su


interpretación de esta oscuridad a una aceleración del ritmo de expansión del
universo provocada por una misteriosa energía oscura. Lo representaban
matemáticamente reintroduciendo la constante cosmológica arbitraria Lambda
con un valor muy distinto del que Einstein había descartado o del que los
inflacionistas habían utilizado; lo interpretaban como el punto cero del campo
cuántico de energía del universo, a pesar de que su valor calculado es un
gigantesco 10120 veces mayor que el que sería consistente con su interpretación
del ritmo de expansión del universo.
Kunz y sus colegas, Rasanen y Lieu, ofrecieron distintas interpretaciones a
los datos que dejan de lado la energía oscura, mientras que Ellis ofreció otras
interpretaciones, añadiendo que «La cosmología ortodoxa actual considera estas
propuestas poco atractivas, lo cual no demuestra que sean incorrectas».[12]
Como se comentó en el capítulo 5, Steinhardt y Turok defienden que la
energía oscura no es una constante arbitraria sino un ingrediente básico del
universo que cambia de forma dinámica, la quintaesencia mientras que los
defensores de la cosmología de estado cuasi-estacionario defienden que esta
cosmología explica igualmente los datos de las supernovas sin necesidad de
recurrir a ninguna energía oscura misteriosa.[13]

Desplazamiento al rojo

Una de las interpretaciones más críticas de los datos es la que argumenta que
el desplazamiento al rojo siempre es una medida de la distancia y, combinada
con la constante de Hubble, es también una medida de la velocidad de recesión
y, por lo tanto, de la edad de los objetos celestes. En el capítulo 3 se expuso que
Halton Arp. Geoffrey Burbidge y otros desafiaban esta interpretación.[14]
La clave de este conflicto de interpretación es la naturaleza de los cuásares,
conocidos también como objetos cuasi-estelares. Estas potentes fuentes de
emisiones variables de ondas de radio fueron detectadas en 1961 e identificadas
al principio con minúsculos objetos visibles que se creía que eran estrellas de
nuestra galaxia. Sin embargo, cuando se analizó el espectro de su luz, se vio que
eran desplazamientos al rojo muy elevados. Se detectaron entonces otros objetos
diminutos también con un elevado desplazamiento al rojo; pero estos objetos no
emitían ondas de radio sino luz visible, principalmente azul, que variaba en
periodos de días, y muchos de ellos emitían además potentes rayos X que
variaban en periodos de horas en comparación con los años o meses de los que
emitían ondas de radio.
Los cosmólogos ortodoxos interpretaron los elevadísimos desplazamientos al
rojo como que estos cuásares eran extremadamente remotos y se alejaban de
nosotros a velocidades de hasta el 95 por ciento la velocidad de la luz.
Argumentaban que debido al tiempo que tardaba su luz en llegar hasta nosotros,
lo que veíamos ahora eran esos cuásares cuando tanto ellos como el universo
eran muy jóvenes. El problema estaba en explicar por qué esas distancias tan
enormes daban a entender que sus emisiones electromagnéticas eran el
equivalente a las de mil galaxias combinadas, mientras que su pequeño periodo
de variación en emisión daba a entender que esas fuentes eran muy pequeñas;
además, solo una veinteava parte de ellos emitía ondas de radio, mientras que la
mayoría emitía luz visible y rayos X, y algunos también rayos gamma.
En los años 80, los cosmólogos ortodoxos llegaron a una interpretación
consensuada razonable. La causa de esas emisiones ópticas y de rayos X tan
enormes era un disco de gas y polvo muy caliente que giraba y había sido
absorbido por un gigantesco agujero negro situado en el centro de una galaxia
muy joven, mientras que las emisiones de radio eran debidas a chorros
expulsados a lo largo del eje de rotación, igual que se había observado en la
formación de estrellas. Era simplemente nuestro ángulo de visión lo que
diferenciaba las potentes fuentes de radio de las potentes fuentes ópticas y de
rayos X.[15]
Arp, Burgidge y otros reivindicaron, sin embargo, que sus estudios de
cuásares con desplazamiento al rojo elevado muestran a muchos de estos
cuásares alineados a lado y lado de galaxias cercanas activas y, en algunos casos,
con un vínculo físico con esas galaxias; además, los análisis muestran un
incremento de brillo y una disminución del desplazamiento al rojo a medida que
aumenta la distancia con respecto a la galaxia madre. Interpretaron que estos
datos sugieren que estos cuásares son pequeñas protogalaxias expulsadas a una
velocidad próxima a la de la luz desde agujeros negros situados en el núcleo de
galaxias activas, y que de ahí evolucionaron a galaxias, volviéndose así más
brillantes a medida que aumentaron su distancia de la galaxia madre a la vez que
desaceleraban.
En 2007, Michael Rowan-Robinson, presidente de la Royal Astronomical
Society, descartó la idea: «La historia de la anomalía del desplazamiento al rojo
terminó hace treinta años. Algunas de estas asociaciones son casuales, otras
debidas a la lente gravitacional».[16] Pero Burbridge mantuvo que lo que
refuerza su interpretación es la acumulación de datos en el transcurso de los
últimos treinta años.

A menos que esto pueda explicarse argumentando que la materia oscura próxima a las galaxias
brillantes origina, a través de la lente gravitacional, el brillo de los cuásares débiles que están lejanos
—y no existe ningún modelo gravitacional de este estilo que resulte satisfactorio—, la mayoría de
los cuásares no están muy lejanos. La única salida que le queda a la gente convencional es llegar a la
conclusión de que todas las configuraciones son accidentales y/o que las estadísticas son erróneas
[…]. Los datos siguen acumulándose. En 2005, Margaret Burbridge y sus colegas mostraron un
cuásar que emite rayos X y con un desplazamiento al rojo de 2,1 a solo 8 segundos de arco de la
galaxia activa NGC 7619. La probabilidad de que esto sea casual es de una entre diez mil. Y hay
muchos, muchísimos más casos similares en la literatura.[17]

Pero, según Arp, no hay tantos como debería haber. Asegura que le cuesta
mucho conseguir publicar sus trabajos en revistas científicas. En 1998, reprodujo
algunos de los intercambios que ha mantenido con árbitros anónimos, a quienes
calificó de «manipuladores, taimados, insultantes, arrogantes y, sobre todo,
rabiosos».[18] Este punto de vista fue corroborado por Burbridge, que declaró
que los que dominan la cosmología no son científicos observacionales, sino
teóricos matemáticos que solo prestan una atención secundaria a los datos.
«Ignoran por completo nuestros puntos de vista sobre la cosmología y en el
transcurso de los últimos veinte años, ha habido muchos intentos exitosos
enfocados a dejar de darnos invitaciones y hacer otras cosas para impedirnos
intervenir en conferencias cosmológicas. Seguramente lo hacen porque cuando
tenemos una plataforma para poder explicarnos resultamos bastante
convincentes».[19]
Se trata de científicos respetables. Arp es tal vez el astrónomo especializado
en observación extragaláctica más experimentado que existe. Trabajó durante
veintinueve años en el observatorio Palomar y luego se incorporó al prestigioso
Max Planck Institute, en Alemania; entre sus galardones destaca el Helen B.
Warner Prize de la American Astronomical Society. Burbridge fue profesora de
astrofísica de la Universidad de California, San Diego y en 2005 recibió la
medalla de oro de la Royal Astronomical Society. Sus quejas por la represión a
las alternativas al punto de vista ortodoxo fueron replicadas por Richard Lieu.
[20]
Esta interpretación alternativa de algunos desplazamientos al rojo tiene algo
que me sorprende: si las protogalaxias se expulsan a una velocidad próxima a la
de la luz desde el núcleo de galaxias existentes y activas, ¿por qué no se
expulsan aleatoriamente, de modo que haya la misma cantidad aproximada de
protogalaxias expulsadas hacia nosotros que expulsadas lejos de nosotros, lo que
produciría, en consecuencia, tanto desplazamientos al azul elevados como
desplazamientos al rojo elevados?
Arp hizo hincapié en este asunto en el análisis que realizó en 2008 —como
parte del en el Two-degree-Field (2dF) Galaxy Redshift Survey— de un cúmulo
integrado por catorce cuásares con desplazamiento al rojo elevado situado
alrededor de la galaxia AM 2330-284.[21] Afirma que sus desplazamientos al
rojo se sitúan en un estrecho rango mayor e inferior que la velocidad de recesión
cósmica de la galaxia; esto sería consistente con que fueran expulsados
aleatoriamente de la galaxia madre a velocidades de más y menos 1.800
kilómetros por segundo. Esto es mucho menos que la velocidad de la luz, puesto
que la masa de los objetos expulsados aumenta con el tiempo y, para conservar la
inercia, tienen que reducir la velocidad.[22] Arp basa esta interpretación en la
hipótesis de la masa variable de Hoyle Narlikar, que forma parte de su teoría de
la gravitación que defiende que la materia de nueva creación empieza con masa
cero y va aumentando con el tiempo a través de la interacción con el resto de
materia del universo.[23]
Arp tal vez esté equivocado, igual que podrían estar equivocados Burbridge y
todos los que han desafiado la interpretación ortodoxa del desplazamiento al
rojo. Sin embargo, hasta que los cosmólogos ortodoxos no entablen un debate
razonado con Arp y otros científicos reconocidos que plantean interpretaciones
distintas de los datos y dejen de ignorarlos o denigrarlos, seguirá colgando un
interrogante sobre la interpretación ortodoxa de todos los desplazamientos al
rojo y, por ende, sobre el modelo del Big Bang.

Ondulaciones en el fondo cósmico de microondas

La actitud de creer, en vez de razonar, queda reflejada en el lenguaje que se


utiliza a menudo para anunciar resultados. Por ejemplo, cuando el director de
investigación, George Smoot, anunció en 1992 que el satélite Cosmic
Background Explorer (COBE) había descubierto extensas ondulaciones con
densidad del 0,001 por ciento en el fondo cósmico de microondas (FCM), afirmó
que aquello era como «ver la cara de Dios». Stephen Hawking dijo que el COBE
había hecho «el descubrimiento del siglo, sino de todos los tiempos».[24] «Han
encontrado el Santo Grial de la cosmología», declaró el astrónomo de Chicago,
Michael Turner, cuando se realizó el anuncio en la American Physical Society,
Washintgon.[25]
La razón para tanta euforia fue que la mayoría de cosmólogos interpretaron
los datos del COBE como la prueba del modelo ortodoxo del Big Bang
inflacionario, basándose en que las ondulaciones eran un reflejo de las
heterogeneidades del plasma en el momento en que los fotones se escindían del
plasma. Supusieron que estas heterogeneidades eran consecuencia de la
expansión inflacionaria de fluctuaciones cuánticas que tuvieron lugar en el Big
Bang y que eran las semillas de la estructura de las galaxias, los cúmulos de
galaxias y los supercúmulos separados entre sí por inmensos vacíos. Sommot y
su colega, John Mather, del Goddard Flight Center, compartieron el Premio
Nobel de Física en 2006 por su trabajo en la detección de las ondulaciones.
Un editorial publicado en la revista Nature a la semana siguiente de la euforia
adoptó una postura más sobria:

La sencilla conclusión, que los datos autentificados hasta el momento son consistentes con la
doctrina del Big Bang, se ha amplificado en los periódicos y en los informativos hasta transformarla
en la prueba de que «sabemos cómo» empezó el universo. Lo cual no deja de ser motivo de alarma.

El artículo continuaba mencionando los problemas que planteaba que esas


ondulaciones pudieran ser responsables tanto de las estructuras que vemos hoy
en día en el universo como de las explicaciones de la cosmología ortodoxa, y
comentaba que «no existe una base verdaderamente independiente ni para la
materia oscura ni para la inflación».[26]
La literatura cosmológica, además, rara vez menciona que estas ondulaciones
en el fondo cósmico de microondas son también consistente con otros modelos.
Ellis sostiene que los modelos del universo heterogéneos y esféricamente
simétricos podrían producir probablemente ondulaciones similares. La
cosmología del estado cuasi-estacionario afirma que la radiación de fondo
cósmico de microondas tiene su origen en la termalización de la energía
generada por la producción de helio de las estrellas e interpreta las ondulaciones
como efectos localizados.[27] El modelo de universo eterno de la cosmología del
plasma ofrece una explicación similar de la energía de la radiación de fondo e
interpreta las ondulaciones como consecuencia de la conversión isotrópica
imperfecta de esta energía debido a la densa maraña de filamentos de plasma
confinados magnéticamente que impregna el medio intergaláctico.[28] El
modelo del universo ecpirótico cíclico las interpreta como impresas en una
liberación de energía Big Bang debido a la ondulación previa que se produce
cuando dos branas-universo casi vacías se acercan entre sí.[29]
Un profesor de cosmología me aseguró que las ondulaciones del FCM hacen
que sea «casi seguro» que el actual modelo ortodoxo desde el segundo uno
después del Big Bang Caliente es el correcto. Viendo que descartaba las demás
interpretaciones de las ondulaciones del FCM, le pregunté sus motivos.
Reconoció que no había leído ninguno de los documentos más relevantes al
respecto; argumentó que no tenía tiempo para leer todo lo que se publicaba y que
ese era también el caso de la mayoría de los cosmólogos. De ser así, le dije,
¿cómo era posible que descartaran interpretaciones alternativas si ni siquiera las
habían leído? Me explicó que hay poco más de media docena de cosmólogos que
son los que marcan la agenda y establecen la interpretación de los datos más
adecuada.
Se trata de un hombre sincero y honesto al que simplemente no se le ha
ocurrido preguntarse si esta media docena de cosmólogos tienen depositado
algún interés particular —consciente o inconscientemente— en que la
interpretación de los datos cuadre únicamente con el modelo en el que han
trabajado durante casi toda su vida y en el que creen profundamente. Me quedé
con la impresión de que existe un obispo de la ortodoxia que gobierna felizmente
su colegio de cardenales de la cosmología.

Declaraciones exageradas

Sustituir la fe por la razón da como resultado declaraciones exageradas. «El


satélite de la NASA observa la primera billonésima de segundo del universo»,
fue el titular de una nota de prensa publicada por la NASA el 16 de marzo de
2006 para informar sobre los descubrimientos realizados a lo largo de tres años
por el satélite espacial Wilkinson Microwave Anisotropy Probe (WMAP),
lanzado una década después del COBE y equipado con instrumentos mucho más
sensibles. Citaba en la nota las siguientes declaraciones del director de la
investigación, Charles Bennett: «Ahora podemos distinguir entre distintas
versiones de lo que sucedió durante la primera billonésima de segundo del
universo».[30]
Por desgracia, no son solo los políticos los que trabajan con la propaganda.
Bennett es un cosmólogo ortodoxo y presumiblemente cree que no podemos
mirar más atrás en el tiempo de lo que nos permite el horizonte visual, cuando la
radiación se escindió de la materia unos 380.000 años después del Big Bang.[31]
Un examen más detallado de los datos muestra que los instrumentos del
WMAP registraron variaciones de temperatura y polarización de la radiación del
fondo cósmico de microondas, lo que los investigadores asumen que se originó
380.000 años después del Big Bang. Basándose en un montón de supuestos más,
los científicos del proyecto WMAP deducen que esta polarización fue causada
por sucesos que se supone que se produjeron durante la primera billonésima
parte de un segundo. Realizar afirmaciones gratuitas no tiene mucho que ver con
las mejores prácticas científicas.

Los datos del WMAP

Los científicos del proyecto WMAP interpretaron sus datos como una
validación más del modelo ortodoxo del Big Bang inflacionario, diciendo que el
patrón de puntos calientes y fríos era consistente con las predicciones más
simples de la conjetura de la inflación.
En 2005, sin embargo, los análisis de los datos del WMAP realizados por
otros cosmólogos empezaron a sembrar dudas importantes. Richard Lieu y
Jonathan Mittaz, de la Universidad de Alabama, Huntsville, descubrieron que los
datos del WMAP indican un universo ligeramente «súper crítico» en el que hay
más materia —y, en consecuencia, un campo gravitatorio más potente— de lo
que interpretan los científicos del proyecto WMAP, lo cual presentaría graves
problemas para la conjetura inflacionaria.[32] Descubrieron asimismo una
carencia de lo que se conoce como efectos de lente gravitacional en el fondo
cósmico de microondas que el modelo estándar del Big Bang predice. Según
ellos, los puntos fríos del fondo de microondas poseen un tamaño demasiado
uniforme para haber viajado durante casi catorce miles de millones de años luz
desde los confines del universo hasta la Tierra. Las consecuencias sugieren
diversas explicaciones alternativas. La más conservadora es que los parámetros
cosmológicos del modelo ortodoxo, incluyendo la constante de Hubble, son
erróneos. La posibilidad más contenciosa es que la radiación de fondo cósmico
de microondas no sea un remanente del Big Bang sino que esté creada por un
proceso distinto, un proceso local tan próximo a la Tierra que la radiación no se
acercaría a ninguna lente gravitacional antes de alcanzar nuestros telescopios.
David Larson y Benjamin Wandelt, de la Universidad de Illinois,
descubrieron una desviación estadísticamente significativa de la distribución
gaussiana de puntos calientes y fríos predicha por la inflacion.[33] Kate Land y
Joao Magueijo, del Imperial College de Londres, analizaron la radiación de
fondo cósmico de microondas a través de sus tres componentes y descubrieron
que dos de ellos —el cuadropolo y el octopolo— presentaban una orientación de
puntos calientes y fríos que estaba alineada a lo largo de lo que Magueijo apodó
como «el eje del mal», lo que contradeciría la predicción de orientación aleatoria
que defiende la inflación. Magueijo sugiere que podría deberse a que el universo
tuviera forma de losa, o de rosquilla, o a que el universo estuviera rotando, todo
lo cual entraría en conflicto con los supuestos de isotropía y omnicentrismo en
que se basa el modelo ortodoxo.[34]
La mayoría de cosmólogos, sin embargo, interpreta estas orientaciones no
aleatorias como desviaciones estadísticas con respecto a la media de más de cien
medidas.[35]
Independientemente de que estos y otros científicos que han encontrado
problemas con los datos del WMAP tengan o no razón —y los últimos datos de
Planck sugieren con fuerza que la tienen (véase sección siguiente)—, su
voluntad de examinar los datos con una mentalidad abierta y plantearse
interpretaciones alternativas contrasta con los científicos del proyecto que
parecen extraer únicamente aquellas conclusiones que apoyan la hipótesis que
están investigando.

La confirmación de evidencias contradictorias del telescopio Planck


Cuando en marzo de 2013 se anunciaron los datos de los quince primeros
meses del telescopio Planck, de la Agencia Espacial Europea, el científico líder
del proyecto, siguiendo el ejemplo de su colega del WMAP, dijo «observamos
un encaje casi perfecto con el modelo estándar de la cosmología», aunque se
contradijo a continuación al añadir «pero con características intrigantes que nos
obligan a replantearnos algunos de nuestros supuestos básicos».[36]
El telescopio Planck observó el fondo cósmico de microondas (FCM) con
más resolución y sensibilidad que nunca. Reveló muchas características que
desafiaban el modelo ortodoxo del Big Bang inflacionario. Entre ellas destacan
no solo revisiones de la edad del universo y de las conjeturas sobre las
proporciones de la materia oscura y la energía oscura, sino también un punto frío
que se extiende sobre un espacio de cielo más grande de lo esperado y
fluctuaciones en la temperatura del FCM que no cuadran con las predichas. Los
datos confirmaron que la orientación de los puntos fríos y calientes no podía
descartarse como una desviación estadística, sino que, efectivamente, estaban
alineados a lo largo de un eje, lo que rebatiría la predicción del modelo ortodoxo
de que tendrían que ser isotrópicos, es decir, similares en cualquier dirección que
mirásemos.

Selectividad de datos

La selectividad, no solo de la interpretación sino también de los datos, se


produce cuando los científicos intentan justificar una hipótesis en vez de
examinar las evidencias con objetividad.
Ya he mencionado la idea del paisaje de posibilidades, defendida por el
teórico de cuerdas Leonard Susskind, que da lugar a un multiverso.[37] En su
revisión del libro de Susskind, El paisaje cósmico: teoría de cuerdas y el mito
del diseño inteligente, Ellis señala que, hipotéticamente, este multiverso se
habría originado a partir de un túnel cuántico, dando como resultado un universo
espacialmente homogéneo e isotrópico con curvatura espacial negativa y, por lo
tanto, con un valor de Omega (Ω) inferior a 1.[38] El mejor valor determinado
por observación es Ω = 1,02 ± 0,02. Dadas las incertidumbres estadísticas, este
resultado no entra en absoluto en conflicto con la conjetura de Susskind, aunque
no la respalda. Pero Susskind ni siquiera discute estos datos no favorables. Ellis
llega a la conclusión de que esto es «un síntoma de parte de la cosmología
actual, donde la fe en la teoría tiende a falsear las evidencias».[39]

Ley de interpretación de datos

He concedido un espacio a las interpretaciones alternativas de los datos


astronómicos que han llevado a cabo científicos respetables porque son
explicaciones que rara vez se escuchan fuera de la comunidad cosmológica y, en
muchos casos, ni siquiera dentro de ella. Esta comunidad es una institución
humana en la que aprenden los nuevos cosmólogos y donde los defensores de la
actual ortodoxia deciden la publicación de artículos, la concesión de becas y el
futuro de las carreras profesionales. En cualquier institución humana, las
presiones para adecuarse a ella son considerables.
Además de todo esto, la cosmología exige una inversión de tiempo durante
los muchos años que pueden transcurrir entre que se propone una investigación,
se presenta la solicitud de subvención, se convence a los organismos de que
apoyen la propuesta y, por ejemplo, se consigue que la NASA lance un satélite al
espacio y se analicen e interpreten los datos (18 años en el caso del satélite
COBE). De un modo similar, los físicos de partículas pueden invertir décadas de
su carrera en llevar a cabo una investigación que exija la cooperación de varios
gobiernos para subvencionar un acelerador de partículas. Los científicos son
humanos y, naturalmente, quieren ver que una inversión personal de tal calibre
valga la pena.
La comparación de los resultados anunciados con los puntos de vista
equilibrados de cosmólogos como Ellis y Rowan-Robinon sugiere que tiene que
haber algún tipo de ley de por medio.

La ley de interpretación de los datos. El grado en el cual un científico


se distancia de una interpretación objetiva de los datos de su
investigación es función de cuatro factores: su determinación por validar
una hipótesis o confirmar una teoría; el tiempo que la investigación ha
ocupado en su vida; su grado de inversión emocional en el proyecto; y su
necesidad profesional de publicar un documento importante o
salvaguardar su reputación.

Teoría inadecuada

En los capítulos 3 y 4 hemos hablado sobre los graves problemas del modelo
del Big Bang Inflacionario, mientras que en el capítulo 5 hemos llegado a la
conclusión de que las conjeturas que compiten contra el modelo ortodoxo,
modificándolo o sustituyéndolo, no proporcionan hasta el momento un relato
científico sobre el origen del universo: sus principales reivindicaciones siguen
sin ser verificables y, en su mayoría, no son verificables.
Consideraré a continuación los profundos problemas teóricos que subyacen
en el modelo cosmológico ortodoxo y en sus alternativas.

La inconclusión de la teoría de la relatividad y de la teoría cuántica

La teoría cuántica y la teoría de la relatividad forman la base tanto del


modelo del Big Bang como de las ideas que compiten con él. Ambas han
alcanzado un éxito tremendo en cuanto a realizar predicciones que han sido
verificadas mediante observación y experimentación dentro de su propio ámbito:
las masas estelares extremadamente pequeñas —subatómicas— para la teoría
cuántica y las masas estelares extremadamente grandes y con velocidades
próximas a la de la luz para la de la relatividad. Pero ambas son necesariamente
incompletas porque son incapaces de explicar fenómenos que suceden fuera de
su propio ámbito.[40] Lo que sugiere que ambas son un caso limitador de una
teoría más completa y profunda.
Se han llevado a cabo numerosos intentos de unificar la teoría cuántica y la
teoría de la relatividad —la «teoría» de cuerdas y la gravedad cuántica de bucles,
por ejemplo— pero, como hemos visto, no están todavía probadas
científicamente. Además, también ellas presentan sus propios problemas: la
idoneidad de la relatividad general para predecir o incluso describir el universo
como un todo, y la naturaleza de la realidad en la teoría cuántica.

La idoneidad de la relatividad general

Los astrónomos y los físicos adoptaron la teoría general de la relatividad de


Einstein porque incorporaba la gravedad a la teoría especial de la relatividad,
describiendo de este modo todas las fuerzas conocidas, y porque explicaba la
precesión anómala del acercamiento máximo del planeta Mercurio al sol, que la
mecánica newtoniana no había logrado explicar. ¿Pero es la teoría idónea para el
objetivo de predecir, o incluso describir, el universo como un todo?
La teoría general no es una ecuación que predice un resultado único para
condiciones iniciales específicas; sino que integra un conjunto de diez
ecuaciones de campo en las que pueden insertarse de manera arbitraria campos
escalares, parámetros y valores para estos parámetros. Esto permitió a Einstein
elegir un parámetro, y un valor para ese parámetro, que produjera un universo
estático; a varios cosmólogos elegir un campo escalar conceptual con diversos
valores para producir diversos universos inflacionarios; a Hoyle y a sus colegas
elegir un campo escalar idéntico pero con distintos parámetros y valores para
producir un universo de estado cuasi-estacionario; y a Steinhardt y Turok elegir
un campo escalar, unos parámetros y unos valores distintos para producir un
universo cíclico en el que la energía oscura no es una constante, sino que
evoluciona dinámicamente.
Todos declaran que su versión del universo es consistente con los datos
observados, aunque no hay evidencia de la existencia de un campo escalar
inflacionario o de energía oscura, a diferencia, por ejemplo, de las evidencias
que sustentan un potencial campo eléctrico escalar. De hecho, tal y como señala
Ellis,[41] es perfectamente posible realizar el proceso matemático hacia atrás
para elegir de este modo los parámetros que produzcan el resultado deseado.
Parafraseando a Humpty Dumpty en Alicia a través del espejo, de Lewis Carroll,
cuando elijo campos escalares, parámetros y sus valores, las ecuaciones de la
relatividad general significan justo lo que quiero que signifiquen, ni más ni
menos. (Carroll, por supuesto, era matemático.)
El conjunto de ecuaciones permite también a los defensores de la inflación, el
universo cíclico, el estado cuasi-estacionario y otros modelos, ofrecer sus
versiones del universo con una fuente de energía ilimitada para crear materia y
potenciar su expansión contra la inmensa atracción gravitacional de la materia
súper densa creada.[42] Mientras que en el mundo conceptual, del que las
matemáticas forman parte, pueden existir fuentes ilimitadas de energía —y
también unicornios y dioses—, hay bastantes dudas por lo que respecta a si los
unicornios, los dioses y las fuentes ilimitadas de energía existen en el mundo
físico.

La realidad del mundo cuántico

La cuestión de hasta qué punto las fórmulas matemáticas lógicamente


consistentes representan el mundo real reaparece cuando consideramos la teoría
cuántica, uno de los conceptos más complicados y técnicos de la ciencia.
Las ecuaciones y los principios que forman la teoría cuántica han demostrado
un éxito excepcional en cuanto a realizar predicciones que se han verificado
experimentalmente, la más importante de ellas la del número y la estructura
atómica de los elementos, y el modo en que sus átomos se unen para formar
moléculas, lo que ha proporcionado la base teórica de la química. Pero, con todo
y con eso, la teoría cuántica incomodó a aquellos de sus fundadores —como
Einstein, Erwin Schrodinger y Louis de Broglie— que abogaban por el punto de
vista filosófico de realismo, según el cual la ciencia explica la realidad tal y
como ésta es en nuestra ausencia. La razón es que el mundo que la teoría
cuántica describe es paradójico, intrínsecamente incierto, dependiente de la
medición y no determinista, es decir, que permite efectos sin causa.
La teoría ha generado muchas interpretaciones de lo que sus ecuaciones
significan realmente. Por ejemplo, la teoría cuántica afirma que un electrón se
comporta tanto como una partícula como como una onda o una ola. Lo mismo
sucede con la luz. La onda no es una onda de materia física, como podría ser una
ola del mar, sino una onda de información. Una analogía podría ser la de una ola
de crímenes, que nos informa de dónde hay mayor probabilidad de que se
cometa un crimen. Una onda cuántica nos informa de la probabilidad de dónde
podemos esperar que esté una partícula y de la probabilidad de que esta posea
propiedades como la rotación o la energía. Es no-localizada: es infinita y
contiene todos los estados posibles de existencia de esa entidad cuántica. En
consecuencia, un electrón puede estar potencialmente en cualquier parte.
Según la interpretación estándar (conocida también como de Bohr o de
Copenhague), todo aquello que no puede ser sometido a un proceso de medición
carece de existencia física. Solo cuando puede ser medida, la onda colapsa en la
probabilidad de una partícula física que tiene una posición, una inercia y una
energía concretas. Sin embargo, no podemos medir al mismo tiempo la posición
exacta de una partícula, su inercia exacta o su energía exacta.
La interpretación estándar defiende que no existe realidad independiente, en
el sentido físico ordinario, capaz de adscribirse al fenómeno cuántico o a la
acción de su medición. Muchos de los defensores de la interpretación estándar,
como el Premio Nobel Eugene Wigner, adoptan la postura de que la medición
exige la presencia de un observador consciente. Lo cual no presenta un problema
fundamental a la hora de medir el patrón de dispersión de un rayo de luz cuando
impacta contra una placa con doble rendija, por ejemplo. Pero sí presenta
problemas cuando se considera la realidad del universo o de los electrones,
fotones y bariones que se materializaron a partir de un Big Bang.
El distinguido físico teórico John Wheeler, colaborador de Einstein en sus
últimos años, llevó el punto de vista de la realidad física dependiente de la
conciencia a su conclusión lógica. Defendió que la existencia del universo
depende de observadores conscientes que lo hacen real, no solo hoy sino
también retrospectivamente, hasta llegar al Big Bang. El universo existía en una
especie de estado fantasma indeterminado y probabilístico hasta que seres
conscientes lo observaron, colapsando entonces la función de onda del universo
y otorgándole de este modo existencia física. Otras interpretaciones, como la del
multiverso cuántico de Everett (que comentaré en el próximo capítulo),
pretendían evitar este tipo de problema, pero han generado otros.

Infinidades en un cosmos físico

La teoría cuántica presenta también problemas con las infinidades. Según la


mecánica cuántica, un campo, como por ejemplo un campo electromagnético,
tiene valores en todos los puntos del espacio. Lo que produce un número infinito
de variables, incluso en un volumen finito; cada una de estas variables tiene un
valor que, según la teoría cuántica, puede fluctuar de un modo incontrolable.
Según Smolin, esto conduce a la predicción de números infinitos para la
probabilidad de que un suceso se produzca o para la potencia que puede alcanzar
de cualquier fuerza.
Además de permitir una fuente ilimitada de energía, la teoría general de la
relatividad presenta otros problemas con las infinidades. Como vimos en el
capítulo 4,[43] en el interior de un agujero negro, la densidad de la materia y la
fuerza del campo gravitatorio son infinitos, y se cree que esto sucede también
cuando se retrocede en la expansión del universo hasta llegar al Big Bang. Pero
cuando la densidad se vuelve infinita, las ecuaciones de la relatividad general se
desmoronan.
Como consecuencia de los supuestos simplificadores realizados para
solucionar las ecuaciones de la relatividad general, tanto el modelo de universo
plano (el modelo ortodoxo) como el de universo hiperbólico, son necesariamente
infinitos en cuanto a su extensión: si cualquiera de los dos llegara a un límite,
contradeciría el supuesto de que el universo es igual desde cualquier punto desde
el que se observe.[44] La mayoría de cosmólogos no lo considera un problema.
Tal y como lo expresa Max Tegmark: «¿Cómo es posible que el espacio no sea
infinito?».[45]
Algunas propuestas afirman que, en un multiverso que incluya todos los
universos posibles, se entiende que necesariamente hay un número infinito de
universos.
La infinitud, sin embargo, no es lo mismo que un número muy grande. David
Hilbert, que sentó gran parte de las bases de las matemáticas del siglo XX,
declara:

Nuestro principal resultado es que el infinito no existe en la realidad. Tampoco existe en la


naturaleza ni ofrece una base legítima para el pensamiento racional.[46]

Si Hilbert tuviera razón, las hipótesis que utilizan infinidades para describir
el mundo físico quedarían invalidadas. Si Hilbert se equivocara hasta el punto de
que el concepto matemático de la infinidad tuviera una correspondencia en el
mundo físico y que, como seres finitos que somos, no alcanzáramos a percibirla,
nunca podríamos validar o desaprobar dicha hipótesis mediante un método
científico.
Si Hilbert estuviera totalmente equivocado, y lo único que nos limitara fuese
nuestra incapacidad de concebir test empíricos para aplicar a hipótesis con
infinidades, dichas hipótesis seguirían siendo problemáticas. Por ejemplo, varias
de las conjeturas cosmológicas alternativas consideradas en el capítulo 5
declaran que el universo es eterno. En este caso, Ellis señala que si se produjera
un suceso en cualquier momento del tiempo, cualquiera de esas conjeturas
debería explicar por qué no ocurrió antes de ese momento, puesto que
previamente había tiempo infinito para que sucediese.[47]
Consideraré el Principio de entropía creciente cuando examine la evolución
de la materia. Por el momento basta con decir aquí que esta ley física sostiene
que, durante cualquier proceso que se produzca en un sistema aislado, el
desorden aumenta hasta que se alcanza un estado de equilibrio. Por definición, el
universo es el sistema aislado definitivo, pues o contiene toda la materia y
energía que existe o está desconectado de otros universos en un hipotético
multiverso. Por lo tanto, si este principio físico es válido en el universo, y si el
universo tiene una existencia infinita, habría alcanzado su estado de equilibrio
hace un tiempo infinito y nosotros no estaríamos vivos para reflexionar sobre
esta cuestión.[48]

La falta de idoneidad de las matemáticas

Newton desarrolló una nueva forma de matemáticas —el cálculo— que jugó
un papel esencial cuando desarrolló sus leyes físicas. A partir de Einstein, los
físicos teóricos y los cosmólogos han tomado prestadas o han adaptado las
matemáticas existentes —la geometría diferencial del espacio de cuatro
dimensiones, las teorías de campos de gauge, los campos escalares, etc.— para
expresar y cuantificar sus ideas sobre el origen y la evolución del universo.
Como hemos visto, la matemática de algunas de estas ideas se desmorona
cuando retrocedemos hasta el origen del universo o no se corresponden con la
realidad tal y como la percibimos. Para expresar y cuantificar una teoría
completa del origen y la evolución del universo tal vez sería necesario
desarrollar unas nuevas matemáticas. Dicha teoría explicaría todo lo que la teoría
de la relatividad explica a gran escala y todo lo que la teoría cuántica explica a
escala subatómica.

Limitaciones intrínsecas de la ciencia

Como hemos visto, muchas de las conjeturas que se han planteado para
explicar el origen del universo no solo no están verificadas, sino que además es
imposible verificarlas: si no podemos detectar un fenómeno, o su supuesto efecto
sobre algo que podemos detectar, entonces no podemos verificarlo. Cualquier
conjetura no verificable queda necesariamente fuera del ámbito de una disciplina
empírica como la ciencia.

Conclusiones

A pesar de los anuncios optimistas, y a veces triunfalistas, que suelen realizar


los científicos responsables de los proyectos después de analizar los datos
obtenidos a partir de observaciones caras y prolongadas, la cosmología se
enfrenta a muchas dificultades prácticas. Se enfrenta también a problemas de
interpretación de los datos obtenidos, lo que incluye la puesta en duda de
supuestos subyacentes a menudo sobreentendidos. Por lo tanto, es imposible
conocer con seguridad el valor de muchos parámetros clave —como la constante
de Hubble y la densidad del universo— y, en consecuencia, la edad del universo
y su ritmo de expansión. Ni el modelo ortodoxo del Big Bang ni las conjeturas
que compiten con él, ofrecen teorías científicamente robustas que expliquen el
origen y la forma del universo. Además, las dos teorías que sustentan todos los
modelos cosmológicos —la teoría de la relatividad y la teoría cuántica— son
incompletas y presentan sus propios problemas.
A medida que mejoren las técnicas de detección, y se desarrollen
interpretaciones y teorías como respuesta a nuevos datos y nuevos puntos de
vista, las limitaciones prácticas, de interpretación y de teoría quedarán relegadas
y la cosmología nos ofrecerá una mejor comprensión del origen del universo y,
en consecuencia, del origen de la materia de la que estamos compuestos.
Sin embargo, hasta que los cosmólogos presenten una nueva definición del
concepto de ciencia y un método científico que resulte aceptable tanto para la
comunidad científica como para la comunidad intelectual, muchas «teorías»
cosmológicas deben quedar clasificadas como conjeturas no verificables y, por lo
tanto, quedar fuera del ámbito de la ciencia.
Puede argumentarse, claro está, que la cosmología es distinta de las demás
ramas de la ciencia en los tres sentidos que enumeré al principio del capítulo y
que, en consecuencia, si la cosmología está limitada por la metodología
científica convencional, siempre tendrá escaso poder explicativo. Este
argumento puede utilizarse para justificar que los cosmólogos vayan más allá de
los convencionalismos de la ciencia para explicar el universo. De ahí que en el
siguiente capítulo plantee si las conjeturas de la cosmología producen
razonamientos convincentes aun sin superar los test más estrictos de la ciencia.
[1]Ellis (2007), S.2.3.2.
[2]Maddox (1998), p. 36.
[3]Ibíd, p. 27.
[4]http://hubblesite.org/newscenter/archive/releases/1994/49/text/, 26 de octubre
de 1994.
[5]http://www.nasa.gov/centers/goddard/news/topstory/2003/0206mapresults.html#bctop, 11 de febrero
de 2003.
[6]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_perfect_Universe,
21 de marzo de 2013.
[7]Rowan-Robinson (2004), p. 163.
[8]Bonanos, Alceste, et al., «The First Direct Distance Determination to a Detached Eclipsing Binary in
M33», The Astrophysical Journal, 652, 2006, pp. 313–322.
[9]Rowan-Robinson (2004), p. 164.
[10]Lerner (1992), con datos más completos, actualizado en http://www.bigbangneverhappened.org/,
consultado el 16 de febrero de 2014.
[11]Ned Wright, Tutorial de Cosmología, UCLA, 2003,
http://www.astro.ucla.edu/~wright/lerner_errors.html#SC.
[12]Ellis (2007), S.4.2.2 y S.2.3.5.
[13]Véase página 115.
[14]Véase página 75.
[15]«Quasar», McGraw-Hill Encyclopedia of Science and Technology; «Quasar», The Columbia
Electronic Encyclopedia, 6ª ed. Consultado el 29 de enero de 2008.
[16]Rowan-Robinson, comunicación personal, 21 de noviembre de 2007.
[17]Burbidge, comunicación personal, 14 de enero de 2008.
[18]Arp (1998).
[19]Burbidge, comunicación personal, 14 de enero de 2008.
[20] Véase página 94.
[21]Arp, Halton y C. Fulton, «A Cluster of High Redshift Quasars with Apparent Diameter 2.3
Degrees», http://arxiv.org/pdf/0802.1587v1, 2008. Consultado el 28 de febrero de 2008.
[22]Arp, comunicaciones personales, 18 y 25 de febrero de 2008.
[23]Das, P. K., «Quasars in Variable Mass Hypothesis», Journal of Astrophysics and Astronomy, 18: 4,
2008, pp. 435–450.
[24]Singh (2005), pp. 462 y 463, respectivamente.
[25]McKie, Robin, «Has Man Mastered the Universe?», The Observer, Londres, 26 de abril de 1992,
News, pp. 8–9.
[26]Editorial, «Big Bang Brouhaha», Nature 356: 6372, 1992, p. 731.
[27]Narlikar, J. V., et al., «Inhomogeneities in the Microwave Background Radiation Interpreted within
the Framework of the Quasi–Steady State Cosmology», The Astrophysical Journal, 585: 1, 2003, pp. 1–11.
[28] Véase página 118.
[29]Véase página 120.
[30]http://www.nasa.gov/home/hqnews/2006/mar/HQ_06097_first_trillionth_WMAP.html, 16 de
marzo de 2006.
[31]Véase página 140.
[32]Lieu, Richard y Jonathan P. D. Mittaz, «On the Absence of Gravitational Lensing of the Cosmic
Microwave Background», The Astrophysical Journal, 628, 2005, pp. 583-593; Lieu, Richard y Jonathan P.
D. Mittaz, «Are the WMAP Angular Magnification Measurements Consistent with an Inhomogeneous
Critical Density Universe?», The Astrophysical Journal Letters 623, 2005, pp. L1–L4.
[33]Larson, David L. y Benjamin D. Wandelt, «A Statistically Robust 3-Sigma Detection of Non-
Gaussianity in the WMAP Data Using Hot and Cold Spots», Physical Review, 2005,
http://arxiv.org/abs/astro-ph/0505046. Consultado el 25 de mayo de 2007.
[34]Land, Kate y Joao Magueijo, «Examination of Evidence for a Preferred Axis in the Cosmic
Radiation Anisotropy», Physical Review Letters, 95, 2005, 071301.
[35]Paul Steinhardt, comunicación personal, 20 de marzo de 2007.
[36]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_perfect_Universe
21 de marzo de 2013.
[37] Véase página 130.
[38]Véase página 63 para una explicación de Omega y su relación con la geometría del universo.
[39]Ellis, George, «Physics Ain’t What It Used to Be», Nature, 438: 7069, 2005, pp. 739–740.
[40] Por ejemplo, Wolfgang Tittel y sus colegas informaron de que dos fotones entrelazados
cuánticamente con más de diez kilómetros de distancia entre sí se comportaban al instante de la misma
manera si se enfrentaban a dos caminos alternativos e igualmente posibles, violando claramente la Teoría
especial de la relatividad de Einstein, que prohíbe que la informacion viaje a velocidad más rápida que la de
la luz. (Tittel, W. et al., «Violation of Bell Inequalities by Photons More Than 10km Apart», Physical
Review Letters, 81, 17, 1998, pp. 3563-3566). Pero no es solo en el ámbito subatómico que la teoría de la
relatividad deja de aplicar. Rainer Blatt y sus colegas (Riebe, M. et al., «Deterministic Quantum
Teleportation with Atoms», Nature, 429: 6993, 2004, pp. 734-737) y D. J. Wineland y sus colegas
(«Deterministic Quantum Teleportation of Atomic Qubits», Nature, 429: 6993, 2004, pp. 737-739),
informaron de la transmisión cuasi instantánea de iones de calcio e iones de berilio, respectivamente, en
estado cuántico.
[41]Véase página 83.
[42] La ecuación gravitacional de Newton también permite esto siempre y cuando la separación entre
masas puntuales sea ilimitada.
[43]Véase página 85.
[44] Esto no aplicaría para el universo esférico: una esfera perfecta es igual desde todos los puntos de
su superficie.
[45]Tegmark, Max, «Parallel Universes», Scientific American. 1 de mayo de 2003.
http://www.sciam.com/article.cfm?articleID=000F1EDD-B48A-1E90-8EA5809EC5880000. Consultado el
8 de agosto de 2006.
[46]Citado en Ellis (2007), S.9.3.2.
[47]Íbid, S.9.3.2.
[48]Davies (1990), p. 10.
CAPÍTULO 7. LA RACIONALIDAD DE LAS
CONJETURAS COSMOLÓGICAS

El universo me captura a través del espacio y me engulle como una mota de polvo; yo lo capturo a
través del pensamiento.

BLAISE PASCAL, 1670

La razón es una revelación natural.

JOHN LOCKE, 1690

Hay dos preguntas que deberíamos formularnos para evaluar la racionalidad


de las explicaciones cosmológicas que quedan fuera del ámbito de la ciencia. La
primera es: ¿cuál tendría que ser el alcance de estas conjeturas? Y la segunda:
¿cómo someter a prueba su racionalidad? Según las respuestas a estas preguntas,
examinaré conjeturas cosmológicas en dos aspectos: el origen del universo y la
forma del universo, puesto que ambos son básicos para comprender la
emergencia de la materia de la que estamos hechos.

El alcance de las conjeturas cosmológicas[1]

¿Tendrían que limitarse las conjeturas cosmológicas solo al elemento


material del cosmos?
Muchos científicos son materialistas, y para ellos se trata de una pregunta
trivial porque creen que el cosmos material es todo lo que existe y que, con el
tiempo, la ciencia acabará explicando en términos de materia y de sus
interacciones cosas como la conciencia y la mente. Pero según el criterio de
Popper, este punto de vista no es científico porque nunca podrá falsarse.
Creo que es razonable extender el alcance examinando cosas no materiales
que tienen una relación directa con el origen y la evolución del universo
material. Lo cual suscita una serie de preguntas metafísicas interrelacionadas que
tal vez podrían considerarse como aspectos distintos de la misma pregunta, pero
que resulta útil separarlas en tres categorías, independientemente de que esta
división sea arbitraria y permeable.

La causa de las leyes de la física

La mayoría de explicaciones cosmológicas defienden o asumen que la


materia se comporta y evoluciona según las leyes de la física. De ahí que la
pregunta fundamental sea qué provocó la existencia de estas leyes.
Como veremos en el capítulo 28, cuando examine la evolución del
pensamiento filosófico, no existe una respuesta clara. Incluso Aristóteles, el
arquetipo del racionalista, llegó a la conclusión, siguiendo la cadena de
causalidad, de que la primera causa tiene que causarse a sí misma, ser eterna,
inalterable, sin atributos físicos, es decir, divina.

La naturaleza de las leyes de la física

Y un nivel más allá de esta pregunta fundamental, está comprender cuál es la


naturaleza de las leyes de la física, un asunto que podríamos dividir en tres sub-
preguntas:

1. ¿Son descriptivas o prescriptivas?


Si simplemente describen cómo son las cosas, ¿por qué, entonces, toda
la materia y las interacciones (fuerzas) que se producen entre ellas poseen
las mismas propiedades en cualquier lugar del universo observable? ¿Por
qué son idénticos todos los electrones? ¿Por qué la fuerza electromagnética
se calcula del mismo modo en todas partes? Si, por otro lado, las leyes
físicas determinan la forma de ser de las cosas, y se asume que dichas
leyes son invariables, la materia será necesariamente la misma en todas
partes. En cuyo caso, ¿cómo pueden las leyes teóricas imponerse sobre la
materia del universo?
2. ¿Existían las leyes físicas antes de la existencia del universo y controlaron
su origen, empezaron a existir con el universo, o coexisten con un universo
eterno?
Si el Big Bang es el comienzo de todo, ¿cómo es posible que estas
leyes se crearan en un suceso de creación carente de leyes? Si no lo es,
¿cómo es posible que existieran antes que el universo? Si el universo es
eterno, ¿son inalterables las leyes físicas y eternamente coexistentes con el
universo, o cambian en el transcurso del tiempo infinito?
3. ¿Por qué se expresan mediante relaciones matemáticas que, en la mayoría
de los casos, son muy sencillas? Con destacadas excepciones, como la de
la relatividad general, la mayoría de leyes físicas se expresan mediante
ecuaciones muy sencillas, como la ley de la inversa del cuadrado de la
fuerza electromagnética. ¿Por qué tendría que ser así? Las matemáticas,
¿describen o determinan las leyes físicas? ¿Cuál es la naturaleza de las
matemáticas?

La naturaleza de las matemáticas

El cosmólogo Max Tegmark, del Massachusetts Institute of Technology,


propone que una estructura matemática es «una entidad abstracta e inmutable
que existe fuera del espacio y el tiempo».[2] (Esta conjetura niega
implícitamente el materialismo.)
Roger Penrose sigue a Platón y argumenta que existen «evidencias poderosas
(aunque incompletas)» de que las fórmulas matemáticas tienen una realidad
objetiva fuera del mundo físico. Además, mientras que solo una pequeña parte
de este mundo matemático tiene relevancia para el mundo físico del que
formamos parte, todo el mundo físico está gobernado según leyes matemáticas.
De ser así, «incluso nuestros actos físicos estarían completamente sujetos a este
control matemático, un “control” que permitiría algún tipo de comportamiento
aleatorio gobernado por principios probabilísticos estrictos».[3]
La conjetura de que las fórmulas matemáticas existen como una realidad
trascendente fuera del universo físico y de que causan y/o gobiernan el universo,
debería explicar cómo una fórmula matemática puede generar y/o controlar un
universo material.
La iglesia cristiana asimiló este concepto platónico hace ya tiempo y le dio
una explicación muy sencilla: la realidad trascendente es Dios. En consecuencia,
la inmensa mayoría de científicos occidentales, desde la primera revolución
científica de mediados del siglo XVI hasta principios del siglo XX —desde
Copérnico, Kepler, Newton, Descartes hasta Einstein—, trataron de descubrir las
leyes matemáticas que gobiernan nuestro universo como una forma de descubrir,
en palabras de Stephen Hawking, la mente de Dios.
Keith Ward, pastor anglicano y profesor Regius de teología de la Universidad
de Oxford, intenta ofrecer una explicación racional a todo esto diciendo que las
necesidades matemáticas solo existen cuando están concebidas por alguna
conciencia. Para una teoría matemática de todas las cosas, esa conciencia tiene
necesariamente los atributos de Dios, la mente omnipresente suprema.[4]
Duane Elgin, místico y ecologista, ha llevado a una conclusión lógica el
concepto no religioso de que el universo físico está gobernado por fórmulas
matemáticas trascendentes. Propone una «evolución dimensional» en la que el
universo es un sistema vivo que se mantiene unido mediante la influencia
cohesiva de una «geometría sagrada de exquisita sutileza, diseño profundo y
objetivo elegante». Esto impregna el cosmos y proporciona el marco de trabajo
organizativo tanto para la manifestación ordenada de nuestro universo material,
como para el contexto organizativo a través del cual evoluciona la vida. Esta
geometría sagrada es la creación del «meta-universo», que es «una fuerza vital
inimaginablemente inmensa, increíblemente inteligente e infinitamente creativa
que elige dar existencia manifiesta a nuestro cosmos».[5] Si este meta-universo
no es similar al Dios personalmente intervencionista de las creencias judeo-
cristiana-islámicas, sí guarda un notable parecido con los antiguas creencias de
los brahmanes y los taoístas.[6]
Lee Smolin, por otro lado, cree que la segunda revolución científica está
liberando a la ciencia de esta visión del mundo esencialmente espiritual. «Lo que
une la teoría general de la relatividad, la teoría cuántica, la selección natural y las
nuevas ciencias de sistemas complejos y auto-organizados es que describen, de
distintas maneras, un mundo que es completo en sí mismo, sin necesidad de que
una inteligencia externa haga las veces de inventor, organizador u observador
externo».6 Aquí, los nuevos ingredientes son la selección natural, la complejidad
y las teorías de sistemas capaces de organizarse a sí mismos. Como que son
conceptos que suelen utilizarse para explicar la aparición de la vida, postergo su
explicación hasta la Segunda Parte.

Las conjeturas cosmológicas sometidas a test

Si no existe una forma predecible, ni siquiera posible, de someter las


conjeturas cosmológicas a test, bien sea experimental bien sea observacional,
¿qué test deberíamos utilizar para evaluarlas y determinar su racionalidad en
comparación, por ejemplo, con el mito de que el cosmos salió de un huevo?
Solemos utilizar los test siguientes:

Belleza

Los físicos teóricos suelen buscar la estética en sus teorías y ecuaciones.


Según lo expresa el teórico cuántico, Paul Dirac, «Es más importante tener
belleza en las ecuaciones que conseguir que cuadren con la experimentación».
Steven Weinberg, físico teórico de partículas galardonado con el Premio Nobel,
observa que «Una y otra vez, los físicos se han guiado por su sentido de la
belleza no solo para desarrollar nuevas teorías, sino incluso para juzgar la
validez de teorías físicas una vez están desarrolladas».[7]
Pero la belleza es subjetiva. ¿Es bello el número π, que aparece como
constante en muchas ecuaciones y equivale a 3,141592653… (es imposible
calcular su valor exacto)? ¿Es mi hipótesis o ecuación más bella que la tuya? ¿Es
bello el relato de la creación que ofrece el Génesis y que se mencionaba en el
capítulo 1?
Sería muy distinto si los teóricos que dicen esto se refieren a que tienen un
punto de vista que explica bellamente un conjunto de fenómenos; por lo demás,
examinaré formas de saberlos distintas al racionamiento. Pero no creo que la
belleza sea un test adecuado para evaluar la racionalidad de una conjetura.

Parsimonia

Es lo que conocemos como economía, o navaja de Ockham o simplicidad.


Esencialmente significa que la explicación de los datos que resulte menos
compleja será siempre la preferible.
Lo considero útil como regla general, pero debe utilizarse con prudencia y
solo junto otros test, puesto que siempre cabe la posibilidad de que otras
explicaciones superen mejor la prueba. Por ejemplo, podría argumentarse que la
explicación más sencilla para las leyes de la física es que Dios o un dios las
concibió de esta manera.

Consistencia interna

La conjetura debería ser coherente, es decir, debería tener una consistencia


lógica interna para que sus distintas partes encajen y formen un todo armonioso.
Si sufre contradicciones internas, la conjetura será irracional, lo que lo convierte
en un test esencial.

Consistencia externa con las evidencias

Una conjetura debe demostrar que es consistente con las evidencias que se
conocen, aunque no pueda realizar predicciones o retrodicciones susceptibles a
ser verificadas independientemente. Se trata de un test útil, aunque no alcanza el
nivel de una validación científica.

Consistencia externa con otros dogmas científicos


Es lo que Edward O. Wilson, inspirándose en el filósofo del siglo XIX,
William Wheewell, denomina consiliencia: la conjetura se amolda a los
conocimientos sólidamente verificados de otras disciplinas científicas para
formar una base común para su explicación. Cuando no es posible mostrar
consistencia con las evidencias del campo de estudio de la conjetura, la
consistencia con los principales dogmas de la ciencia contemporánea resulta un
test muy útil.

Origen del universo

Las principales conjeturas cosmológicas sobre el origen del universo se


dividen entre las que postulan un inicio del universo y las que sostienen que el
universo es eterno.

Modelo ortodoxo: el Big Bang

El principal ejemplo dentro de la primera categoría es el actual modelo


ortodoxo, pero como ya vimos en el capítulo 4, el modelo no explica cómo se
creó la materia a partir de la nada. Los intentos de explicación han dado como
resultado la conjetura de la energía neta cero del universo, en la que la energía
gravitatoria negativa cancela la energía positiva representada por el resto de
masa y la energía cinética de la materia más la radiación.[8] Es lo que llevó a
Guth a calificar el universo de «comida gratis».
Pero si el Big Bang es el comienzo de todo, incluyendo el espacio y el
tiempo, no existe un universo con energía neta cero capaz de proporcionar la
energía para todo lo que sigue y no existe un vacío preexistente que obedezca las
leyes de la teoría cuántica. Esta conjetura no alcanza a superar el test esencial de
la consistencia interna.
Si, tal y como defienden ahora los teóricos inflacionarios, el Big Bang se
produjo al final de un periodo de inflación, no se trataría de un añadido al
modelo básico sino de una contradicción de su principio fundamental. Ni
siquiera los cosmólogos pueden disfrutar de una comida gratis: o el Big Bang
fue el inicio de todo, o no lo fue.
A pesar de que los cosmólogos conocen el actual modelo ortodoxo como el
Modelo cosmológico estándar o el Modelo de concordancia, tal vez sería más
preciso describirlo como «Modelo de fluctuación cuántica que agrupa conjeturas
inflacionarias de antes o después del Big Bang caliente con un 27 por ciento de
materia oscura desconocida y un 68 por ciento de energía oscura desconocida».
Las versiones con inflación previa a un Big Bang presentan más consistencia
interna que aquellas en las que el Big Bang es el inicio de todo o que los mitos
internamente inconsistentes de la creación divina que defienden las creencias
judeo-cristianas e islámicas.[9] Sin embargo, al no ofrecer un relato convincente
sobre lo qué son la materia y la energía oscuras, no pueden reivindicar
parsimonia ni siquiera un gran poder explicativo, puesto que dejan sin explicar el
95 por ciento de la supuesta parte observable del universo. Además, como que
estas versiones no explican de dónde provienen el vacío cuántico, las leyes de la
mecánica cuántica y el campo de inflación, es difícil defender que sean más
razonables que la visión de brahmanes o taoístas, que defienden que todo emana
y todo consiste en una realidad definitiva que existe más allá del espacio y del
tiempo.

Conjeturas multiverso

Motivadas básicamente por la insatisfacción con la explicación del origen del


universo que ofrece la cosmología ortodoxa, surgieron otras ideas —como el
modelo de la inflación caótica de Linde, la selección natural de universos
agujeros negros de Smolin y la conjetura del paisaje de posibilidades de la teoría
de cuerdas— que sugieren que nuestro universo no es más que uno de muchos
universos, o de infinitos universos, que existen dentro de un multiverso.
Por mucho que estas sugerencias pudieran explicar de dónde y cómo surgió
nuestro universo, siguen posponiendo la cuestión del origen: no logran explicar
de dónde, cómo y por qué inició su existencia el multiverso, o el universo
progenitor de Smolin. Si el multiverso fuera eterno, tampoco se explicaría cómo
o por qué nuestro universo inició su existencia en un momento particular del
tiempo y no en otro momento entre las infinitas posibilidades que tendría la
eternidad.
Consideraré la racionalidad de otras reivindicaciones del multiverso en la
siguiente sección: «Forma del universo».

Modelos «eternos»

En el capítulo 5 se examinaron varios modelos que se autoproclaman como


«eternos», como la inflación caótica eterna, el universo oscilante cíclico y el
universo ecpirótico cíclico. Vimos que, pese a que las matemáticas les permiten
continuar indefinidamente en el futuro, todos tienen necesariamente un
principio. No puede existir un universo «semi-eterno» que tenga un principio
pero no tenga fin, razón por la cual estos modelos no superan el test de
consistencia interna.
En el capítulo 5 se habló también de que Hoyle y sus colegas modificaron el
modelo original de estado estacionario para producir la cosmología de estado
cuasi-estacionario. Su idea básica es que el universo es eterno y sigue
expandiéndose indefinidamente: tanto el tiempo como el espacio son infinitos.
Que el espacio infinito siga expandiéndose no presenta ninguna
contradicción lógica y, por lo tanto, la conjetura es internamente consistente.
Pero la cosmología de estado cuasi-estacionario busca la consistencia externa
con los datos obtenidos mediante observación defendiendo que continuamente se
producen mini-bangs no singulares que crean regiones de nueva materia en
ciclos que producen una expansión del universo de estado estacionario a largo
plazo. La creación a partir de la nada mediante una serie interminable de mini-
bangs no es más razonable que la creación de la nada a partir de un único Big
Bang. Además. Mientras que la cosmología de estado cuasi-estacionario evita el
problema de la singularidad en cada ciclo, extrapolarlo hacia atrás hasta la
expansión general del universo conduce a un universo infinitamente pequeño
que apenas se distingue de una singularidad. Podría decirse que esto constituiría
un inicio del universo, que por lo tanto no sería eterno.
Forma del universo

¿Cómo es que el universo inició su existencia con una forma determinada y


no otra, siendo todas las formas lógicamente posibles? Entre todas esas formas
hay universos con distintas constantes físicas, con distintas leyes físicas, con
distinto número de dimensiones, etc. Esta pregunta forma parte esencial de una
pregunta antrópica más amplia: ¿por qué nuestro universo está ajustado para
permitir la evolución del ser humano?

Ajuste de los parámetros cosmológicos

En el capítulo 4 vimos que Martin Rees sostenía que si uno de entre seis
parámetros cosmológicos se diferenciaba de su valor medido por una cantidad
minúscula, el universo no habría evolucionado para permitir la emergencia de
seres humanos pensantes con base de carbono como nosotros. Las leyes de la
física no predicen los valores de estos parámetros y el actual modelo ortodoxo de
la cosmología no logra explicar cómo o por qué estos parámetros están tan
ajustados.
Estos seis parámetros son:

1. Omega (Ω): una medida de la atracción gravitatoria de la materia en el


universo en comparación con su energía de expansión.
Si se produjo un Big Bang, el valor de Omega cuando el universo tenía
un segundo de antigüedad debió de situarse entre 0,99999999999999999 y
1,00000000000000001; de lo contrario, el universo habría colapsado
rápidamente en un Big Crunch o se habría expandido rápidamente hacia el
vacío.[10]
2. Lambda (Λ): la constante cosmológica.
Como vimos en el capítulo 4, esta hipotética constante que representa
una energía oscura desconocida anti-gravedad es cuestionable, igual que
gran parte de los supuestos en los que se basa su estimación. Pero, de todos
modos, forma parte importante de la cosmología ortodoxa actual y el valor
que le han estimado los astrónomos es increíblemente pequeño, unos 10-29
gramos por centímetro cubico. Si no fuera tan pequeña, argumenta Rees,
su efecto había impedido la formación de galaxias y estrellas y la
evolución cósmica se habría detenido antes incluso de empezar.
3. Nu (N): la razón entre la potencia de la fuerza electromagnética y la
potencia de la fuerza gravitatoria.
Tiene un valor aproximado de 1036 (1.000.000.000.000.000.
000.000.000.000.000.000.000).
La fuerza electromagnética proporciona estabilidad a los átomos y las
moléculas al equilibrar las fuerzas atractivas y repulsivas de núcleos y
electrones con cargas opuestas. A esta escala, la relativamente minúscula
fuerza gravitatoria es insignificante. Pero con el tamaño de planetas casi
neutros eléctricamente y más grandes, la fuerza gravitatoria pasa a ser
dominante. Si Nu tuviese unos cuantos ceros menos, esta fuerza
gravitatoria relativamente potente produciría un universo en miniatura de
vida corta, no se formarían estructuras complejas y no habría tiempo para
la evolución biológica.
4. Q: una medida que muestra la fuerza que mantiene cohesionadas
estructuras como estrellas, galaxias, cúmulos de galaxias y súper-cúmulos.
Es el cociente entre dos energías: la energía necesaria para romper y
dispersar estas estructuras cósmicas en relación con la energía de la masa
en reposo calculada mediante E = mc2. Se estima que su valor aproximado
es 10-5, o 0,00001. Si Q fuese aún más pequeña, el universo sería inerte y
desestructurado. Si Q fuese mucho mayor, no sobreviran ni las estrellas ni
los sistemas solares: el universo estaría dominado por agujeros negros.
5. Épsilon (ε): una medida de la cohesión de los núcleos de helio.
La reacción nuclear en cadena esencial para crear todos los elementos y
proporcionar energía a las estrellas es la fusión de dos protones (núcleos de
hidrógeno) y dos neutrones para crear el núcleo de helio.[11] La masa de
un núcleo de helio es un 0,7 por ciento inferior que la masa de las partes
que lo integran. Esta conversión en energía —principalmente calorífica—
del 0,007 de su masa, según la ecuación E = mc2, mide la fuerza que
cohesiona las partes integrantes del núcleo de helio, superando la fuerza
mutuamente repulsiva de los dos protones con carga positiva.
Si este factor de conversión fuera inferior (0,006, por ejemplo), no se
produciría la primera fase de la reacción en cadena, la unión de un protón
con un neutrón, y, en consecuencia, no habría producción de helio y el
universo estaría hecho solo de hidrógeno. Si fuese mayor (0,008, por
ejemplo), los dos protones se unirían directamente para crear helio y no
quedaría hidrógeno para proporcionar el combustible necesario a las
estrellas o para permitir la posible producción de las moléculas esenciales
para la vida humana, como el agua.
6. D: el número de dimensiones espaciales del universo.
En el universo este número es tres (más una dimensión de tiempo). Una
consecuencia de ello, según Rees, es que fuerzas como la gravedad y la
electricidad obedecen una ley cuadrática inversa: si duplicáramos la
distancia entre masas o partículas cargadas, la fuerza entre ellas sería
cuatro veces más débil; si triplicáramos la distancia, la fuerza sería nueve
veces más débil; y así sucesivamente. Esto permite una relación
equilibrada entre, por ejemplo, el movimiento centrífugo de un planeta y la
fuerza centrípeta de la gravedad de su sol, lo que permite una órbita
estable. Si hubiera cuatro dimensiones espaciales, las fuerzas seguirían una
ley cúbica inversa y las estructuras serían inestables: si un planeta en órbita
ralentizara su movimiento, aunque fuera solo mínimamente, se precipitaría
contra su sol; si aumentara la velocidad, empezaría a girar en espiral hacia
la oscuridad. Si hubiera menos de tres dimensiones espaciales no podrían
existir estructuras complejas.8

John Barrow y Frank Tipler afirman que existen parámetros adicionales a los
seis propuestos por Rees que son necesarios para la evolución humana.
Examinaré la cuestión del «universo antrópico» cuando salga a relucir a lo largo
de este viaje. Pero, por el momento, estoy examinando solo la racionalidad de las
conjeturas cosmológicas para responder a la pregunta concreta de cómo y por
qué el universo adoptó la forma que adoptó en contraste con las creencias de que
Dios, o un dios, lo diseñaron de esta manera.

La explicación multiverso
La conjetura preferida por Rees y muchos cosmólogos es la explicación
multiverso. A primera vista parece eminentemente razonable. Un hipotético
multiverso niega la unicidad del universo en el que vivimos porque aplica la
probabilidad al cosmos. Su reivindicación básica es que todo es posible y por lo
tanto, en un cosmos integrado por un número inimaginablemente grande de
universos, o incluso por una infinidad de universos, cada uno de ellos con
propiedades distintas, es tremendamente probable que exista un universo con las
mismas propiedades que el nuestro. Y solo es casualidad que nosotros existamos
en el universo que existimos.
Pero si examinamos el asunto con más detalle empiezan a surgir preguntas.
La primera de ellas es cuál es la naturaleza del multiverso. Existen prácticamente
tantos tipos distintos de hipotéticos multiversos como universos hipotéticos hay
en cualquier multiverso. Podemos agruparlos en cuatro categorías principales:

1. Multiverso cuántico.
Esta interpretación de la teoría cuántica, que entra en conflicto con la
interpretación estándar o de Copenhagen,[12] fue propuesta en 1957 por
Hugh Everett. Aquí, todos los resultados posibles de todos y cada uno de
los sucesos que se producen a nivel cuántico dan lugar a universos
alternativos que existen en paralelo como versiones alternativas
desconectadas de la realidad en otra rama cuántica de un espacio con
infinitas dimensiones. La versión inicial de esta conjetura propone que
estos universos existen con el mismo número de dimensiones de espacio y
tiempo que el nuestro y están descritos mediante las mismas leyes de la
física y las mismas constantes; lo que los diferencia son los resultados de
cada suceso. Por ejemplo, una serie de resultados de sucesos a nivel
subatómico cuántico de una mujer produce resultados distintos a nivel
macro a la pregunta formulada por un hombre: «¿quieres casarte
conmigo?». Esto produce, entre otros, un universo en el que ella se casa
con él y otro en el que no lo hace. Versiones posteriores sugieren que en
estas ramas cuánticas alternativas de la realidad las leyes de la física serían
distintas.
Que la hipótesis del multiverso cuántico sea consistente internamente
es más que cuestionable. Lógicamente, produce un universo en el que
Everett cree en la conjetura y otro universo en el que no. Por otro lado,
recurrir a un número inimaginablemente grande de universos para explicar
el universo que nosotros percibimos se aleja mucho de la parsimonia;[13]
y esto aplica a todas las conjeturas del multiverso. Defender una
consistencia externa aludiendo al excepcional éxito empírico que ha
cosechado la teoría cuántica para explicar las bases subatómicas de la
química resulta seductor, pero lo que en realidad significan las ecuaciones
y los principios de la teoría cuántica, y si es posible extrapolarlos del
ámbito subatómico a la enorme escala del universo, son preguntas que las
mejores mentes de la física y de la filosofía no han conseguido todavía
responder.
2. Multiverso cosmológico débil.
Estos multiversos fueron introducidos por los cosmólogos ortodoxos
para el ajuste de los parámetros físicos clave necesarios para la creación
del entorno fisicoquímico donde la vida humana pueda evolucionar, el
llamado «universo antrópico». La mayoría de estas conjeturas proponen
que los demás universos tienen una vida corta o existen en el mismo
espacio tridimensional que el nuestro pero a una distancia remota, mucho
más allá de nuestro horizonte de contacto. (Un multiverso cuántico, por
otro lado, no presenta una distancia física que separe universos existentes
en ramas cuánticas paralelas.)
Los he etiquetado como «débiles» porque solo asumen que varían los
valores de las constantes o parámetros físicos, como la carga de un
electrón o el valor de la constante gravitatoria. Sus defensores no ofrecen
buenos motivos para explicar por qué, en un multiverso donde cualquier
cosa es posible, solo varían las constantes físicas mientras que las leyes de
la física permanecen iguales. Suponer que las leyes de la física observadas
en una parte minúscula de un universo son las mismas que las de los
demás universos que desconocemos es irracional.
A diferencia de otras versiones, la conjetura del multiverso de Smolin,
que evoluciona mediante la selección natural cosmológica de universos
con agujeros negros, proclama su consistencia externa con otros dogmas
científicos porque el mecanismo de la selección natural funciona en la
biología. En la Segunda Parte examinaré si la selección natural en la
evolución biológica está demostrada en términos científicos, pero parece
que sí. Sin embargo, esta conjetura depende también de una serie de
supuestos cuestionables, tres de los cuales son a todas luces irracionales,
como se comentó en el capítulo 5.[14]
3. Multiverso cosmológico moderado.
Estas ideas permiten la variación de factores distintos a las constantes
físicas. Un ejemplo sería un universo con dimensiones distintas. Las
conjeturas de cuerdas especulan que el universo de tres dimensiones
espaciales que percibimos forma parte de un megaverso de once
dimensiones (este número ha variado en el pasado y podría cambiar en el
futuro).[15]
Otro ejemplo surge a partir de las conjeturas de paisaje de posibilidades
de la teoría de cuerdas, en las que todos los posibles megaversos tienen
constantes y leyes de física distintas, además de dimensiones distintas.[16]
A pesar de que permiten más variaciones que la version debil, estas
conjeturas no permiten universos que no estén gobernados por la «teoría»
de cuerdas y no explican por qué debería ser así.
Además, como vimos en la sección titulada «Problemas de la teoría de
cuerdas»[17], por mucho que cada teoría de cuerdas sea internamente
consistente, Smolin presenta un caso potente contra la consistencia externa
con las evidencias y llega a la conclusión de que «todas las versiones que
podemos estudiar en detalle no están conformes con la observación».9
Sostiene además que es externamente inconsistente con los principios
científicos de la teoría de la relatividad: «El descubrimiento de Einstein de
que la geometría del espacio y el tiempo es dinámica no se ha incorporado
a la teoría de cuerdas».[18]
Sin más resultados positivos de los test de racionalidad para las
conjeturas científicas (que no es lo mismo que las matemáticas), resulta
complicado ver cómo la hipotética existencia de otras dimensiones es más
sostenible que la creencia de muchas escuelas budistas de que existen
treinta y un ámbitos de existencia distintos.[19] Además, la hasta ahora no
verificable idea de que la materia del universo no se reduce a partículas
fundamentales sino a cuerdas de energía no parece ni más ni menos
razonable que la visión de las Upanishad de que el prana (la energía vital)
es el sustrato esencial de todas las formas de energía y, en muchas
interpretaciones, de toda la materia.[20]
4. Multiverso cosmológico fuerte.
Esto lleva la conjetura a su conclusión lógica: universos en los que todo
es posible.
Tegmark propone con entusiasmo este punto de vista, etiquetándolo
como un universo de Nivel IV, lo que «elimina la necesidad de especificar
nada».[21]
Adopta una postura platónica y asegura que una estructura matemática
satisface un criterio básico de existencia objetiva porque es siempre igual,
sea quien sea quien la estudie: «un teorema es cierto independientemente
de si lo pone a prueba un ser humano, un ordenador o un delfín
inteligente».
Propone asimismo que «todas las estructuras matemáticas existen
también físicamente. Toda estructura matemática se corresponde con un
universo paralelo. Los elementos de este multiverso no residen en el
mismo espacio sino que existen fuera del espacio y el tiempo». Sin
embargo, no consigue explicar ni sugerir cómo se originaron estas
estructuras matemáticas.
Reconoce que no existe ninguna estructura matemática conocida que
encaje exactamente con nuestro universo y llega a la conclusión de que o
encontramos una o «chocaremos contra el límite de la efectividad
irracional de las matemáticas» y tendremos que abandonar este nivel.
Afirma que el concepto de multiverso supera el test de la parsimonia.
Defiende que es posible dar la vuelta al argumento de que la naturaleza no
es tan despilfarradora como para permitirse una infinidad de mundos
distintos que nunca podremos observar y defender un multiverso, porque el
conjunto completo siempre suele ser más sencillo que uno solo de sus
integrantes. Por ejemplo, el conjunto de soluciones a las ecuaciones de
campo de Einstein es más sencillo que una solución concreta. «En este
sentido, los multiversos del nivel más superior son los más sencillos».
Puesto que «el multiverso de Nivel IV elimina la necesidad de especificar
cualquier cosa […] el multiverso no podría ser más sencillo».
Creo que podría discutirse que si no se especifica nada en absoluto, el
multiverso no tiene ningún sentido.
De un modo similar, esa misma falta de especificidad significa que es
imposible demostrar cualquier consistencia externa, bien con las
evidencias, bien con otros dogmas científicos.
Además, Tegmark no ofrece razones para detenerse en las estructuras
matemáticas. Si todo es posible, la consecuencia es que uno de los
universos posibles posee propiedades que están determinadas, no por una
estructura matemática sino por Dios y de tal manera, además, que la
evolución de seres humanos como nosotros es un resultado inapelable. Y
este es precisamente el universo antrópico por diseño divino que el
multiverso pretende contratacar.

Conclusiones

Ni la ciencia ni la razón ofrecen una explicación convincente sobre el origen


y la forma del universo y, en consecuencia, tampoco la ofrecen sobre el origen
de la materia y la energía de las que estamos hechos. Creo que probablemente es
algo que queda lejos de su alcance. Según Ellis, la ciencia tiene una capacidad
tremendamente limitada para dar respuesta a preguntas tan fundamentales como
estas. Las evidencias obtenidas hasta el momento en nuestro periplo apoyan su
«profunda conclusión de que obtener la certidumbre en el conocimiento de los
fundamentos de todas las áreas de la vida, incluyendo tanto la física
fundamental, como la cosmología, la filosofía e incluso, el bastión
aparentemente inexpugnable de las matemáticas, es una cuestión inalcanzable».
[22] No pretendo con esto que nos aboquemos a la desesperación y al
pesimismo. Si aceptamos las limitaciones de la ciencia y el razonamiento,
«podemos conseguir una comprensión satisfactoria, profunda incluso, del
universo y de su funcionamiento, y, por mucho que debamos tener siempre
presente que es provisional, podrá aportarnos una visión del mundo satisfactoria
y una base de actuación».
Por suerte, la ciencia aumentará su poder explicativo cuando pasemos del
origen de la materia a su evolución.
[1]Para estas divisiones he recurrido a Ellis (2007), S.9.3.3.
[2]Tegmark, Max, «Parallel Universes» Scientific American, 1 de mayo de 2003,
http://www.sciam.com/article.cfm?articleID=000F1EDD-B48A-1E90-8EA5809EC5880000. Consultado el
8 de agosto de 2006.
[3]Penrose (2004), pp. 17–19 y 1027–1029.
[4]Ward, Keith, «Cosmology and Creation», Gresham College lecture, Londres, 17 de noviembre de
2004.
[5]Elgin (1993), capítulo 13.
[6]Smolin (1998), p. 242.
[7]Weinberg (1994), p. 94.
[8]Rees (2000).
[9]Smolin (1998), p. 198.
[10]Véase página 68.
[11]Véase capítulo 9 para una explicación más detallada.
[12] Véase página 160.
[13] Ya que el número de resultados alternativos de todos los sucesos cuánticos desde el Big Bang es
inimaginablemente grande, Paul Davies describió esta conjetura como «barata en supuestos pero cara en
universos».
[14] Véase página 108.
[15] Véase página 121 y página 130.
[16] Véase página 130.
[17] Véase página 130.
[18]Íbid, p. 184,
[19]http://www.accesstoinsight.org/ptf/dhamma/sagga/loka.html. Consultado el 9 de junio de 2014.
[20] Véase glosario para una interpretación completa.
[21]Tegmark (2003).
[22]Ellis (2002), S.6.6.
CAPÍTULO 8. LA EVOLUCIÓN DE LA MATERIA A
GRAN ESCALA

Tenemos que explicar por qué el universo es tan uniforme a grandes escalas y sugerir, además, el
mecanismo que produce las galaxias.

ANDREI LINDE, 2001

Por muy impresionante que sea una teoría cosmológica, tiene que cuadrar con lo que nosotros vemos
en el cielo.

MICHAEL ROWAN-ROBINSON, 1991

Como hemos visto, la ortodoxia cosmológica actual y las explicaciones sobre


el origen del universo que compiten con ella son más conjeturas que teorías
científicas respaldadas con evidencias. Examinaré a continuación la explicación
que da la ciencia a cómo evolucionó la materia desde su estado primordial hasta
formas más complejas, culminando con el ser humano.

Evolución: proceso de cambio que afecta a alguna cosa, especialmente


de un estado sencillo a otro más complejo.

Utilizo este significado porque quiero dejar claro que la evolución no está
limitada a la evolución biológica, sino que es un fenómeno que percibimos en
todo el universo.
Como que la evolución de la materia depende críticamente de cómo
interactúan los distintos elementos de la materia, comentaré en primer lugar lo
que conoce hoy en día la ciencia sobre las cuatro interacciones fundamentales a
las que sabemos que se reducen las fuerzas naturales. A continuación resumiré el
relato que la ortodoxia cosmológica actual hace de la evolución de la materia a
gran escala, distinguiendo entre conjetura e hipótesis, por un lado, y teoría
sustentadas por evidencias firmes, por el otro, y consideraré los desafíos
razonables y las explicaciones científicas alternativas cuando sea necesario. En
el capítulo siguiente examinaré la evolución de la materia a pequeña escala.

Las fuerzas fundamentales de la naturaleza

Subhash Kak, profesor Regents y director del departamento de Ciencias de la


computación de la Oklahoma State University, afirma que en la India antigua ya
se conocía la gravedad.[1] Muchos filósofos, desde Aristóteles en el siglo IV a.
C., especularon sobre la fuerza que provoca el movimiento de los planetas y
también sobre la fuerza que provoca la caída de los objetos hacia la Tierra. Pero
es a Isaac Newton a quien se atribuye la formulación de una ley de la gravitación
universal que aplica tanto a la fuerza que retiene a los objetos en la Tierra como
a la fuerza que mantiene a la luna y los planetas en sus órbitas. La ley se publicó
en 1687 como parte de la obra Principia Mathematica.
La fuerza magnética se conoce al menos desde el siglo V a. C., la electricidad
estática fue mencionada por Tales hacia 600 a. C., mientras que las corrientes
eléctricas fueron descubiertas en 1747 por William Watson. El reconocimiento
de que la fuerza eléctrica y la fuerza magnética eran lo mismo se inició en 1820,
cuando Hans Orsted descubrió que las corrientes eléctricas producían campos
magnéticos, mientras que Michael Faraday demostró en 1831 que un campo
magnético cambiante induce una corriente eléctrica. Entre 1856 y 1873, James
Clerk Maxwell desarrolló la teoría del campo electromagnético dotándola de una
base matemática, derivó de ella las leyes del electromagnetismo y descubrió el
carácter electromagnético de la luz.
Después del descubrimiento del neutrón en 1932, Hideki Yukawa propuso en
1935 la existencia de una fuerza entre nucleones[2] que adoptaba la forma de un
intercambio de partículas masivas, a las que denominó bosones. La idea fue
desarrollada a finales de los 70, cuando físicos de partículas llegaron a la
conclusión de que los quarks, y no los nucleones, eran las partículas
fundamentales y que su interacción —la fuerza fuerte— constituía una fuerza
fundamental de la naturaleza, lo que relegó la fuerza nuclear a algo «residual» de
la fuerza fuerte.
Henri Becquerel descubrió los «rayos uránicos» en 1896, aunque eso fue
décadas antes de que los científicos comprendieran los diversos procesos de
desintegración radiactiva por las que un núcleo atómico inestable pierde energía
emitiendo radiación en forma de partículas o de ondas electromagnéticas. La
fuerza débil, responsable de un tipo de desintegración radiactiva, fue definida
como tal en 1956 por Chen Ning y Tsung Dao Lee, cuando predijeron que la ley
de conservación de paridad[3] —considerada hasta entonces universal— no se
mantenía con interacciones débiles. Chien-Shiung Wu confirmó
experimentalmente la hipótesis un año más tarde.
Las cuatro fuerzas fundamentales que actúan entre las partículas elementales
de las que se supone es que está compuesta toda la materia, se conocen hoy en
día como las cuatro interacciones fundamentales. Los conocimientos que sobre
ellas tiene la ciencia actual podrían resumirse como sigue.

Interacción gravitatoria

En la física newtoniana, la fuerza gravitatoria es una fuerza instantánea de


interacción entre todas las partículas de masa. Es la única universal de las cuatro
interacciones fundamentales. Su alcance es infinito, su efecto siempre es
atractivo y se obtiene multiplicando las masas y dividiendo el producto obtenido
por el cuadrado de la distancia entre los centros de masa de las partículas y
multiplicando el resultado por la constante universal, G, lo que se conoce como
la constante gravitatoria de Newton. Se expresa matemáticamente como sigue:

Donde F es la fuerza gravitatoria, m1 y m2 son las masas, r es la distancia


entre los centros de masa y la constante, G, es un número increíblemente
pequeño: 6,67 x 10-11 metros3 (kg-seg2)-1.
Físicos e ingenieros siguen utilizando hoy en día esta ecuación porque la
mayoría de masas y velocidades que experimentamos coinciden a la perfección
con los datos. Se utiliza, por ejemplo, para calcular las trayectorias de los vuelos
espaciales. La teoría científica actual, sin embargo, la considera tan solo una
buena aproximación. La teoría de la relatividad general de Einstein cambió el
concepto de la gravedad: no es una fuerza de interacción entre masas sino una
deformación del tejido espacio-tiempo provocada por la masa; no es
instantánea[4].
Según la teoría del campo cuántico, el campo gravitatorio creado por una
masa debería ser «cuantizable», es decir, su energía debería aparecer en cuantos
discretos, lo que se conoce como gravitones, del mismo modo que la energía de
la luz aparece en cuantos discretos llamados fotones; la teoría, sin embargo, se
desmorona cuando se aplica a energías muy elevadas (y, en consecuencia, a
longitudes de onda muy cortas). Las masas aceleradas deberían emitir ondas
gravitacionales —que son campos gravitatorios en propagación—, del mismo
modo que las cargas aceleradas emiten ondas electromagnéticas. En 2014,
científicos de los observatorios gemelos Laser Interferometer Gravitational-wave
Observatory (LIGO) [Observatorio de ondas gravitacionales con interferómetro
láser], localizados en Livingston (Louisiana) y Hanford (Washington),
anunciaron la detección de ondas gravitacionales generadas durante la última
fracción de segundo de la fusión de dos agujeros negros, para producir un único
agujero negro más masivo en rotación. No existen actualmente evidencias que
soporten la existencia de los gravitones.

Interacción electromagnética

La interacción electromagnética se asocia con los campos eléctricos y


magnéticos, que son manifestaciones de un único campo electromagnético.
Gobierna la interacción entre dos partículas cargadas eléctricamente, como un
protón y un electrón, y es responsable de las interacciones químicas y de la
propagación de la luz.
Igual que sucede con la interacción gravitatoria, su alcance es infinito y su
fuerza es inversamente proporcional al cuadrado de la distancia entre partículas;
pero a diferencia de la interacción gravitatoria, puede ser tanto atractiva, cuando
las dos cargas son distintas (positiva y negativa) como repulsiva, cuando las dos
cargas son iguales (ambas positivas o ambas negativas). La interacción
electromagnética entre átomos es 1036 veces más fuerte que su interacción
gravitatoria.
Según el modelo estándar de la física de partículas, opera por el intercambio
de un mensajero o partícula portadora, el fotón sin masa, entre partículas con
carga. El fotón es un cuanto de energía electromagnética que posee propiedades
tanto de partícula como de onda y tiene un tiempo de vida indeterminado. Su
existencia queda demostrada por el efecto fotoeléctrico, por el cual los metales
emiten los electrones cuando son irradiados por la luz, un fenómeno que la física
clásica no alcanza a explicar pero que sí explica la teoría de los fotones de
Einstein.
La interacción electromagnética domina a escala de átomos y moléculas: los
átomos se mantienen unidos gracias a ella. Un átomo de hidrógeno consiste en
un protón con carga positiva alrededor del cual, y gracias a la fuerza
electromagnética de atracción, se mantiene en órbita un electrón con carga
negativa. Cuando dos átomos de hidrógeno se unen en una molécula, la fuerza
eléctrica repulsiva de los dos protones se equilibra mediante la fuerza de
atracción de los dos electrones en órbita, haciendo que la molécula sea
electrónicamente neutra y estable.
Según la teoría cuántica, los electrones muestran cualidades tanto de
partículas como de ondas y por lo tanto, no orbitan alrededor del núcleo cargado
positivamente en un plano, como orbitaría la Tierra alrededor del sol, sino que lo
hacen en una órbita en forma de cubierta o capa. Esto significa que la carga
negativa se extiende por el exterior del átomo o molécula. En consecuencia,
cuando dos moléculas en movimiento chocan, la fuerza de repulsión entre las
dos capas con carga negativa hace que las moléculas reboten. Y como que esta
interacción electromagnética es 1036 veces más fuerte que la interacción
gravitatoria entre las moléculas, la interacción gravitatoria puede ignorarse a
nivel atómico y molecular.
A modo de ilustración, si usted saltara desde lo más alto del Empire State
Building, la interacción gravitacional entre usted y el centro de la Tierra le haría
acelerar hacia el centro de la Tierra. Pero no conseguiría llegar allí porque la
capa de electrones con carga negativa que rodea sus moléculas exteriores se
vería repelida por la capa de electrones con carga negativa de las moléculas
exteriores del pavimento: la colisión lo destrozaría.
La gravedad, sin embargo, domina las masas grandes de tamaño planetario.
Y es así porque la gravedad siempre es atractiva: si duplicamos la masa,
duplicamos la fuerza gravitatoria que ejerce. Pero dos cargas solo pueden ejercer
el doble de fuerza de una sola si ambas son positivas o ambas son negativas. Un
cuerpo grande, como la Tierra, está integrado por prácticamente la misma
cantidad de carga positiva que negativa. En consecuencia, la interacción
atractiva y repulsiva entre las partículas a nivel individual queda cancelada y la
interacción electromagnética neta es mínima. En la escala de un planeta pequeño
o similares (incluyendo nuestra luna, que es excepcionalmente grande), la
gravedad reemplaza el electromagnetismo y es la responsable de su forma
esférica.

Interacción fuerte

Se cree que la interacción fuerte es la fuerza que mantiene unidos a los


quarks para que forman protones, neutrones y otros hadrones, y que une a
protones y neutrones para que formen el núcleo del átomo, superando con ello la
repulsión eléctrica de los protones con carga positiva. Por lo tanto, es la
responsable de la estabilidad de la materia.
Su alcance es aproximadamente el de un núcleo atómico y a estas distancias
su fuerza es unas cien veces superior a la de la interacción electromagnética. Si
fuera más fuerte, sería difícil romper los núcleos, no habría reacciones nucleares
en cadena en el interior de las estrellas y no podría producirse ningún elemento
más allá del litio. Si fuera más débil, los núcleos atómicos que poseyeran más de
un protón no serían estables y no habría elementos más allá del hidrógeno. Si
actuara sobre los electrones, los empujaría hacia el núcleo y tanto las moléculas
como las reacciones químicas serían imposibles. Si tuviera un alcance infinito,
como la gravedad y el electromagnetismo, uniría a todos los protones y
neutrones del universo en un único núcleo gigantesco.
Según el modelo estándar de la física de partículas, opera por el intercambio
de un gluon sin masa —una partícula mensajera o intermediaria— entre quarks,
de los que se supone que están compuestos protones y neutrones. No se han
observado gluones libres, de los que se supone que existen ocho tipos. Su
existencia fue deducida en 1979 a partir de colisiones entre electrones y
positrones en el acelerador de partículas DESY de Hamburgo.

Interacción débil

La interacción débil es la fuerza fundamental entre partículas elementales de


materia que juega un papel trascendental en la transformación de unas partículas
en partículas distintas, a través, por ejemplo, de una desintegración radiactiva. Es
la responsable de transformar un electrón y un protón en un neutrón y un
neutrino, una fase fundamental de las reacciones nucleares que se producen en el
interior de las estrellas.
Es la interacción entre partículas fundamentales de espín ½, como los
neutrinos, pero no entre partículas de espín 0, 1 o 2, como los fotones. Es varios
órdenes de magnitud más débil que la interacción electromagnética y mucho más
débil que la interacción nuclear fuerte, mientras que su alcance es de una
milésima parte el diámetro del núcleo atómico.
Según el modelo estándar de la física de partículas, opera por el intercambio
de partículas mensajeras —las potentemente cargadas W+ y W-— y los bosones
Z neutros; estas partículas fueron detectadas en 1983 con el acelerador de
partículas CERN instalado en Ginebra.
Puesto que dos de estas interacciones han sido descubiertas y confirmadas en
los últimos ochenta años, sería poco inteligente asumir que en el futuro no se
descubrirán otras fuerzas o interacciones de carácter distinto. De hecho, hay
quien afirma haber identificado, a través de estudios de la conciencia humana,
una o más fuerzas adicionales. Examinaré las propuestas más razonables cuando
llegue su momento, pero por el momento adelantaré que no mantienen ningún
tipo de relación aparente con el relato cosmológico de la evolución de la materia.
La evolución de la materia según la cosmología ortodoxa actual

Si agrupamos los resúmenes de las hipótesis y conjeturas discutidas en los


anteriores capítulos y les incorporamos información obtenida a partir de otras
fuentes obtenemos lo que podría definirse como un calendario de la evolución de
la materia según la cosmología ortodoxa actual.

El Big Bang caliente

Tiempo: 0; Temperatura: ¿infinita?; Radio del universo: 0

El universo, incluyendo espacio, tiempo y una única fuerza de la naturaleza,


cobra existencia a partir de la nada en forma de minúscula bola de fuego de
radiación con el Big Bang caliente. Sin embargo, si utilizamos la teoría general
de la relatividad para realizar una extrapolación hacia atrás del universo, se
produce una singularidad, un punto de densidad infinita y temperatura infinita en
el que la teoría de la relatividad se desmorona; el principio de incertidumbre de
la teoría cuántica insinúa que nada tiene sentido antes de los 10-43 segundos
después del principio del tiempo.[5] Esta extrapolación de la física conocida al
tiempo, t = 0, no es fiable,[6] por lo que esta explicación del origen de la materia
es una conjetura.

Tiempo: 10-43 segundos; Temperatura: 1032 K;


Radio del universo: 10-33 centímetros

El radio del universo es la distancia más corta recorrida a la velocidad de la


luz en la que es aplicable la teoría cuántica (longitud de Planck[7]). La fuerza
gravitatoria se separa de la fuerza universal dejando una gran fuerza unificada.
El universo se expande rápidamente, pero su ritmo de expansión está
ralentizándose. A medida que se expande y se enfría, la radiación generada por
el Big Bang produce partículas y antipartículas fundamentales que se aniquilan
mutuamente y se convierten de nuevo en radiación. El universo en expansión es,
pues, una sopa en ebullición de energía de radiación en forma de fotones, junto
con una proporción mucho más pequeña de electrones, cuarks, gluones y otras
partículas fundamentales, más sus correspondientes antipartículas, cuya
existencia queda predicha por el modelo estándar de la física de partículas.
Los quarks nunca se han detectado a nivel individual (ni tampoco los
correspondientes gluones que hipotéticamente actúan como las partículas que
transportan la fuerza fuerte). Su existencia fue deducida a finales de los años 60
a partir de los patrones de dispersión detectados en experimentos de disparo de
electrones contra núcleos atómicos llevados a cabo en el Stanford Linear
Accelerator Center. Para explicar por qué nunca se han detectado quarks a nivel
individual, los físicos de partículas conjeturan que están confinados en el interior
de bariones (tres quarks) y mesones (un quark y un antiquark); si la energía se
destina a extraer un quark de un barión, se transforma en una pareja quark-
antiquark.[8]
La especulación de que la gravedad surge a partir de una única fuerza
universal se basa en las conjeturas de una Teoría del Todo, que extrapola hacia
atrás en el tiempo cien millones de veces a partir de las ideas de las teorías de
gran unificación (TGU) de la física de partículas (véase abajo), que son
problemáticas en sí mismas. No existen todavía evidencias que lo sustenten y,
por lo tanto, sigue siendo una conjetura.

Tiempo: 10-35 segundos; Temperatura: 1027 K; Radio del universo: 10-17


centímetros

Según las teorías de gran unificación (TGU), cuando el universo en


expansión se enfría por debajo de 1027 K (mil millones de millones de millones
de grados), la radiación deja de producir las hipotéticas partículas portadoras o
mensajeras que perciben tanto las fuerzas fuertes como las débiles. Estas
partículas se desintegran y la fuerza fuerte —que mantiene los quarks unidos y,
en consecuencia, los protones y los neutrones— y la fuerza electro-débil se
separan de la gran fuerza unificada. Esta fase de transición separa relativamente
las partículas fundamentales grandes (quarks con carga positiva y antiquarks con
carga negativa) de los leptones relativamente pequeños (partículas que incluyen
electrones con carga negativa y neutrinos neutros). La conjetura defiende que
esta ruptura de la simetría explica la aparente ausencia de antimateria en el
universo.[9] El modelo estándar de la física de partículas plantea la hipótesis de
que a temperaturas superiores a 1015 K, todas estas partículas fundamentales de
materia (quarks, leptones y sus correspondientes partículas de antimateria)
carecen de masa.
La TGU más simple y sencilla, propuesta por Howard Georgi y Sheldon
Glashow en 1974 y conocida como SU(5), es matemáticamente elegante, lógica
y ofrece una predicción precisa sobre la desintegración de los protones. Sin
embargo, más de veinticinco años de experimentos no han conseguido detectar
evidencias de desintegración de protones cuando, estadísticamente, tendría que
haberse producido. La SU(5) quedó así desaprobada. Se desarrollaron otras
TGU, incorporando más simetrías y más partículas y, por lo tanto, más
constantes que ajustar, permitiendo que el ritmo de desintegración de los
protones cambiara para que los teóricos pudieran, en palabras del físico teórico
Lee Smolin, «conseguir fácilmente que la teoría quedara a salvo del fallo
experimental». Estas TGU han «dejado de ser explicativas».[10] Son conjeturas.
En varios modelos, la inflación empieza o termina en esta hipotética fase de
transición hacia el universo. Las preferidas actualmente especulan con que la
inflación empieza y luego termina en un Big Bang caliente antes de que el
universo se enfríe a 1027 K, cuando las fuerzas fuertes y débiles se separan.[11]
Seguimos estando en el terreno de la conjetura.

Tiempo: algún momento entre 0 y 10-35 segundos; Temperatura: ?;


Radio del universo: inflado hasta alguna cantidad situada entre 1010 y (1010)12
centímetros

Dependiendo de cuál de entre el centenar aproximado de versiones de la


conjetura de la inflación elijamos, en algún momento indeterminado del pasado,
entre 0 y 10-11 segundos después del comienzo del espacio-tiempo, el universo
sufre una inflación exponencial durante un periodo de tiempo indeterminado,
aunque increíblemente breve, que aumenta el radio del universo hasta un tamaño
situado entre 1010 y 101000000000000 centímetros.[12] (Se cree que el radio
actual del universo observable es de 1028 centímetros.) Esta enorme
discrepancia en el hipotético tamaño tiene su origen no solo en las diferencias
del periodo de inflación asumido, sino también en las diferencias del radio
inicial asumido, puesto que algunas versiones suponen que era
considerablemente inferior a la longitud de Planck y que la inflación se inició en
un momento considerablemente inferior al tiempo de Planck, 10-43 segundos
después del comienzo de los tiempos. Estas versiones presentan problemas
teóricos, puesto que la teoría cuántica se desmorona con un tiempo inferior a 10-
43 segundos.
En la actualidad, los cosmólogos tienden a apoyar versiones en las que la
creación del universo va seguida por una inflación exponencial extremadamente
rápida de un falso estado de vacío y termina con el recalentamiento de una
burbuja vacía que produce un Big Bang caliente, a partir del cual se produce la
lenta expansión del universo tal y como ha quedado expuesta previamente.
Si todo esto parece confuso es porque la mayoría de cosmólogos presenta el
modelo del Big Bang inflacionario como la única explicación de la evolución del
universo, pero no se muestran de acuerdo en cuanto a cuándo y cómo empezó y
terminó la inflación; hasta la fecha, las evidencias no confirman la validez de
ninguna versión ni sustentan ninguna por encima de otra.[13]

Tiempo: 10-10 segundos; Temperatura: 1015 K; Radio de nuestra parte del


universo: 3 centímetros

Cuando el universo se expande, la partícula de energía cae hasta la escala de


energía típica de la fuerza débil, que se corresponde con una temperatura de
1015 K, momento en el cual se separa de la fuerza electromagnética.
La teoría de que por encima de esta temperatura ambas fuerzas son la misma
—la fuerza electrodébil—, fue desarrollada en los años 60 del siglo pasado por
Sheldon Glashow, Steven Weinberg y Abdus Salam, y compartieron por ella el
Premio Nobel. La teoría ganó apoyos con el descubrimiento de tres de las varias
partículas elementales que predecía y se convirtió en la base del modelo estándar
de la física de partículas.
Muchas de las predicciones del modelo electrodébil se han verificado con
gran precisión. Una de sus predicciones clave es la existencia del bosón de
Higgs, la partícula mensajera cuya interacción con quarks y leptones
proporciona masa a estas partículas fundamentales y, en consecuencia, a todas
las partículas de masa del universo. En 2012, dos experimentos llevados a cabo
en el Gran colisionador de hadrones de Ginebra identificaron la brevísima
existencia del bosón de Higgs, o posiblemente de una familia de bosones de
Higgs, en cuyo caso el modelo estándar tendrá que revisitarse.[14]

Tiempo: 10-4 segundos; Temperatura: 1011 K; Radio de nuestra parte del


universo: 106 centímetros

El universo se expande y se enfría hasta el punto en que quarks «trillizos»


quedan confinados en el interior de un rango de partículas llamadas hadrones, en
las que los protones y los neutrones estables constituyen los bloques
constructivos básicos de la materia que conocemos. El protón tiene una carga
eléctrica equivalente en fuerza a la de un electrón, pero es positivo en
comparación con la carga negativa del electrón; posee una masa 1836 veces
superior a la del electrón. El protón recibe también el nombre de ion hidrógeno.
[15] Inicialmente, el número de protones y neutrones es idéntico; sin embargo, la
masa de un neutrón es ligeramente superior a la masa de un protón, de ahí que
para crear un neutrón se necesite más energía.

Tiempo: 1 segundo; Temperatura: 1010 K; Radio de nuestra parte del universo:


1010 centímetros

Se producen menos neutrones porque su masa superior exige más energía.


Los protones y los neutrones se separan a una razón de 7:1.

Tiempo: 100-210 segundos; Temperatura: 109 K → 108 K; Radio de nuestra


parte del universo: ~1012 centímetros
Llegado este punto, los neutrones y los protones que colisionan se fusionan,
se enlazan gracias a la interacción fuerte, con lo que se libera un fotón de
energía; la energía de los fotones que colisionan con las partículas fusionadas ya
no es superior a la energía nuclear que los enlaza, razón por la cual los fotones
no pueden separarlos.
Una pareja protón-neutrón recibe el nombre de núcleo de deuterio, que es un
isótopo[16] del hidrógeno. Los núcleos de deuterio se fusionan entre sí y con
otros productos de la fusión para producir núcleos de helio-3, helio-4, tritio y
litio-7 (véase figura 8.1). Este proceso de fusión nuclear, increíblemente rápido y
con diversas fases, se conoce como nucleosíntesis.
En los núcleos del litio-7 se producen colisiones en cantidades minúsculas.
Aparte de esto, y debido a que no existe ningún núcleo estable con cinco
partículas, el modelo de nucleosíntesis del Big Bang no produce ningún núcleo
mayor que el del helio-4, que consiste en dos protones y dos neutrones. Presenta,
con diferencia, la energía de enlace más elevada de todos los núcleos, con un
número de masa (número de nucleones) inferior a cinco, y es el principal
producto de la nucleosíntesis del Big Bang.[17]
Cuando el universo se expande y se enfría por debajo de cien millones de
grados (108 K), la temperatura no es lo suficientemente elevada como para
provocar la fusión y la nucleosíntesis se acaba, dejando en torno al 95 por ciento
de los núcleos como protones estables (hidrógeno-1), el 5 por ciento como
núcleos estables de helio-4, y trazas de núcleos de deuterio, helio-3 y litio-7.[18]
La relativa abundancia de estos elementos[19] que encontramos hoy en día
en el universo se presenta como una prueba poderosa del modelo del Big Bang,
pero también esto se ha puesto en duda.[20] Seguimos en el terreno de las
hipótesis.
En este momento, la densidad media de la materia es equivalente a la actual
densidad del agua.

Los isótopos de hidrógeno reciben nombres especiales: el hidrógeno-


2 se conoce como deuterio, mientras que el hidrógeno-3 se conoce
como tritio.
Tiempo: 3 ½ minutos hasta 380.000 años; Temperatura: 108 K → 104 K;
Radio de nuestra parte del universo: 1013 → 1023 centímetros

Durante los 380.000 años siguientes, el universo en expansión y enfriamiento


consiste en un plasma integrado por estos núcleos con carga positiva más
electrones con carga negativa emparejados con fotones de radiación de carga
neutra. Al inicio, la radiación domina porque la densidad de energía de los
fotones es mucho mayor que la densidad de energía de la materia. Pero a medida
que el universo se expande y se enfría, la densidad de energía de la materia
disminuye menos que la de la radiación: la densidad de los fotones y de las
partículas de materia disminuye en proporción al volumen pero, mientras que las
partículas de materia retienen su energía-masa (calculada mediante E = mc2),
cada fotón va perdiendo energía al extenderse hacia longitudes de onda más
extensas.

Tiempo: 380.000 años; Temperatura: 3.000 K; Radio de nuestra parte del


universo: 1023 centímetros

El universo se enfría hasta el punto en que los electrones con carga negativa
acaban siendo capturados por núcleos con carga positiva para formar moléculas
de hidrógeno (H2) diatómicas estables con carga eléctricamente neutra, más
trazas de deuterio (D2 y HD) junto con átomos de helio (He) y trazas de litio
(Li). La radiación electromagnética se escinde de la materia y se expande por el
universo en proceso de expansión y enfriamiento para formar el fondo cósmico
de microondas que detectamos hoy en día.[21]
Tiempo: 200-500 millones de años; Temperatura: variable; Radio del universo
observable: 1026 (1 por ciento del radio actual) a 1027 centímetros (10 por
ciento del radio actual)

Las diferencias de densidad de la nube de moléculas —principalmente gas


hidrógeno— crea campos gravitatorios que ralentizan las regiones más densas,
que acaban separándose y formando nubes de años luz de anchura que siguen
contrayéndose bajo su propia gravedad. La conversión de la energía gravitatoria
potencial en la energía cinética de las moléculas incrementa la temperatura en el
centro, o núcleo, de las nubes; el espacio entre las nubes sigue expandiéndose.
Entre 200 y 500 millones de años después del Big Bang, algunas nubes se
han contraído tanto, y su núcleo se ha calentado hasta tal punto —15 millones de
grados Kelvin—, que se encienden como consecuencia de la fusión del
hidrógeno y su núcleo emite una radiación caliente y luminosa que contrarresta
cualquier colapso gravitatorio. Se forma así la primera generación de estrellas y
las galaxias empiezan a tomar forma bajo la influencia gravitatoria de materia
oscura desconocida.
Los únicos elementos del universo son el hidrógeno, el helio y trazas de litio.

Tiempo: 500-13,8 miles de millones de años; Temperatura: variable; Radio del


universo observable: se expande hasta 13,8 miles de millones de años luz

La primera generación de estrellas grandes consume su hidrógeno y sufre un


colapso gravitatorio hasta el punto en que el aumento de temperatura hace que la
fusión del helio produzca carbono. El proceso continúa y produce, a través del
colapso y la fusión nuclear, elementos cada vez más pesados. Cuando agotan su
combustible nuclear y la liberación de radiación no basta para contrarrestar la
gravedad, implosionan y luego explotan para transformarse en supernovas,
proyectando los elementos más pesados hacia el espacio interestelar. De las
nubes de gas de hidrógeno interestelar mezclado con el polvo y el gas de las
supernovas surgen las estrellas de segunda y tercera generación, mientras que las
galaxias evolucionan, creando las estructuras que vemos hoy en día.
Esta historia ortodoxa del universo queda ilustrada en la figura 4.1 (página
92).

La estructura del universo

Como vimos en el capítulo 3, los supuestos simplificadores que se aplicaron


para resolver las soluciones de campo de la teoría de la relatividad general de
Einstein dan como resultado un universo homogéneo, pero las observaciones
demuestran que no es así: el universo está integrado por muchas estructuras
distintas. A continuación, examinaré estas estructuras con mayor detalle y
explicaré luego su evolución.
Una galaxia es un conjunto de estrellas que orbita alrededor de un centro. Un
ejemplo es nuestra Vía Láctea, que comprende unos cien mil millones de
millones de estrellas y tiene una anchura aproximada de cien mil años luz. Vista
de perfil, parece un huevo frito rodeado por más de un centenar de puntos
brillantes, que son cúmulos globulares, nudos formados por cientos de miles de
estrellas antiguas (véase figura 8.2); la protuberancia central contiene estrellas
viejas y, visto desde arriba, el disco se ve como una espiral integrada por
estrellas más jóvenes, gas y polvo (véase figura 8.3). Además de galaxias en
espiral, como la Vía Láctea, se han observado otras formas de galaxias, como las
galaxias elípticas —que se cree que son esferoides— y las irregulares. Las
evidencias indican que algunas de estas galaxias son el resultado de la colisión
de galaxias que en su día eran independientes.[22]
En el siguiente nivel, las galaxias forman grupos locales, como nuestro
Grupo Local, que tiene una anchura de varios millones de años luz e integra
nuestra Vía Láctea, una galaxia en espiral de tamaño mayor llamada Andrómeda
hacia la que estamos desplazándonos, más una treintena más de galaxias de
menor tamaño. Nuestro Grupo Local se sitúa cerca del extremo del Cúmulo de
Virgo, integrado por más de mil galaxias y cuyo centro está a cincuenta millones
de años luz de nosotros.
Como vimos en el capítulo 3, en 1989 un grupo de astrónomos descubrió
otro nivel de estructura: gigantescos supercúmulos en forma de sábana separados
entre sí por grandes vacíos similares a burbujas. Observaciones posteriores de
secciones más grandes y más remotas del universo, llevadas a cabo con
instrumentos más sensibles, revelaron supercúmulos mayores si cabe —de hasta
diez mil millones de años luz de longitud—, cuyo tamaño quedaba solo limitado
por el alcance la investigación.[23] Todo esto contradice el supuesto ortodoxo de
que, a gran escala, el universo es isotrópico y homogéneo.

Causas de la estructura del universo

Los cosmólogos explican que lo que provocó la estructura del universo fue la
inestabilidad gravitatoria. Según esta explicación, las pequeñas heterogeneidades
de la materia (principalmente de las moléculas de hidrógeno) del universo
primitivo crearon regiones ligeramente más densas que el resto. El campo
gravitatorio de estas regiones más densas atrajo otra materia, que las hizo más
densas si cabe, creando de este modo un campo gravitatorio mayor que siguió
atrayendo materia, y así sucesivamente.
Todo esto parece razonable, aunque plantea dos preguntas: (a) ¿cómo
surgieron las heterogeneidades iniciales? y (b) ¿cómo produjeron estas
heterogeneidades las estructuras que observamos actualmente?

Causas de las heterogeneidades iniciales

La explicación ortodoxa era que la inflación elongó las fluctuaciones


cuánticas subatómicas de la materia creada por el Big Bang hasta el tamaño de
las galaxias o incluso mayor. Los patrones precisos de las ondulaciones del
fondo cósmico de microondas revelados en 1992 por el satélite COBE[24] eran
las evidencias que soportaban dicha explicación.
Pero si examinamos esta explicación con más detalle, resulta menos
convincente de lo que parece de entrada.
En la primera versión propuesta por Guth, la inflación terminaba con lo que
se conoce como una fase de transición de primer orden, en la que burbujas de
vacío formadas al azar colisionaban entre sí. Guth asumía que esto produciría las
heterogeneidades requeridas, pero cuando se realizaron todos los cálculos, el
resultado ofreció heterogeneidades excesivamente grandes.
En la segunda versión, se asumió que todo el universo observado estaba en el
interior de una única burbuja, de modo que cualquier colisión de burbujas
quedaba demasiado lejos como para tener efectos observables. La inflación
produciría un universo liso, aun en el caso de que la materia fuera
extremadamente grumosa antes de que se iniciara la inflación. Pero esto seguía
sin explicar cómo se produjeron las heterogeneidades.
El trabajo en colaboración de Guth, Steinhardt, Hawking y otros científicos
encontró una solución basada en las teorías de gran unificación. Según este
escenario, la inflación termina con la ruptura de simetría espontánea del campo
de Higgs, el hipotético campo escalar de energía donde el mediador es el bosón
de Higgs, que proporciona masa a las partículas fundamentales. Guth y sus
colaboradores asumieron que el espectro de las perturbaciones de densidad —
heterogeneidades fluctuantes— adoptaba una escala invariable, es decir, que
todas las longitudes de onda tienen la misma fuerza. Esto es lo que se había
descubierto en el fondo cósmico de microondas, interpretado como la reliquia de
la escisión de la radiación de la materia que, según las estimaciones de entonces,
se produjo 300.000 años después del Big Bang. Pero el resultado del cálculo de
la magnitud de las perturbaciones en el momento de la escisión era demasiado
grande para producir la estructura que observamos hoy en día.
Estaban convencidos de que el concepto era el correcto pero, viendo que el
campo de energía de Higgs daba un resultado erróneo, buscaron la solución en
conjeturar la existencia de otro campo escalar de energía, un campo de inflación
donde el mediador fuera una hipotética partícula inflatón, que sí dio el resultado
correcto. Tal y como Guth reconoce, «una teoría de este tipo se ve forzada por el
objetivo de conseguir que las perturbaciones de la densidad salgan correctas».
[25]
Versiones posteriores propusieron que las fluctuaciones cuánticas se
produjeron en un vacío preexistente y que el campo de la inflación las infló antes
de transformarlas en materia ligeramente heterogénea en un Big Bang caliente.
En 2014, Steinhardt llegó a la conclusión de que el modelo inflacionario es
tan flexible que «fundamentalmente no puede someterse a pruebas de laboratorio
y, por lo tanto, carece de sentido científico».[26] Además, como vimos en el
capítulo 6, varios cosmólogos afirman que el análisis de las ondulaciones
obtenido mediante el WMAP, el detector espacial cuarenta y cinco veces más
sensible que el COBE y lanzado una década después, muestra inconsistencias
importantes con el modelo de la inflación, afirmación que ha sido confirmada
por datos obtenidos en 2013 por el telescopio Planck[27], todavía más sensible.
Otras conjeturas cosmológicas recurren también a la densidad de las
ondulaciones del fondo cósmico de microondas.[28]
La única conclusión razonable a la que podemos llegar es que no sabemos de
dónde surgen las heterogeneidades iniciales y que la actual explicación ortodoxa
no es más que un modelo matemático forzado que sigue produciendo
inconsistencias con la observación.

Causas de las grandes estructuras

Y por lo que se refiere a cómo estas heterogeneidades iniciales produjeron las


grandes estructuras que observamos hoy en día, la mayoría de los trabajos se han
llevado a cabo a nivel de galaxias, utilizando como evidencias tanto nuestra
galaxia como de galaxias cercanas puesto que, hasta muy recientemente, eran las
principales estructuras que alcanzaba a mostrar la observación.
Hay dos conjuntos de modelos en competencia. Los modelos de
descendentes —como el que avanzaron Eggen, Linden-Bell y Sandage en 1962
—, proponen que las estructuras de nivel superior, como podría ser una nube
galáctica, son las primeras en formarse y a lo largo de cien millones de años
colapsan en nuevas estelares que producen estrellas.[29] Los modelos
ascendentes —como el que Searle y Zinn propusieron en 1978—, plantean que
las estrellas se forman primero y la atracción gravitatoria las une para formar
cúmulos globulares que, a su vez, se unen para formar una galaxia.[30]
Los datos aportados por el COBE en 1992 demostraron que ambos modelos
son erróneos. Según la interpretación ortodoxa del momento, indican un grado
de heterogeneidad en cuestión de 300.000 años después del Big Bang de uno
entre 100.000, una variación de densidad extremadamente pequeña para que la
inestabilidad gravitatoria pueda provocar la formación de cualquier tipo de
estructura.
Se plantearon entonces diversas conjeturas para explicar la formación de
estructuras, incluyendo entre ellas las cuerdas cósmicas (largos filamentos en
forma de espagueti sobre los que conjeturan algunas teorías de gran unificación
que se habrían formado en un universo muy primitivo como defectos
topológicos del tejido espacio-tiempo) y las ondas de choque provocadas por
cuásares, que crearían regiones con densidad de materia mucho más alta. Pero
esto no explica cómo se formaron los cuásares emisores de elevada energía ni los
gigantescos agujeros negros que supuestamente los causaron.
La mayoría de cosmólogos resucitó la idea de la materia oscura que había
propuesto Fritz Zwicky en 1933.[31] Para generar las estructuras observadas,
esta materia oscura tendría que constituir más del 90 por ciento de toda la
materia del universo.
Se desarrollaron dos conjeturas. El modelo de materia oscura descendente
especulaba que la materia oscura está integrada por partículas que se mueven
prácticamente a la velocidad de la luz. Una de las partículas candidatas fue la de
los neutrinos. Los físicos siempre habían pensado que estas partículas carecían
de masa y se movían exactamente a la velocidad de la luz, pero decidieron no
descartar la posibilidad de que los neutrinos tuvieran una pequeña masa y se
movieran a algo menos que la velocidad de la luz. De ser así, los neutrinos
formarían estructuras a escalas muy grandes que colapsarían para crear unos
colectivos con una forma similar a la de una tortita a partir de los cuales
surgirían las galaxias. Pero cuadrar esta imagen de arriba hacia abajo con la
distribución de las galaxias en cúmulos resultaba complicado.
La versión favorita fue el modelo de materia oscura ascendente, según el cual
la materia oscura estaría integrada por WIMP (partículas masivas de interacción
débil) de movimiento lento y, por lo tanto, frías, dejadas por el Big Bang. No
existen partículas conocidas que posean las propiedades necesarias para encajar
con el modelo, pero los físicos de partículas conjeturaron con diversas
candidatas, como el fotino, una versión súper pesada del fotón sin masa. Estas
súper partículas de interacción débil se habrían escindido de la radiación mucho
antes que los bariones (protones y neutrones que constituyen la materia que
observamos). Al ser de movimiento lento, se habrían ido amontonando bajo la
influencia de la gravedad hasta formar grandes masas galácticas. Cuando los
bariones se escindieron de la radiación, habrían sido atraídos por su campo
gravitatorio hacia el centro de una masa galáctica oscura donde habrían formado
una galaxia visible rodeada por un gran halo de materia oscura invisible y fría.
La atracción de la gravedad habría unido estas galaxias súper masivas —con un
tamaño diez veces superior a lo que hoy observamos— para formar cúmulos y
supercúmulos. El modelo, sin embargo, estaba obligado a asumir que la
formación de galaxias estaba «sesgada», puesto que las galaxias solo se
formarían allí donde la densidad de la materia oscura fría sufriera fluctuaciones
excepcionalmente grandes.
Pero incluso así, cuando se realizaron los cálculos para obtener una
estimación de la masa de todas las galaxias, incluyendo sus halos oscuros, y
conocer la densidad media de la masa del universo, el resultado no alcanzó el 10
por ciento necesario para la densidad crítica asumida por el modelo ortodoxo, en
el que la energía cinética de expansión queda compensada por la atracción
gravitatoria de la materia.[32]
Por lo tanto, conjeturaron los cosmólogos, para poder alcanzar esta densidad
crítica, en el universo tiene que haber muchísima más materia oscura. Con este
supuesto, la conjetura de la materia oscura fría o CDM (del inglés «Cold Dark
Matter») de creación ascendente pasó a formar parte del modelo ortodoxo.
Sin embargo, las estructuras grandes y los grandes vacíos identificados por
Geller y Huchra en 1989 arrojan serias dudas sobre el modelo CDM. Según
Michael Rowan-Robinson, el documento publicado por Nature en 1991 sirvió
para darle el golpe de gracia.[33] Will Saunders y nueve colaboradores, Rowan-
Robinson entre ellos, habían llevado a cabo una investigación de las galaxias con
desplazamiento al rojo detectadas por el Infrared Astronomical Satellite y
demostraron que a grandes escalas hay mucha más estructura que la vaticinada
por el modelo CDM.[34] Lo cual generó un artículo de opinión, «Cold Dark
Matter Makes an Exit» [La materia oscura fría se va], escrito por David Lindley,
editor de Nature, que destacaba que la desaprobación del modelo CDM estaba
protagonizada por un grupo que incluía algunos de los que habían sido sus
máximos defensores. Alertaba en contra de salvar el modelo introduciendo otros
parámetros hipotéticos, como una constante cosmológica, y comparaba intentos
de este tipo con las soluciones de Ptolomeo para explicar un sistema solar
centrado en la Tierra.[35]
Pero esto fue justo lo que sucedió. Tal y como declararon Volker Springel y
sus colegas en 2005: «Durante las últimas dos décadas, el modelo de la materia
oscura fría (CDM) aumentado mediante un campo de energía oscura (que podría
adoptar la forma de una constante cosmológica, Λ) se ha desarrollado hasta
convertirse en el modelo teórico estándar de la formación de galaxias».[36]

Evidencias a favor del modelo ortodoxo

Las evidencias a favor de este modelo provienen principalmente de dos


fuentes. En primer lugar, los cosmólogos defienden que el Millennium Run de
2005, una detallada simulación por ordenador, encaja bien con el modelo
ortodoxo. Sin embargo, igual que sucede con otras simulaciones por ordenador,
está basada en muchos supuestos, incluyendo la densidad de la materia oscura, la
materia visible y la energía oscura, que son necesarias para que el universo plano
de la ortodoxia sea consistente con las conjeturas de la inflación. Depende
asimismo de «un modelo post-hoc de la física de formación de galaxias».[37]
De nuevo, cuando el modelo se ajusta a las observaciones obtenidas, el
resultado coincide con la observación y, en consecuencia, no es predictivo.
En segundo lugar, se afirma que la existencia de materia oscura —aunque no
de qué está hecha— ha quedado demostrada mediante la lente gravitacional, con
la cual, según la relatividad general, el campo gravitatorio de la materia oscura
inferida desvía la luz de los objetos más remotos provocando múltiples imágenes
de estos objetos.[38] Sin embargo, hay modelos matemáticos alternativos (como
los de un universo pequeño o un universo esféricamente simétrico no
homogéneo) que también podrían explicar estos efectos.[39]

Evidencias contra el modelo ortodoxo

Según Riccardo Scarpa, como que la materia oscura no puede emitir luz ni
ninguna otra forma de radiación electromagnética, no puede irradiar su calor
interno, un proceso vital para llevar a cabo una contracción gravitatoria hasta la
escala relativamente pequeña de un cúmulo globular. De ahí que no debería
haber materia oscura en los pequeños nudos de estrellas que orbitan la Vía
Láctea y muchas otras galaxias. Con todo y con eso, Scarpa y sus colegas del
Observatorio Europeo Austral, localizado en Chile, encontraron evidencias en
2003 de que las estrellas de tres cúmulos globulares se mueven a mayor
velocidad que la que la gravedad de la materia visible es capaz de explicar.
Scarpa llega a la conclusión de que no hay necesidad de conjeturar acerca de
la existencia de la materia oscura en el universo. La explicación, propuesta más
de veinte años antes por Mordehai Milgrom, es que la ley de la gravedad de
Newton solo es válida por encima de una aceleración crítica. Jacob Bekenstein
desarrolló una versión relativista de la dinámica newtoniana modificada de
Milgrom que Constantinos Skordis, de la Universidad de Oxford, afirmó en
2005 haber utilizado para explicar tanto las ondulaciones del fondo cósmico de
microondas como la distribución de galaxias en el universo.[40]
Más aún, el Sloan Digital Sky Survey descubrió cuásares muy brillantes con
desplazamientos al rojo muy elevados. La interpretación ortodoxa de estos
desplazamientos al rojo los sitúa a unas distancias tan enormes que existirían
cuando el universo tenía menos de una décima parte de su edad actual.[41] La
mayoría de cosmólogos piensa que estas emisiones de radiación tan gigantescas
están producidas por una gran cantidad de gas muy caliente justo antes de su
absorción por un gigantesco agujero negro situado en el centro de una galaxia.
Se ha realizado, por ejemplo, un cálculo con un cuásar que emite la luz de diez
millones de millones de soles, lo que correspondería a un agujero negro de casi
mil millones de masas solares, y que se estima que se formó solo 850 millones
de años después del Big Bang. Este descubrimiento sembró dudas sobre si una
estructura tan enorme podría haberse formado tan pronto si el modelo
ascendente fuera el válido.
Pero Springel y sus colegas sostienen que la simulación del ordenador
Millennium Run muestra la formación de agujeros negros en fases muy
tempranas del universo.[42] De todos modos, creo que deberíamos ir con
cuidado y no equiparar las simulaciones de ordenador con la realidad, sobre todo
cuando estas simulaciones dependen de todos los supuestos y modelos post-hoc
que se han mencionado en la sección anterior. Esta advertencia queda reforzada
por la identificación, en 2013, de un gran grupo cuásar que parece ser la
estructura más grande del universo primitivo. Según sus descubridores, su
tamaño desafía los supuestos de la cosmología ortodoxa.[43]
Además Spitzer, el telescopio espacial infrarrojo de la NASA lanzado en
2003, ha detectado galaxias con elevado desplazamiento al rojo que se estima
que se formaron entre 600 y mil millones de años después del Big Bang. Estas
galaxias jóvenes deberían estar integradas únicamente por estrellas jóvenes, pero
incluyen gigantes rojas, como las de nuestra propia galaxia, que según los
astrofísicos habrían necesitado miles de millones de años para consumir el
hidrógeno de su centro, después de lo cual habrían sufrido un colapso
gravitacional que calentaría sus capas externas hasta el punto de fusión que las
llevaría a inflarse y emitir luz roja. La interpretación de los datos aportados por
el Spitzer es controvertida, y algunos astrofísicos sostienen que estas gigantes
rojas son jóvenes.
Pero estas galaxias jóvenes contienen además hierro y otros metales. Según
el modelo ortodoxo, un universo joven como este debería contener solo
hidrógeno, helio y trazas de litio;[44] el hierro se produce después de que
grandes estrellas de primera generación hayan consumido no solo su hidrógeno,
sino también, y sucesivamente, su helio, carbono, neón, oxígeno y silicio antes
de colapsar y explotar en una supernova que dispersaría el hierro y los demás
metales.

Causas de la formación de estrellas

Las evidencias de la formación de las estrellas provienen de la observación


de nuestro sistema solar, de la observación de estrellas jóvenes —muchas de las
cuales están rodeadas por discos de polvo y gas—, de la observación de nubes
moleculares gigantes de nuestra propia galaxia y de modelos obtenidos mediante
ordenador.
Estos estudios desembocaron en la hipótesis estelar nebular, según la cual las
explosiones de las supernovas proyectan el núcleo y electrones en diversas
direcciones hacia el espacio interestelar, donde se mezclan con el gas interestelar
existente, principalmente hidrógeno. Al enfriarse, forman átomos y moléculas
simples de gas y polvo con distintas velocidades y distintos momentos angulares.
Los campos gravitatorios separan esta mezcla turbulenta de desechos de
supernova y gas interestelar, produciendo nubes más o menos esféricas.
Estas nebulosas dinámicas se contraen bajo su propio campo gravitatorio. Y
se producen entonces tres procesos: su centro se calienta porque la energía
gravitatoria potencial del material proyectado se transforma en energía cinética
(calor); al disminuir su radio, rotan más rápido para conservar su momento
angular neto; y luego se aplanan cuando las colisiones del gas y las partículas de
polvo se igualan al movimiento a favor de la dirección del momento angular
neto.
La inmensa mayoría de estas nubes, en proceso de contracción y
aplanamiento, gira en espiral hacia su centro de gravedad, que es cada vez más
denso y masivo, hasta que el núcleo se calienta lo suficiente como para iniciar la
fusión nuclear: ha nacido una estrella de segunda generación. El gas restante se
proyecta de nuevo hacia el medio interestelar en forma de chorros gigantes
situados a lo largo del eje de rotación. El disco plano en rotación está integrado,
en la parte relativamente más cercana a la estrella, por polvo pesado —
principalmente silicatos y cristales de hielo— y por gases, mientras que en la
parte exterior del disco encontramos gases de hidrógeno y helio, más ligeros,
propulsados hacia allí por el viento estelar. El disco tiene una densidad irregular,
lo que crea una diversidad de campos gravitatorios que producen violentas
colisiones y agregaciones que acaban formando planetesimales que, en el
transcurso de varios cientos de millones de años, se fusionan formando planetas
que absorben el gas y el polvo restantes cuando orbitan la estrella en el plano del
disco.[45] Véase figura 8.4.
Pero un examen más detallado de esta explicación ortodoxa plantea dos
problemas. En primer lugar, los estudios muestran que cuando la parte más densa
de una nube molecular —lo que se conoce como el núcleo— está a punto de
colapsar para formar una estrella, contiene entre diez mil y un millón de
moléculas de hidrógeno por centímetro cubico.[46] En comparación, la densidad
del aire que respiramos es de más de un trillón de moléculas por centímetro
cubico. ¿Cómo es posible que algo que es, como máximo, diez mil miles de
millones de veces menos denso que el aire, se contraiga bajo su propio campo
gravitatorio para formar una estrella? A pesar de que las observaciones de las
nubes moleculares gigantes de nuestra galaxia muestran núcleos de alta densidad
o proto-estrellas —o estrellas recién nacidas— más densas, no nos indican qué
fue lo que inició el colapso gravitatorio del núcleo y mucho menos, qué fue lo
que creó esos núcleos. De ninguna manera puede achacarse su creación a un halo
masivo de materia oscura, puesto que la escala es excesivamente pequeña.
En segundo lugar, estas observaciones muestran fuerzas que actúan contra el
colapso gravitatorio de la nube, concretamente:

1. Grandes turbulencias.
2. Campos magnéticos no uniformes en nubes que contienen iones
(principalmente protones o iones de hidrógeno) y electrones que hacen que
la materia ionizada se extienda a lo largo de líneas de campo magnético.

Los astrofísicos concibieron modelos virtuales, muchos de ellos basados en


la hidrostática, para intentar demostrar cómo se superan estas contrafuerzas, pero
con tantas variables con valores desconocidos, la tarea resulta tremendamente
complicada y, además, para que los modelos funcionen hay que realizar
demasiados supuestos simplificadores.
Una conjetura razonable de la causa de las regiones de alta densidad y su
posterior colapso gravitatorio es que son debidas a la compresión creada por las
ondas producidas por la explosión de las supernovas, en parte responsables de
las turbulencias en el seno de una nube molecular gigante. Sin embargo, no
puede decirse que esta sea la causa de la formación de la primera generación de
estrellas cuya vida terminó como supernovas de primera generación.
Según declararon Kashlinsky y sus colegas en 2005: «Las mediciones
obtenidas recientemente de la polarización del fondo cósmico de microondas
indican que las estrellas empezaron a formarse temprano, cuando el universo
tenía doscientos millones de años».[47] La formación de las estrellas de primera
generación plantea una vez más la pregunta de cuáles fueron las primeras
estructuras del universo en el supuesto de que el modelo ortodoxo del Big Bang
caliente sea correcto. En el transcurso de los últimos cincuenta años, distintos
cosmólogos han propuesto que fueron cúmulos globulares, agujeros negros
supermasivos o estrellas con poca masa.
A pesar de que las notas de prensa actuales, los libros científicos más
populares y los programas de televisión presentan la formación de las estrellas
como algo bien definido, me resulta difícil no estar de acuerdo con Derek Ward-
Thompson, astrofísico de la Universidad de Cardiff. Después de revisar toda la
literatura actual, concluye: «Las estrellas forman parte de los bloques
constructivos más fundamentales del universo, pero seguimos sin comprender
por completo los procesos que llevaron a su formación».[48] En 2002, Martin
Rees, Astrónomo Real, llegó a la conclusión similar de que «la formación de las
estrellas es algo que seguimos sin comprender muy bien».[49]
Esto no significa que la ciencia no sea capaz de averiguar cómo se forman
actualmente las estrellas o cómo se formaron las primeras estrellas. Pero en el
caso de las primeras estrellas, será difícil obtener evidencias empíricas que
distingan si el modelo del Big Bang caliente, entre los diversos modelos que se
manejan, es el correcto. Según este modelo, medio millón de años después de
que se produjera el Big Bang, la temperatura cayó por debajo de los 3.000 K.
Después de eso, la radiación primordial de cuerpo negro pasó a infrarroja y el
universo permaneció oscuro durante mil millones de años.[50] Durante este
periodo, conocido como la edad oscura cósmica, las estrellas serían demasiado
débiles para que cualquier tecnología pudiera detectarlas.

Explicación alternativa

Burbidge señaló que el actual modelo ortodoxo de la estructura del universo


depende de muchos supuestos, destacando entre ellos que:
1. El universo estaba comprimido en un punto de densidad infinita o casi
infinita.
2. El universo se infló exponencialmente antes de antes de seguir su
expansión desacelerada.
3. La materia primitiva presenta fluctuaciones de densidad.
4. La mayor parte de la materia del universo es materia oscura desconocida.
5. El desplazamiento al rojo del espectro de los cuásares es únicamente
consecuencia de la expansión cósmica, y la absorción del espectro se debe
al gas que se interpone.

Defendió que la cosmología de estado cuasi-estacionario (CECE) ofrece una


explicación más convincente sin necesidad de tales supuestos.[51]
Una evaluación imparcial debería concluir diciendo que no solo la
explicación que ofrece la cosmología ortodoxa actual sobre cómo surgieron las
heterogeneidades en la materia primitiva es más una conjetura que una teoría con
base empírica, sino que además, la cosmología ortodoxa no ofrece todavía una
explicación científica a cómo estas heterogeneidades produjeron las estrellas, las
galaxias, los grupos locales, los cúmulos y los supercúmulos separados por
vacíos parecidos a burbujas que observamos hoy en día. La explicación
alternativa de la CECE presenta el beneficio de una parsimonia mayor, pero
tampoco ofrece una teoría científica robusta.

¿Evolución continua?

Según la cosmología ortodoxa actual, la materia ha evolucionado a partir de


una sopa primigenia desordenada compuesta de partículas fundamentales que se
formaron y aniquilaron provocando una radiación muy caliente hasta dar lugar la
compleja jerarquía de estructuras que hoy en día observamos. ¿Pero sigue
evolucionando de esta manera anti-entrópica?[52]
Cinco especulaciones sobre el futuro del universo ofrecen puntos de vista
muy distintos sobre la evolución de la materia a gran escala.
Galaxias perpetuamente autosuficientes

Tomando prestados de la biología los sistemas auto-organizados, Lee Smolin


conjetura que galaxias como la nuestra son ecosistemas perpetuamente
autosuficientes. Ondas entrecruzadas de distintas supernovas interactúan para
barrer el gas y el polvo interestelares hacia nubes en colapso que generan nuevas
estrellas que, después de miles de millones de años de fusión nuclear, sufren su
muerte explosiva en supernovas que proyectan gas y polvo hacia el espacio
interestelar, de modo que el ciclo continúa. Mecanismos de retroalimentación
regulan las nubes para que estén en condiciones óptimas para producir estrellas
en la secuencia principal y mantener el equilibrio entre la densidad de las nubes
y el número de estrellas y supernovas producidas en cada generación. Los flujos
de energía de la luz de las estrellas y las explosiones de las supernovas
mantienen este sistema auto-organizado en un estado alejado del equilibrio
termodinámico. «Parece ser que en una galaxia en espiral como la nuestra, este
proceso se produce a perpetuidad, provocando oleadas de formación de estrellas
que se propagan continuamente a través del medio de la galaxia en espiral»,[53]
lo que mantendría el actual nivel de complejidad.
En las teorías de sistemas auto-organizados, sin embargo, lo que mantiene a
los sistemas en un estado dinámico alejado del equilibrio es una producción de
energía y materia exterior al sistema, no procedente de su interior.[54]

Universo fractal

Otra especulación es que el universo es fractal, es decir, que la compleja


forma de cada nivel de la estructura jerárquica se repite a una escala mayor en
cada nivel superior, y así ad infinitum. Según Rees, sin embargo, no hay
evidencias que indiquen que en los supercúmulos identificados por Geller y
Huchra exista un nivel superior de estructura.[55] Además, las formas complejas
en los niveles de sistema solar, galaxia, cúmulo y supercúmulo no son idénticas.

Big Crunch
La conjetura de que existe diez veces más cantidad de materia oscura (aún
sin determinar) que de materia visible suscitó la idea de que la atracción
gravitatoria de toda la materia del universo podría ser suficiente para ralentizar, y
luego cambiar el sentido, de la expansión del universo. Este universo en
contracción invertiría también el sentido del incremento de complejidad y
acabaría en un Big Crunch, recreando la elevada entropía, o desorden, del Big
Bang.

Muerte térmica a largo plazo

Por otro lado, el profesor de Física de la Universidad de Michigan, Fred


Adams, y el científico de la NASA, Greg Laughlin, propusieron en 1999 que la
materia a gran escala del universo alcanza su entropía máxima a través de un
proceso que conduce a la muerte térmica
Defienden que la formación de estrellas en las galaxias continúa solo
mientras tengan densas nubes moleculares de hidrógeno interestelar en los
brazos de su espiral. El suministro de material para la formación de estrellas es
finito, y cuando las estrellas han transformado todo el suministro de hidrógeno
disponible en elementos más pesados, dejan de formarse estrellas, un hecho que
evidencian las galaxias de forma elíptica, que son en su mayor parte debidas al
gas hidrógeno interestelar y ya no producen estrellas nuevas (lo que entra en
contradicción con la conjetura de Smolin).
Estiman que la era actual de formación de estrellas se prolongará cien mil
millones de años más, momento aproximado en cual terminará la Era Estelar del
universo después de entre diez y cien billones de años (entre 1012 y 1014 años),
las estrellas más pequeñas y de vida más larga, enanas rojas, se apagarán y no
habrá más brillo de estrellas.
En la Era de Degeneración del universo, que se prolongará 1025 años más,
las galaxias estarán integradas de entrada por objetos compactos: enanas
marrones, enanas blancas en proceso de enfriamiento o ya frías («enanas
negras»), estrellas de neutrones y agujeros negros. Las enanas blancas
absorberán la mayoría de la materia oscura y las galaxias degenerarán
evaporándolas en vacíos intergalácticos. Finalmente, las enanas blancas y las
estrellas de neutrones degenerarán por la desintegración de los protones y los
neutrones.[56]
A esto le seguirá la Era del Agujero Negro, en la cual los únicos objetos
estelares serán los agujeros negros. Se evaporarán a través de un proceso
cuántico conocido como radiación de Hawking hasta que el universo alcance
10100 años de antigüedad.
Más allá de este momento tremendamente inimaginable está la desolación
final de la Era Oscura, en la que solo quedaran los productos de desecho de los
procesos astrofísicos anteriores: fotones con longitudes de onda colosales,
neutrinos, electrones y positrones más, quizás, partículas de materia oscura con
interacción débil y otros residuos exóticos. Tendrán lugar eventos de
aniquilación de bajo nivel y al final el universo sufrirá una muerte térmica
cuando la entropía (desorden) alcance su máximo: el universo habrá alcanzado
un estado de equilibrio en el que no habrá energía disponible para ser utilizada.
[57]

Muerte térmica a corto plazo

Desde mediados de los 90, la mayoría de cosmólogos pasó a apoyar la


interpretación ortodoxa de los datos del desplazamiento al rojo de las supernovas
Tipo 1a; sostenían la idea de que el universo cesó su expansión desacelerada
después de nueve mil millones de años e inició una expansión acelerada que
produciría su muerte térmica, aunque más rápidamente que lo estimado por
Adams y Laughlin. Como vimos en el capítulo 4, para explicar este misterioso
comportamiento, invocaron una también misteriosa energía oscura anti-gravedad
y la tuvieron en cuenta en sus modelos matemáticos reintroduciendo la constante
cosmológica Λ con otro valor arbitrario.[58]
Según John Barrow, esta expansión acelerada es lo que impide que la materia
se fusione bajo la influencia de la gravedad y detuvo la formación de galaxias y
cúmulos. Afirma asimismo que si esta energía oscura desconocida se hubiera
puesto en marcha un poco antes, no se habrían formado galaxias y estrellas y
nosotros no estaríamos aquí para especular sobre el futuro del universo.[59]
Lawrence Krauss y Michael Turner, sin embargo, advierten contra la
utilización de estos datos para realizar predicciones. Después de reevaluar los
conceptos estándar sobre la conexión entre geometría y el destino del universo,
llegan a la conclusión de que «no existe ningún conjunto de observaciones
cosmológicas que podamos llevar a cabo que nos permita determinar sin
ambigüedades cuál será el destino final del Universo».[60]

Conclusiones

1. Ni el modelo cosmológico ortodoxo del Big Bang caliente inflacionario


ascendente a partir de la materia oscura fría ni ningún modelo alternativo
proporcionan hoy en día una explicación científicamente robusta de la
evolución de la materia a gran escala.
2. Si la materia primitiva consistiera en un plasma extremadamente denso,
caliente y desordenado de partículas fundamentales formándose
espontáneamente a partir de energía de radiación, tal y como sostiene el
actual modelo ortodoxo, habría evolucionado para formar estructuras
complejas a gran escala en una jerarquía que iría desde sistemas estelares,
a galaxias, grupos locales de galaxias y cúmulos de galaxias, hasta
supercúmulos separados mediante grandes vacíos similares a burbujas.
3. Se conjetura que los campos gravitatorios que interactúan con la materia y
la energía cinética son la causa de este proceso antientrópico, pero se
desconoce qué fue lo que provocó la energía cinética y los campos
gravitatorios. Además, y a pesar de que se han propuestos distintas
conjeturas, no disponemos de una explicación científica satisfactoria de
cómo se formaron estas estructuras complejas —desde las estrellas hasta
los supercúmulos— ni sabemos tampoco qué fue lo que se formó en
primer lugar a partir del plasma primitivo.
4. Ninguna estructura (una galaxia, por ejemplo) es idéntica a otra estructura
de su mismo nivel (en el sentido en que, pongamos el caso, las unidades de
cristales de silicio son idénticas entre ellas); y ningún nivel superior en la
jerarquía (un grupo local, por ejemplo) es una repetición del nivel inferior
(una galaxia, en este caso) pero a escala superior. El universo es un todo
complejo.
5. El universo es dinámico: las estrellas agotan su combustible, explotan y se
forman nuevas estrellas; los sistemas solares, las galaxias, los grupos
locales, los cúmulos y probablemente también los supercúmulos, se
mueven entre ellos; las galaxias se alejan de y hacia otras galaxias del
grupo local cuando pueden producirse colisiones.
6. El punto de vista de la cosmología ortodoxa actual de que la expansión
desacelerada del universo cambió misteriosamente hacia una expansión
acelerada después de unos nueve mil millones de años, implica que este
proceso antientrópico de incremento de la complejidad de la materia a gran
escala ha cesado.
7. Si el universo permanecerá a perpetuidad en este nivel de complejidad
dinámica, si se mantendrá en este nivel mediante ciclos perpetuos tal y
como propone la cosmología de estado cuasi-estacionario, si ha iniciado un
proceso que lo conducirá al desorden máximo y a la muerte térmica, o si se
contraerá hasta el desorden máximo de la singularidad de un Big Crunch,
son especulaciones a las que las observaciones cosmológicas no pueden
aportar evidencias claras.

Para conocer lo que la ciencia puede contarnos sobre la materia de la que


estamos hechos, deberemos examinar la evolución paralela e interdependiente de
la materia a pequeña escala. Y este será el tema que ocupará el siguiente
capítulo.
[1]Kak, Subhash C., «Indian Physics: Outline of Early History», 2003.
http://arxiv.org/abs/physics/0310001v1. Consultado el 30 de septiembre de 2005.
[2] Nucleones es el término generalista que se utiliza para agrupar protones y neutrones, las partículas
que constituyen un núcleo atómico.
[3] Esta ley sostiene que la simetría se conserva a nivel subatómico: si se produce una reacción o una
desintegración nuclear, su imagen espejo sufre el mismo proceso y con la misma frecuencia.
[4] Véase ilustración en página 60.
[5] Véase página 71.
[6] Véase página 79.
[7] Véase glosario para definición.
[8]Griffiths (1987), pp. 37–48.
[9] Véase página 86.
[10]Smolin (1998), p. 65.
[11] Véase página 79.
[12] Véase página 78.
[13] Véase páginas de 81 a 84.
[14] Véase página 71.
[15] Los átomos son neutros eléctricamente; los iones son átomos que han perdido o ganado uno o más
electrones y, en consecuencia, poseen una carga eléctrica positiva o negativa. Un átomo de hidrógeno
consiste en un protón y un electrón y, por lo tanto, un protón es lo mismo que un ion de hidrógeno con carga
positiva.
[16] Un elemento se distingue de otro porque tiene un número distinto de protones en el núcleo de sus
átomos; es lo que determina su actividad química. La forma más común de un elemento es la que presenta
el núcleo más estable, que consiste en protones y neutrones. En este caso, la forma más estable de
hidrógeno no tiene neutrones en su núcleo. Las formas de un elemento que presentan el mismo número de
protones pero un número distinto de neutrones son lo que se conoce como isótopos de dicho elemento. Por
lo tanto, el deuterio es un isótopo del hidrógeno. Véase el glosario para la definición de «átomo»,
«elemento», «isótopo» y «número atómico».
[17]Rowan-Robinson (2004), p. 99.
[18]Lochner, et al. (2005)
[19] Esta relativa abundancia suele citarse por masa, no por cantidad: un 75 por ciento de hidrógeno, un
25 por ciento de helio-4 (que tiene una masa cuatro veces superior a la del hidrógeno) y trazas del resto.
[20] Véase página 76.
[21] Véase página 57.
[22]Rowan-Robinson (2004), pp. 26–42.
[23] Véase página 59.
[24] Véase página 150.
[25]Guth (1997), p. 238.
[26]Steinhardt, Paul, «Big Bang Blunder Bursts the Multiverse Bubble», Nature, 510: 7503, 2014, p. 9.
[27] Véase página 153.
[28] Véase página 150.
[29]Eggen, O. J., et al., «Evidence from the Motions of Old Stars That the Galaxy Collapsed», Reports
on Progress in Physics 136, 1962, p. 748.
[30]Searle, L. y Zinn, R., «Compositions of Halo Clusters and the Formation of the Galactic Halo»,
Astrophysical Journal 225 (1), 1978, pp. 357–379.
[31] Véase página 88.
[32] Véase página 63.
[33]Rowan-Robinson, Michael, «Dark Doubts for Cosmology», New Scientist, 1759, 1991, p. 30.
[34]Saunders, Will, et al., «The Density Field of the Local Universe», Nature, 349: 6304, 1991, pp. 32–
38.
[35]Lindley, David, «Cold Dark Matter Makes an Exit», Nature, 349: 6304, 1991, p. 14.
[36]Springel, Volker, et al., «Simulations of the Formation, Evolution and Clustering of Galaxies and
Quasars», Nature, 435: 7042, 2005, pp. 629–636.
[37]Springel et al., (2005).
[38]http://www.nasa.gov/home/hqnews/2006/aug/HQ_06297_CHANDRA_Dark_Matter.html, 21 de
agosto de 2006.
[39]Ellis (2007), S 2.5.1, S 4.2.2, y S 4.3.1.
[40]Chown, Marcus, «Did the Big Bang Really Happen?», New Scientist, 2506, 2005, p. 30.
[41] Como se comentó en el capítulo 6, esta interpretación del desplazamiento al rojo de los cuásares es
discutible. Véase página 146.
[42]Springel et al. (2005).
[43]Clowes, Roger G, et al., «A Structure in the Early Universe at Z ~ 1.3 That Exceeds the
Homogeneity Scale of the R-W Concordance Cosmology», Monthly Notices of the Royal Astronomical
Society, 2013, enero.
[44] Véase página 196.
[45]Schilling, Govert, «Planetary Systems: From a Swirl of Dust, a Planet Is Born», Science, 286:
5437, 1999, pp. 66–68.
[46]Ward-Thompson, Derek, «Isolated Star Formation: From Cloud Formation to Core Collapse»,
Science 295: 5552, 2002, pp. 76–81.
[47]Kashlinsky, A., et al., «Tracing the First Stars with Fluctuations of the Cosmic Infrared
Background», Nature 438: 7064, 2005, pp. 45–50.
[48]Ward-Thompson (2002).
[49]Rees, Martin J., «How the Cosmic Dark Age Ended», Science, 295: 5552, 2002, pp. 51–53.
[50]Rees (2002).
[51] Véase página 113.
[52] La entropía es una medida del grado de desorden de las partes constituyentes de un sistema. Véase
capítulo 10 para una explicación más detallada de este concepto y su relevancia para la evolución de la
materia.
[53]Smolin (1998), pp. 144–172.
[54] Véase página 247.
[55]Rees (2002), pp. 31–32.
[56] Según predicen las teorías de gran unificación, pero no sustentado hasta el momento por ninguna
evidencia.
[57]Adams y Laughlin (1999).
[58] Véase página 90.
[59]Barrow, John D., «The Early History of the Universe», Conferencia en el Gresham College,
Londres, 14 de noviembre de 2006.
[60]Krauss, Lawrence M. y Turner, Michael S., «Geometry and Destiny», General Relativity and
Gravitation, 31: 10, 1999, pp. 1453–1459.
CAPÍTULO 9. LA EVOLUCIÓN DE LA MATERIA A
PEQUEÑA ESCALA

Somos polvo de estrellas.

JONI MITCHELL, 1970

Un hombre de 70 kilos de peso está constituido por aproximadamente 7 x


1027 átomos, es decir, unos diez mil cuatrillones de átomos. Aproximadamente
el 63 por ciento de ellos son átomos de hidrógeno, el 24 por ciento átomos de
oxígeno, el 12 por ciento átomos de carbono, el 0,6 por ciento átomos de
nitrógeno y el 0,4 por ciento restante está repartido en átomos de 37 elementos
más.[1] Cómo se formaron estos átomos y cómo, a su vez, estos átomos nos
formaron a nosotros, constituye una parte esencial de nuestro viaje.

La evolución del núcleo de los elementos[2]

Hemos visto que el modelo del Big Bang no podía explicar cómo, a
excepción de las ínfimas trazas de litio, se formaron los núcleos de los elementos
a partir de la minúscula sopa caliente de quarks, electrones y fotones creada a
partir de la liberación de energía del Big Bang antes de que la expansión y el
enfriamiento del universo detuvieran el proceso de fusión.[3]
El descubrimiento realizado en 1950 por Martin y Barbara Schwarzchild de
que las estrellas más antiguas contenían más elementos pesados que las estrellas
más jóvenes ofreció la primera pista sobre cómo podrían haberse formado los
núcleos más grandes.
En 1957, Hoyle y sus colegas publicaron el trascendental documento que
estableció la teoría cosmológica ortodoxa actual que defiende que todos los
elementos de origen natural más pesados que el helio son producto de las
estrellas. Llegaron a la conclusión de que:

La razón básica por la que una teoría de origen estelar ofrece un método prometedor para sintetizar
los elementos es que la estructura cambiante de las estrellas durante su evolución ofrece una
sucesión de condiciones bajo las cuales pueden producirse muchos tipos distintos de procesos
nucleares. Así, la temperatura interna puede oscilar entre los pocos millones de grados a los que
empieza a opera la cadena pp (protón-protón), hasta temperaturas entre 109 y 1010 grados, en las
que se producen las explosiones de la supernova. La densidad central puede oscilar también en
rangos de millones. Por otro lado, las escalas temporales oscilan entre miles de millones de años,
que son periodos de vida normales para estrellas de masa solar o inferior de la secuencia principal, y
plazos de tiempo de días, minutos y segundos, que son característicos del proceso de explosión.[4]

A pesar de que los detalles se han ido puliendo desde entonces, ningún
cosmólogo ha desafiado con seriedad esta teoría, que está soportada además por
evidencias espectroscópicas. Podríamos, por lo tanto, llegar a la conclusión de
que todos los elementos de origen natural, más allá del helio, se formaron a
partir de la siguiente nucleosíntesis estelar.

Los elementos desde el helio hasta el hierro

El tamaño de las estrellas oscila entre el equivalente a una décima parte la


masa de nuestro sol hasta más de sesenta veces su masa; las proto-estrellas de
menor tamaño nunca llegan a estar lo suficientemente calientes como para
iniciar el proceso de fusión nuclear, mientras que las masas más grandes se
consumen con excesiva rapidez y no llegan a convertirse en estrellas estables. El
tamaño de la estrella determina el producto de la nucleosíntesis.
En las estrellas pequeñas y de tamaño moderado (hasta ocho masas solares),
el helio se produce en el núcleo de la estrella como resultado de una serie de
fusiones nucleares, lo que se conoce como cadena protón-protón, en las que los
protones —núcleos de hidrógeno— se fusionan en una reacción en cadena para
producir helio-4 y energía en forma de calor y luz. Tal y como ilustra la figura
9.1, esta liberación externa de energía equilibra la fuerza gravitatoria interna de
contracción y la estrella se mantiene estable durante miles de millones de años.

Cuando el hidrógeno del núcleo se consume, la energía de fusión que


contrarrestaba la gravedad deja de liberarse y la estrella inicia su colapso. Su
energía gravitatoria potencial se transforma en energía cinética que calienta la
estrella en contracción y, por lo tanto, más densa. El hidrógeno de las capas
medias de la estrella se calienta lo bastante como para fusionarse en un
caparazón de helio que envuelve el núcleo de helio. El calor que provoca esta
reacción se expande hacia las capas superiores de la estrella, inflándola y
dándole un tamaño mayor. La expansión enfría las capas externas e incrementa
la longitud de onda de la luz que emiten. La estrella se convierte así en una
gigante roja.
El helio del núcleo de la estrella continúa su colapso hasta que la temperatura
asciende a cien millones de grados Kelvin. La temperatura es entonces lo
suficientemente elevada para que se produzca una reacción de fusión y el helio
se transforme en carbono y libere una energía que detiene el colapso gravitatorio
y produce otro periodo de estabilidad. Dependiendo del tamaño de la estrella —y
de ahí su potencial para generar temperaturas en el núcleo cada vez más elevadas
a través de la contracción gravitatoria—, este proceso se detiene o continúa.
Las temperaturas que se generan en el núcleo y las diversas capas de una
estrella con un tamaño de entre dos y ocho masas solares son distintas, lo que da
lugar a distintos productos de fusión, mientras que las capas exteriores
desaparecen en forma de viento estelar. En una estrella de unas ocho masas
solares, las reacciones termonucleares van transformando progresivamente por
fusión el carbono en nitrógeno, el nitrógeno en oxígeno, y así sucesivamente
para todos los elementos de número atómico superior hasta llegar al hierro.
A diferencia de los elementos anteriores a él, y por ser el elemento más
estable de todos, el hierro-56 no libera energía al fusionarse. En consecuencia,
cuando el núcleo es de hierro ya no hay nada que detenga la contracción
gravitatoria. Cuando las estrellas más grandes alcanzan esta fase, o cuando las
estrellas más pequeñas han agotado su combustible nuclear y no generan la
temperatura necesaria para iniciar más fusión a través de la contracción
gravitatoria, la estrella colapsa. En una estrella pequeña, los electrones se
aplastan y forman una estrella enana blanca; en el caso de una estrella mediana,
sigue colapsando, aplastando sus neutrones para formar una estrella de
neutrones; la estrella más grande seguirá colapsando hasta transformarse en un
agujero negro.
La enorme energía y las ondas de choque generadas con este colapso
gravitatorio provocan la explosión hacia el espacio de la mayor parte de la masa
de la estrella, generando con ello un incremento de la luminosidad de la estrella
de corta duración que puede alcanzar hasta cien millones de veces su brillo
original; es lo que se conoce como una supernova.
Una estrella de entre ocho y más de sesenta veces la masa de nuestro sol
experimenta nucleosíntesis muy similares, aunque mucho más rápidas, que
producen una supergigante roja con capas superpuestas de productos de fusión,
algo similar a lo que serían las capas de una cebolla, como muestra la figura 9.2.

Cuando el núcleo de una supergigante roja consiste solo en hierro, se


convierte también en una supernova.
La tabla 9.1 resume los elementos principales y secundarios producidos por
la nucleosíntesis en las estrellas, la temperatura a la que se producen las
reacciones y el tiempo que tarda en agotarse el combustible nuclear disponible a
estas temperaturas.

Los elementos más pesados que el hierro

A pesar de que un protón no puede fusionarse con hierro-56 para producir el


siguiente elemento, el cobalto, el hierro-56 sí puede capturar tres neutrones en un
periodo de miles de años para crear el isótopo inestable, hierro-59, en el que un
neutrón se desintegra en un protón y un electrón para crear un elemento más
estable, el cobalto. Este proceso de lenta captura de neutrones en el interior de
las estrellas crea gran parte de los elementos estables más pesados que el hierro.
El intenso calor de una supernova genera un gran flujo de neutrones que
rápidamente son capturados por núcleos para crear otros núcleos más pesados e
inestables que se desintegran en otros elementos estables, como el oro, y en la
mayoría de los elementos radiactivos de origen natural, como el torio y el uranio,
que la explosión lanza hacia el frío espacio interestelar.

Producción de elementos por rayo cósmico

Al no ser muy estables los núcleos entre el helio y el carbono —de ahí el
lapso de cinco nucleones—, en las estrellas se produce muy poco litio, berilio y
boro. Se piensa que estos elementos se crean cuando los rayos cósmicos —
considerados electrones y núcleos eyectados desde las supernovas a una
velocidad próxima a la de la luz— colisionan con el gas y el polvo interestelar;
la colisión desprende fragmentos, creando núcleos de elementos más pequeños.

Estrellas de segunda y tercera generación

La cosmología ortodoxa defiende que las nubes de gas y polvo interestelar


producidas por las supernovas y los vientos estelares experimentan colapso
gravitatorio, aunque el mecanismo sigue sin comprenderse.[5] El colapso
produce estrellas de segunda generación con material más complejo que las de
primera generación, que al inicio consistían principalmente de moléculas de
hidrógeno; en consecuencia, los procesos de fusión son más complejos. Estos
procesos terminan también en supernovas, que proyectan parte de sus productos
al espacio. Se cree que las estrellas de tercera generación se han formado de un
modo similar.

Elementos producidos

Por lo tanto, a partir del sencillo núcleo de hidrógeno, estos procesos generan
núcleos cada vez más grandes y más complejos, lo que lleva a los
aproximadamente 95 elementos naturales que encontramos en el universo.[6]
Dos de ellos, el hidrógeno (75 por ciento) y el helio (23 por ciento), constituyen
la mayor parte de la masa del universo.
De los 95 elementos, ocho de ellos constituyen más del 98 por ciento de la
masa de la corteza terrestre, que está formada principalmente por oxígeno (47
por ciento), silicio (28 por ciento), aluminio (8 por ciento) y hierro (5 por
ciento); los océanos están formados principalmente por oxígeno (86 por ciento) e
hidrógeno (11 por ciento).[7]
El ser humano está compuesto por 41 elementos, pero el 99 por ciento de la
masa de nuestro cuerpo lo integran solo 6 elementos: oxígeno (65 por ciento de
la masa), carbono (18 por ciento de la masa), hidrógeno (10 por ciento de la
masa), nitrógeno (3 por ciento de la masa), calcio (2 por ciento de la masa) y
fosforo (1 por ciento de la masa).[8]
A pesar de estar solo presentes en trazas, los elementos más pesados juegan
un papel importante en nuestra evolución. Por ejemplo, a través de su
desintegración radiactiva, el uranio, el torio y el potasio-40 generan en la corteza
terrestre el calor necesario para producir las placas tectónicas que, como
veremos más adelante, son necesarias para la biosfera, mientras que el
molibdeno es imprescindible para la fijación del hidrógeno, algo esencial para el
metabolismo de plantas y animales.

El ajuste de precisión de los parámetros nucleares

Por razones que consideraré más adelante, un elemento esencial para el ser
humano y para todas las formas de vida conocidas es el carbono y más
concretamente, el isótopo estable carbono-12. Pero tal y como Hoyle destacó,
para que las estrellas produzcan suficiente carbono-12, es necesario ajustar con
precisión tres parámetros.
En la página 176 vimos como el ajuste de Épsilon, una medida de la cohesión
de los núcleos de helio, era imprescindible para iniciar la serie de reacciones en
cadena que lleva a la producción de elementos y, finalmente, de átomos y
moléculas, algo esencial para la vida. Los tres parámetros de Hoyle muestran
qué valores exactos son necesarios en las reacciones nucleares en cadena para
producir carbono. La producción de carbono en el interior de las estrellas se
lleva a cabo a través de un paso intermedio, representado por las ecuaciones
siguientes:

2He4 + 0.099 MeV → Be8


Be8 + He4 → C12 + 2γ

Estas ecuaciones significan que para fusionar dos núcleos de helio-4 y


producir el isótopo inestable berilio-8, son necesarios 0,099 millones de
electronvoltios de energía. A continuación, un núcleo de berilio-8 se fusiona con
un núcleo de helio-4 para producir el núcleo estable de carbono-12 con la
liberación de dos rayos gamma, que son fotones con el rango de energía más
elevado que puede observarse. Para que se produzcan estas reacciones deben
cumplirse tres condiciones:

1. La vida del 8Be (~10-17seg) debe ser lo suficientemente larga en


comparación con el tiempo de colisión de 4He + 4He (~10-21seg) como
para permitir que se produzca la primera reacción, pero no debe ser tan
estable como para que la reacción en cadena se detenga aquí.
2. Hoyle propuso que el rendimiento del carbono sería despreciable a menos
que la suma de la energía de un núcleo de berilio y un núcleo de helio
fuera casi exacta a la energía de un determinado estado cuántico del núcleo
de carbono-12, una condición que se conoce como resonancia, y que
predijo que sería de cerca de 7,7 MeV. Experimentos posteriores
confirmaron que el nivel de resonancia del núcleo del carbono-12 es de
7,6549 MeV. Este nivel de energía se sitúa justo por encima de la energía
de Be8 + He4, que es de 7,3667 MeV, lo que permite que la reacción
nuclear se produzca con la máxima eficiencia.
3. La fusión del carbono-12 con otro núcleo de helio-4 produciría un núcleo
de oxígeno. Si esta reacción fuese también resonante, todo el carbono se
convertiría rápidamente en oxígeno-16, lo que quedaría representado por la
ecuación

C12 + He4 → O16

Sin embargo, el núcleo de oxígeno-16 tiene un nivel de energía de


resonancia de 7,1187 MeV. Lo que queda justo por debajo de la energía
total del carbono-12 más el helio-4, que se sitúa en 7,1616 MeV. La
resonancia no se produce y, por lo tanto, es carbono-12 no queda
eliminado del interior de las estrellas.[9]

Por lo tanto, esta cadena de parámetros —la longevidad del inestable berilio-
8, la existencia de un nivel de resonancia ventajoso en el carbono-12 y la
ausencia de un nivel de resonancia favorable en el oxígeno-16— formó el
conjunto de condiciones necesarias, y extraordinariamente ajustadas, para que se
diera la producción de carbono suficiente para crear las moléculas de las que
depende la existencia del ser humano y de todas las demás formas de vida
conocidas del universo.
Consideraré a continuación cómo evolucionaron estos núcleos de elementos
con carga positiva para llegar a formar tales moléculas. La primera etapa es la
formación de los átomos.

La formación de los átomos[10]

El material de una estrella a temperaturas elevadas y, por lo tanto, con


energías elevadas, está integrado por plasma: un gas caótico de núcleos de
elementos con carga positiva, más neutrones neutros y fotones de energía
electromagnética. Cuando una estrella agota su combustible nuclear y
experimenta el colapso gravitatorio, la supernova expulsa la mayoría de su
plasma al frío del espacio interestelar. Cuando la temperatura del plasma
desciende a 3.000 K, los núcleos de los elementos capturan electrones para
formar átomos neutros y moléculas estables, siguiendo el principio de la
conservación de la energía, el principio de la conservación de la carga y la ley de
la interacción electromagnética.[11]
Pero mientras que los principios de conservación y la ley son necesarios, no
son suficientes para explicar por qué los electrones con carga negativa no se ven
atraídos hacia los núcleos con carga positiva. Aquí es donde la teoría cuántica
revolucionó nuestra comprensión de la materia a pequeña escala. Las leyes de la
mecánica cuántica y el principio de exclusión de Pauli proporcionan la
explicación que ofrece la ciencia actual a la pregunta de cómo el plasma estelar
enfriado formó los bloques constructivos del ser humano.

Las leyes de la mecánica cuántica

Según la teoría cuántica, algo tan pequeño como un electrón se comporta


como si fuera tanto una partícula como una onda. Un electrón con carga negativa
puede interactuar con un núcleo con carga positiva solo si está rodeado por una
órbita parecida a un caparazón, lo que se conoce como un orbital, que posee una
energía discreta, E2. El electrón puede perder un cuanto de energía, E, bajando a
un orbital de energía inferior, E1, lo que se representa como:

E = E2 – E1 = hν

Donde h es la constante de Planck y v es la frecuencia de la energía perdida


en forma de radiación electromagnética.
Y en sentido inverso, un electrón puede ganar energía absorbiendo un cuanto
de energía y saltando de un orbital de baja energía a otro de energía superior.
El valor de h es aproximadamente 4,136 x 10-15 electronvoltios por segundo.
Ninguna teoría explica por qué es así. Sin estos valores de energía discreta de los
electrones en órbita, todos los átomos serían distintos y no habría ninguno
estable.
Cada orbital se indica con un número cuántico principal, n, que es función de
la distancia que separa el electrón del núcleo. Tres números cuánticos
adicionales especifican cómo interactúa el electrón con el núcleo: l, el número
cuántico angular, indica la forma del orbital; ml, el número cuántico magnético,
indica la orientación del orbital; y ms, el número cuántico de espín, indica la
dirección del espín de electrón sobre su eje de orientación.
Las soluciones de las ecuaciones de mecánica cuántica que describen estas
interacciones ofrecen las distribuciones de probabilidad del electrón alrededor el
núcleo. Pero siguen dejando un número increíblemente grande de tipos distintos
de átomo con distintos estados de energía para cada elemento. Una hipótesis
avanzada por Wolfang Pauli en 1925 no solo explicaba que todos los átomos de
un elemento son iguales, sino que además realizaba predicciones, posteriormente
confirmadas mediante experimentos, que sentaron las bases de nuestros actuales
conocimientos químicos.

El principio de exclusión de Pauli


El principio de exclusión de Pauli establece que no puede haber dos
electrones de un átomo o molécula con los cuatro números cuánticos iguales.[12]
Una vez más, no existe ninguna teoría que explica por qué esto es así, excepto
que la visión de Pauli permitió que la teoría cuántica que iniciaba su desarrollo
coincidiera con la observación y la experimentación.
El principio es distinto a otras leyes físicas porque es no dinámico —no tiene
función de distancia o tiempo— y porque no es aplicable al comportamiento del
electrón a nivel individual, sino que solo aplica a un sistema de dos o más
electrones. Esta ley universal selecciona un pequeño conjunto de estados de
energía de la materia de entre un abanico inconmensurablemente grande de
posibilidades; establece que todos los átomos de un elemento son iguales; y dicta
cómo se enlaza un átomo con otros átomos, tanto del mismo elemento como de
otros elementos. Explica, por lo tanto, la fase de un elemento —cómo puede ser
gas, líquido o sólido, y en caso de ser sólido, cómo puede ser metálico o
cristalino— y la tabla periódica en la que se agrupan los elementos según sus
propiedades fisicoquímicas, tal y como muestra la figura 9.3.
Los 114 elementos conocidos y los 4 elementos cuya existencia está
pronosticada se ordenan en filas horizontales según su número atómico, es decir,
el número de protones que hay en el núcleo del átomo. Las filas se disponen de
tal modo que los elementos con propiedades químicas casi iguales se encuentran
en la misma columna (grupo) y cada fila termina con un elemento que es un gas
noble, que tiene su orbital externo, o valencia, lleno con el número máximo de
electrones que permite el principio de exclusión de Pauli, es altamente estable y,
en general, inerte. La posición de un elemento en la tabla periódica ofrece a los
químicos la mejor guía posible acerca de las propiedades esperadas de las
moléculas hechas a partir de átomos del elemento y explica cómo evolucionan
los átomos más simples hacia las moléculas complejas de las que estamos
hechos.
El ajuste de precisión de los parámetros atómicos

La formación de todos los átomos y moléculas estables depende no solo de


las leyes de la mecánica cuántica y del principio de exclusión de Pauli, sino
también del valor de dos parámetros sin dimensión.
La constante de estructura fina, α, es la constante de emparejamiento, o la
medida de la fuerza de la interacción electromagnética que gobierna el modo en
que una partícula elemental con carga eléctrica como el electrón, interactúa con
un fotón de luz. Su valor, 0,0072973525376, es independiente de la unidad que
se utiliza para medir la carga eléctrica.
De un modo similar, el cociente entre la masa del protón y el electrón, β,
tiene un valor sin dimensión de 1836,15267247. Ninguna teoría explica por qué
estos dos números puros tienen los valores que tienen. Si esos valores fueran
muy distintos, no se formarían ni átomos ni moléculas estables.[13]

La evolución de los átomos

Los átomos, que se forman a partir del plasma de núcleos y electrones que se
enfría al ser expulsado al espacio interestelar, evolucionan a formas más
complejas gracias a los enlaces. Lo que guía este proceso es la consecución del
estado más estable y con la menor energía posible. En la práctica, esto significa
la configuración electrónica más próxima a aquella en la que los orbitales de la
capa de valencia contienen el número máximo de electrones permitido por el
principio de exclusión de Pauli.
Los átomos de los gases nobles tienen por naturaleza esta configuración y
son estables. Los demás átomos alcanzan la estabilidad enlazándose con uno o
más átomos, idénticos o diferentes, de una de las cuatro formas siguientes.

Métodos de enlace
Enlace iónico (intercambio de electrones)

Con este método, un átomo dona uno o más de sus electrones de valencia al
átomo de un elemento que carece de un complemento de electrones en su capa
de valencia. Por ejemplo, la sal común (sal de mesa) se produce cuando un
átomo de sodio, Na, altamente reactivo reacciona con un átomo de cloro, Cl,
altamente reactivo donándole su único electrón de valencia para producir un ion
de sodio estable con carga positiva con una nueva capa de valencia, en un orbital
inferior, llena con ocho electrones, como el gas noble neón, y un ion de cloro
estable con carga negativa con una capa de valencia llena como la del gas noble
argón; el producto se representa como Na+ Cl-. La fuerza eléctrica atrae el ion
donante positivo y el ion receptor negativo.

Enlace covalente (compartición de electrones)

En lugar de recibir un electrón de un átomo de un elemento distinto, un


átomo de cloro puede compartir un electrón con otro átomo de cloro para formar
una molécula de cloro diatómico o dicloro,[14] Cl2. Llenar el orbital de la capa
de valencia mediante la compartición produce una configuración menos estable
que llenándola exclusivamente con un electrón, razón por la cual las moléculas
de cloro gaseoso son más reactivas que la sal.
Los átomos de un elemento pueden compartir uno o más electrones con
átomos de otro elemento para formar una molécula compuesta. Un átomo de
hidrógeno tiene un único electrón en su capa de valencia cuando el principio de
exclusión de Pauli permitiría dos. Un átomo de oxígeno tiene seis electrones en
su capa de valencia cuando están permitidos ocho. Para producir la molécula
estable del agua, H2O, dos átomos de hidrógeno comparten sus electrones con
los seis electrones de la capa de valencia de un átomo de oxígeno.

Enlace metálico

Se produce cuando átomos del mismo elemento pierden un electrón para


formar una red de iones con carga positiva que se mantienen unidos mediante un
mar de electrones libres. A diferencia del enlace covalente, los electrones tienen
libertad de movimientos y, en consecuencia, la sustancia enlazada metálicamente
transporta electricidad.

Fuerza de Van der Waals

Se trata de un enlace electrostático entre moléculas eléctricamente neutras


que surge porque la distribución de la carga eléctrica no es simétrica debido a la
forma de la molécula. La separación microscópica de los centros de carga
positiva y negativa lleva al extremo positivo de una molécula a atraer el extremo
negativo de una molécula idéntica, y así sucesivamente. A presión atmosférica
normal, y con una temperatura entre 0º y 100º Celsius, la fuerza de Van der
Waals mantiene las moléculas de agua unidas en un estado líquido, el agua. A
temperaturas más altas, la energía más elevada rompe estos enlaces y las
moléculas de agua existen como entidades separadas en un estado gaseoso, el
vapor. A temperaturas más bajas, con menos agitación térmica, los enlaces son
suficientes para mantener las moléculas unidas en un estado sólido y cristalino,
el hielo.
Los enlaces, por lo tanto, no solo son la causa de las propiedades químicas —
cómo interactúan los átomos con otros átomos—, sino también de la estructura
física de las sustancias.

Estructuras cristalinas

A la temperatura adecuada, todos los átomos, moléculas e iones —con la


excepción del helio—, existen en un estado sólido, normalmente cristalino, en el
que los átomos, moléculas o iones están enlazados no solo el uno con el otro,
sino a muchísimos más, en una estructura de celdas: un patrón regularmente
ordenado y repetitivo que se extiende en las tres dimensiones espaciales. Los
cuatro tipos de enlaces forman estructuras cristalinas, y la estructura específica y
el método de enlace determinan las propiedades físicas del sólido. Los iones de
sodio y de cloro enlazados iónicamente, por ejemplo, forman cristales de sal
común (sal de mesa), mientras que los átomos de carbono unidos
covalentemente existen como grafito blando y como duro diamante.

La singularidad del carbono

El carbono, el cuarto elemento más presente en el universo, tiene propiedades


de enlace únicas. Ello es debido, en parte, a que el carbono tiene un elevado
valor de electronegatividad, la capacidad relativa de un átomo de atraer
electrones de valencia. La capa exterior, o capa de valencia, de un átomo de
carbono posee cuatro electrones, mientras que el principio de exclusión de Pauli
permitiría ocho; es capaz, por lo tanto, de enlazarse con cuatro átomos más
simultáneamente. El carbono es el elemento que presenta la mayor tendencia a
formar enlaces covalentes y, en particular, presenta una tendencia notable a
enlazarse consigo mismo; es capaz de formar no solo un enlace único, con una
pareja de electrones de valencia compartidos, sino también un enlace doble (dos
parejas) o incluso un enlace triple (tres parejas). Otra propiedad especial del
carbono es su capacidad para enlazarse en láminas, estructuras de anillo, y largas
cadenas de carbono y otros átomos.
Estas propiedades generan un amplio y único rango de moléculas grandes y
complejas —llamadas moléculas orgánicas—, muchas de las cuales se
encuentran en todas las formas de vida identificadas hasta la fecha. En
consecuencia, el carbono es esencial para la vida tal y como la conocemos; sin
carbono, no existiríamos.

Moléculas en el espacio

Los análisis espectroscópicos indican que el espacio interestelar ofrece


condiciones limitadas para la evolución de las moléculas complejas procedentes
de los núcleos y electrones eyectados por las supernovas. Las moléculas
detectadas incluyen desde sencillas moléculas diatónicas, como el hidrógeno,
H2, y el monóxido de carbono, CO, hasta moléculas orgánicas que contienen
hasta trece átomos, como la acetona, (CH3)2CO,[15] el etil-metil éter,
CH3OC2H5,[16] o la cianodecapentaína, HC10CN,[17] pero hasta el momento
no se han descubierto moléculas más complejas. Dependiendo de la temperatura
de la región espacial, estos átomos y moléculas interestelares se encuentran en
estado gaseoso o sólido («polvo interestelar»).
En nuestro sistema solar se han descubierto moléculas de complejidad
similar, en un tipo de meteoritos conocidos como condritas carbonáceas. Según
la datación por radiocarbono, tendrían una antigüedad de entre 4,5 y 4,6 miles de
millones de años y se cree que representan material del cinturón de asteroides.
Estas rocas, constituidas principalmente por silicatos, contienen una gran
variedad de moléculas orgánicas, incluyendo aminoácidos simples, los bloques
constructivos de las proteínas.[18]
Las moléculas más complejas se han encontrado en un planeta. Las
condiciones de la superficie de la Tierra han proporcionado el entorno adecuado
para la evolución del sistema molecular más complejo conocido hasta la fecha:
el ser humano. En la Segunda Parte, El origen y la evolución de la vida,
explicaré cómo empezó este proceso.

Conclusiones

1. A pesar de que el modo en que se formaron los átomos de helio sigue


siendo discutible, la teoría científica generalmente aceptada, y sustentada
con solidez por la observación espectroscópica, es que, mediante el
mecanismo de reacciones de fusión en cadena y captura de neutrones, más
la desintegración en el interior de las estrellas y las supernovas, los
sencillos núcleos de hidrógeno evolucionaron hasta convertirse en los
núcleos de todos los demás elementos de origen natural. Estos procesos
fueron provocados por las transformaciones sucesivas de la energía
gravitatoria potencial en energía cinética que se produjo cuando estrellas
de distintos tamaños empezaron a contraerse en el momento en que el
combustible de fusión de cada etapa de la cadena se hubo agotado, y por la
energía generada por el colapso gravitatorio catastrófico que se produjo
cuando las estrellas agotaron su combustible nuclear y se transformaron en
supernovas.
2. Las supernovas lanzaron al frío espacio interestelar núcleos con carga
positiva y electrones con carga negativa. De ahí evolucionaron hasta
transformarse en átomos y moléculas de carga neutra, impulsados
principalmente por flujos de energía en conformidad no solo con los
principios de conservación de la energía y de la carga, y la ley de la fuerza
electromagnética, sino también con las leyes de la mecánica cuántica y el
principio de exclusión de Pauli.
3. Mientras que en general se da por supuesto que los dos principios de
conservación son axiomáticos, las leyes cuánticas y el principio de
exclusión de Pauli no lo son. De hecho, en muchos sentidos, podría decirse
que la teoría cuántica es contraria a la lógica. Pero explica cómo se forman
los átomos y evolucionan hacia las moléculas cada vez más complejas que
encontramos en el espacio interestelar, en meteoritos que se cree que
proceden del cinturón de asteroides de nuestro sistema solar, y en la
superficie de la Tierra.
4. Aunque necesarios, ni siquiera los principios de conservación y la teoría
cuántica son suficientes para explicar cómo evolucionaron las complejas
moléculas orgánicas de las que estamos hechos nosotros y todas las formas
de vida conocidas. Si los valores de tres parámetros nucleares fueran
ligeramente distintos, las estrellas no habrían generado carbono suficiente
para producir las moléculas orgánicas; si los valores de dos constantes sin
dimensión fueran ligeramente distintos —la constante de estructura fina y
el cociente entre la masa del protón y el electrón—, no se habrían formado
ni átomos ni moléculas. Ninguna teoría explica por qué estos parámetros
tienen los valores que tienen.
5. A pequeña escala, la materia ha evolucionado de estados sencillos a
estados cada vez más complejos.

En el siguiente capítulo examinaré con más detalle este patrón predominante


de aumento de la complejidad y, en particular, qué fue lo que lo causó y a través
de qué mecanismos se llegó hasta él.
[1]http://www.foresight.org/Nanomedicine/Ch03_1.html, consultado el 22 de junio de 2007.
[2]Esta sección se basa principalmente en Rowan-Robinson (2004), pp. 22–26; Morowitz (2004), pp.
48–53; y Lochner, et al. (2005).
[3] Véase página 195.
[4]Burbidge, E. Margaret, et al., «Synthesis of the Elements in Stars», Reviews of Modern Physics, 29:
4, 1957, pp. 547–650.
[5] Véase páginas 210 y siguientes.
[6] Se creía que los elementos naturales eran 91 y que los 27 restantes procedían de una síntesis
artificial. En 2014, un grupo de científicos declaró haber encontrado en la naturaleza minúsculas trazas de
siete de estos últimos. En consecuencia, utilizaré la expresión «aproximadamente 95».
[7]http://www.windows.ucar.edu/tour/link=/earth/geology/crust_elements.html, consultado el 22 de
junio de 2007.
[8]Chang (2007), p. 52.
[9]Barrow y Tipler (1996), pp. 250–253.
[10]Esta sección se basa principalmente en Ellis (2002), capítulo 3; Barrow y Tipler (1996).
295–305; Morowitz (2004), pp. 51–57.
[11] Véase página 187.
[12] Desde sus inicios, el principio se ha ampliado para establecer que no puede haber dos fermiones
(un tipo de partículas que incluye electrones, protones y neutrones) con todos sus números cuánticos
idénticos
[13]Barrow y Tipler (1996), pp. 295–305. Los valores de estas constantes están extraídos del Physics
Laboratory of the National Institute of Standards and Technology, http://physics.nist.gov, consultado el 15
de noviembre de 2007.
[14] Una molécula es la unidad física más pequeña de una sustancia capaz de existir
independientemente y consiste en un átomo o varios átomos enlazados por compartición de electrones.
Véase glosario para la distinción entre «molécula», «átomo», «ion» y «elemento».
[15]Snyder, Lewis E., et al., «Confirmation of Interstellar Acetone», Astrophysical Journal 578: Part 1,
2002, pp. 245–255.
[16]Fuchs, G. W., et al., «Trans-Ethyl Methyl Ether in Space. A New Look at a Complex Molecule in
Selected Hot Core Regions», Astronomy and Astrophysics, 444: 2, 2005, pp. 521–530.
[17]Bell, M B, et al., «Detection of HC11N in the Cold Dust Cloud TMC-1», Astrophysical Journal,
483: parte 2, 1997, pp. L61–L64.
[18]Lunine (1999), pp. 51–53; «Chondrite», Cosmic Lexicon. Planetary Science ResearchDiscovery,
1996.
CAPÍTULO 10. EL PATRÓN HACIA LA EVOLUCIÓN
DE LA MATERIA

Si tu teoría va en contra de la segunda ley de la termodinámica, no puedo darte esperanzas; no le


espera otro destino que caer en la humillación más profunda.

Sir Arthur Eddington, 1929

El capítulo 8 explica que, si la narrativa de la cosmología ortodoxa actual es


correcta, la materia emergió de un estallido inicial de radiación extremadamente
denso y caliente en forma de plasma desordenado y abrasador de partículas
fundamentales que se formaron espontáneamente a partir de, y aniquilaron, la
energía de la radiación. A escala del universo, esto evolucionó hacia una
jerarquía de sistemas estelares, galaxias, grupos locales de galaxias, cúmulos y
supercúmulos complejos y dinámicos separados entre sí por grandes vacíos
similares a burbujas. Los elementos de cada nivel no son idénticos, y un nivel de
orden superior no es simplemente una versión en tamaño aumentado del nivel
inferior que lo precede: el universo es un todo complejo y dinámico. Desde
finales de los 90, la cosmología ortodoxa sostiene que, después de unos nueve
mil millones de años, la expansión desacelerada del universo cambió hacia una
expansión acelerada, lo que implica que el proceso de complejidad creciente a
gran escala cesó en aquel momento, hace aproximadamente cinco mil millones
de años.
El capítulo 9 esboza el relato científico establecido que sostiene que, a
pequeña escala, los sencillos núcleos de hidrógeno evolucionaron hacia los
núcleos complejos de los aproximadamente 95 elementos, que a su vez
evolucionaron hacia átomos y moléculas cada vez más complejos, y este proceso
de complejidad creciente continuó para producir la cosa más complejas del
universo conocido: el ser humano.
Examinaré ahora si este patrón de complejidad creciente de toda la materia
—tanto a pequeña como a gran escala— muestra conformidad con las leyes
científicas conocidas con el fin de intentar comprender qué lo causó y cómo se
llegó hasta él.

Consistencia con las leyes científicas conocidas

El principio de conservación de la energía

El principio de la conservación de la energía se desarrolló a partir de la


primera ley de la termodinámica, que se estableció en el siglo XIX gracias a los
experimentos con motores y calor realizados por James Prescott Joule y otros.
La termodinámica significa movimiento por calor y la ley afirmaba que estos
movimientos siempre conservan la energía. Más concretamente:

Primera ley de la termodinámica: la variación de la energía de un


sistema cerrado que utiliza o produce calor es igual a la diferencia entre la
cantidad de energía calorífica incorporada al sistema y la cantidad de
trabajo intercambiada por el sistema con sus alrededores.

Desde entonces, la ley se ha ampliado para incluir las tres formas de energía
hasta ahora identificadas.

1. Energía de movimiento. Incluye la energía cinética de los cuerpos en


movimiento, el calor (provocado por el movimiento de las moléculas de
una sustancia), la energía eléctrica (provocada por el movimiento de
electrones) y la energía de radiación (provocada por el movimiento de
ondas electromagnéticas y determinadas partículas).
2. Energía almacenada (energía potencial). Incluye la energía elástica de un
muelle en extensión que puede transformarse en energía cinética si se
suelta el muelle; la energía gravitatoria potencial de una masa que puede
transformarse en energía cinética si se suelta y cae contra otra masa hacia
la que es atraída gracias al campo gravitatorio de esa masa; la energía de
un enlace químico que puede transformarse en calor a través de una
reacción química.
3. Energía de la masa en reposo (E = mc2). Parte de la teoría de la
relatividad especial de Einstein; puede transformarse en energía de
movimiento, como sucede con la fusión nuclear en el núcleo de estrellas
donde, por ejemplo, en la reacción en cadena protón-protón, la masa en
reposo de cuatro protones se fusiona con la masa en reposo inferior de un
helio-4 y la diferencia se transforma en energía calorífica y radiación de
luz.

Cuando una ley aplica a todo tipo de fenómenos se denomina «principio». Y


a pesar de que la frontera es a menudo bastante gris, las definiciones siguientes
ayudan a diferenciar entre los dos conceptos:

Ley, científica o natural: una afirmación sucinta y general, capaz de ser


verificada mediante observación o experimentación y respecto a la cual no
se han documentado resultados contrarios repetibles, según la cual un
conjunto de fenómenos naturales se comporta invariablemente de manera
idéntica dentro de los límites especificados. Normalmente se expresa
mediante una única ecuación matemática. El resultado de aplicar una ley
puede predecirse si se conocen los valores de aquellas variables que
especifican el fenómeno concreto a considerar.

Por ejemplo, la segunda ley del movimiento de Newton afirma que la


aceleración de un objeto es directamente proporcional a la fuerza neta ejercida
sobre él e inversamente proporcional a su masa. Si conocemos la masa de un
objeto y la fuerza neta ejercida sobre él, podremos aplicar la ley para predecir la
aceleración de la masa; la teoría especial de la relatividad de Einstein introdujo
el límite de que una fuerza no puede acelerar un objeto hasta una velocidad
equivalente o superior a la velocidad de la luz.
Principio, científico o natural: una ley considerada fundamental y
universalmente cierta.

Mientras que la primera ley de la termodinámica describe la energía


calorífica y el trabajo que esta realiza (la energía cinética en la que se
transforma), el principio de conservación de la energía aplica a todas las formas
de energía.

Principio de conservación de la energía: la energía no se crea ni se


destruye; la energía total de un sistema aislado permanece constante,
aunque puede transformarse de unas formas a otras.

Por lo tanto, independientemente de las condiciones de cualquier interacción,


y siempre que realicemos los cálculos correctamente, la energía total de un
sistema aislado siempre será la misma, antes y después.
Al aplicar este principio a las transformaciones de energía que provocan el
incremento de la complejidad de la materia del universo como un todo, se
plantean tres preguntas:

Pregunta 1: ¿Cuál es el valor inicial de la energía?


El relato ortodoxo de la cosmología, el Big Bang, defiende que el universo se
creó a partir de la nada y que, en consecuencia, la energía inicial debía de ser
cero; por otro lado, afirma que el universo cobró vida como una explosión
masiva de energía. El intento de explicar esta contradicción mediante la
conjetura de la energía neta cero produce a su vez una contradicción lógica.[1]
Es imposible someter a test otros intentos que aluden a un universo previo en
colapso o a otras alternativas, y menos aún proporcionar una estimación de
energía en base a ellos. La realidad es que no tenemos manera de averiguar
empírica o racionalmente cuál es el valor inicial de la energía del universo
responsable de las transformaciones de energía en el universo como un todo.

Pregunta 2: ¿Cuál es el valor final de la energía?


La geometría plana asumida en el modelo del Big Bang implica que el
universo tiene una extensión infinita y, por lo tanto, determinar su energía final
es imposible. Esto aplica a todas las conjeturas en las que la extensión del
universo es infinita. La incorporación arbitraria de una energía oscura
desconocida como responsable de un supuesto cambio hacia una aceleración de
la expansión del universo complicaría más si cabe la respuesta a la pregunta.
Los modelos con geometría cerrada que llevan a un universo que termina con
un Big Crunch producirían un valor final equivalente al valor de energía inicial
del universo, aunque los modelos de este tipo no están actualmente en
desarrollo; para los cosmólogos ortodoxos, esos modelos implican que el
universo incluye una cantidad aún mayor de materia oscura desconocida, que
superaría con creces la cantidad de energía oscura desconocida establecida
arbitrariamente.
La única conclusión razonable es que no sabemos sí el principio de
conservación de la energía puede aplicarse al universo y, en caso afirmativo,
tampoco sabríamos cómo hacerlo. Lo que lleva a la tercera pregunta.

Pregunta 3: ¿Son reversibles estas transformaciones de energía?


El principio de conservación de la energía es simétrico. Permite a moléculas
de aire frío colisionar con moléculas de agua caliente almacenada en un vaso y
obtener energía cinética por la transferencia de las moléculas de agua, de tal
modo que el aire que rodea el vaso se calienta mientras que el agua se enfría;
permite también que las moléculas de aire frío transfieran parte de su energía
cinética a las moléculas de agua caliente, calentando aún más y espontáneamente
el agua mientras que el aire que rodea el vaso se enfría todavía más. Permite que
la energía de la masa de una bomba nuclear se transforme a través de la
detonación en calor y energía de radiación, y también que el calor y la energía de
radiación se transformen de nuevo en energía de masa para ensamblar de nuevo
la bomba. Estas inversiones no se observan naturalmente. Lo que lleva al
principio de entropía creciente.

El principio del aumento de entropía


Este principio se desarrolló a partir de la segunda ley de la termodinámica,
que fue formulada de muchas maneras a lo largo del siglo XIX para limitar la
primera ley de la termodinámica únicamente a aquello susceptible de ser
observado. Podría expresarse del modo siguiente:

Segunda ley de la termodinámica: el calor nunca pasa espontáneamente


de un cuerpo frío a un cuerpo caliente; la energía siempre va de las formas
más utilizables a las menos utilizables.

Es una ley estadística de probabilidades que no explica nada sobre el


comportamiento de las partículas a nivel individual. Por ejemplo, no dice que
una molécula de aire frío no pueda perder energía cinética al colisionar contra
una molécula de agua caliente. Dice, sin embargo, que la probabilidad de que
sucedan muchas interacciones de este tipo y, en consecuencia se caliente aún
más el agua caliente y se enfríe aún más el aire que la rodea, es insignificante.
En 1877, Ludwig Boltzmann la expresó en forma de ecuación, sirviéndose
del concepto de entropía introducido en 1862 por Rudolf Clausious. Desde
entonces, este concepto se ha desarrollado para abarcar fenómenos más
generales que solo los sistemas termodinámicos; se ha extendido hasta el punto
de incorporar la idea de que la organización de un sistema nos proporciona
información sobre el mismo. Podría definirse como:

Entropía: una medida del desorden o desorganización de las partes


integrantes de un sistema cerrado; una medida de la energía que no está
disponible para ser utilizada. Cuanto menor sea la entropía, mayor será la
organización de sus partes integrantes y, en consecuencia, habrá más
energía disponible para su utilización y podrá obtenerse más información a
partir de la observación de su configuración. Con niveles de entropía
máximos, la configuración es aleatoria y uniforme, sin estructura ni
energía disponible para su utilización; esto ocurre cuando el sistema ha
alcanzado un estado de equilibrio.[2]
En un sistema cíclico ideal, las transformaciones de energía son reversibles y,
en estos casos, las ecuaciones matemáticas muestran que la entropía regresa a su
valor inicial al final de cada ciclo manteniéndose, por lo tanto, siempre igual. Sin
embargo, todas las transformaciones de energía observadas son irreversibles y la
entropía aumenta.
La segunda ley de la termodinámica, que aplica al calor y los cambios
mecánicos de energía, puede extenderse para crear un principio general que
describa todos los cambios de energía conocidos en términos de entropía. En
términos no matemáticos, se definiría como sigue:

Principio del aumento de entropía: durante cualquier proceso que tenga


lugar en un sistema aislado, la entropía se mantiene constante o,
normalmente, se incrementa; por ejemplo, el desorden aumenta, la energía
disponible disminuye y la información se pierde con el paso del tiempo, a
medida que el sistema avanza hacia un estado de equilibrio.

Dicho de manera más sencilla, cualquier cambio en un sistema aislado, de


materia o energía, tiende a producir un estado que es cada vez más probable, con
la consiguiente pérdida de energía utilizable y de información.
Todas las evidencias, sin embargo, demuestran que la evolución de la
materia, tanto a gran escala como a pequeña escala, contradice este principio.

Contradicciones del principio del aumento de entropía

Sistemas locales

La ciencia explica que el aumento en orden y complejidad se produce en los


sistemas locales y abiertos, no en los sistemas aislados; en el universo, los
aumentos de entropía superan con creces las disminuciones locales de entropía.
Así, la biosfera de la Tierra es un sistema en el que las moléculas orgánicas
fueron volviéndose cada vez más complejas, evolucionando hasta transformarse
en células y en formas de vida también más complejas hasta llegar al ente más
complejo del universo conocido: el ser humano. La biosfera de la Tierra es un
sistema abierto, y este aumento local en su orden —y, por lo tanto, una
disminución de la entropía— está impulsado principalmente por el calor y la
energía lumínica del sol, que a su vez pierde energía y experimenta un aumento
de entropía a medida que va agotando de forma irreversible su combustible
nuclear.
Los intentos de explicar el mecanismo de estas disminuciones de entropía
han producido diversas teorías de la complejidad y teorías de sistemas. Dichas
teorías parten básicamente de los estudios de sistemas auto-organizados llevados
a cabo entre 1955 y 1975 en la Universidad de Bruselas por el químico Ilya
Prigogine, y que le valieron el Premio Nobel, y de los trabajos de Manfred
Eigen, también químico, realizados en los años 70 en el Max Planck Institute for
Physical Chemistry de Gottingen. Para explicarlo de un modo sencillo, estas
teorías sostienen que de un sistema abierto y desordenado puede surgir una
estructura compleja a partir de un flujo de energía y materia que corre a través de
ese sistema, y que este flujo puede mantener la estructura compleja en un estado
estable, aunque no fijo, alejado del equilibrio a pesar del cambio continuo de los
componentes del sistema. En este estado, el sistema es sensible a los pequeños
cambios: si el flujo aumenta, la estructura tropieza con nuevas inestabilidades, a
partir de las cuales podrían surgir nuevas estructuras de mayor complejidad que
se alejan incluso más del equilibrio.
Los vórtices en fluidos ofrecen evidencias que sustentan la teoría: incluyen
ciclones en la atmósfera de la Tierra y los patrones sofisticados que observamos
en la superficie de Júpiter. La figura 10.1 muestra un vórtice creado por el flujo
de aire del ala de un avión.
Esta ilustración es sorprendentemente similar a la nebulosa en espiral que
hipotéticamente produce una estrella y su sistema planetario y también a una
galaxia en espiral. Un patrón común no significa necesariamente una causa
común, pero resulta sugerente.

El universo

Por definición, el universo integra toda la materia y la energía existentes.


Aun permitiendo la hipotética existencia de otros universos en un multiverso,
estos universos no tendrían contacto físico con nuestro universo y ello lo
convierte, por lo tanto, en un sistema aislado. Por consiguiente, la explicación de
que la disminución de la entropía en sistemas locales y abiertos queda superada
con creces por los aumentos de entropía en el resto del universo no puede
utilizarse para los aumentos de complejidad observados en el universo.
Determinar si este aumento de complejidad observado en la evolución de la
materia a escala del universo es consistente o no con el principio del aumento de
entropía, plantea al actual modelo ortodoxo de la cosmología cuatro preguntas
interrelacionadas.

Pregunta 1. ¿Cuál es el estado inicial, es decir, empieza el universo con el


máximo o con el mínimo nivel de entropía?
Según Paul Davies, por entonces profesor de Física teórica en la Universidad
de Newcastle upon Tyne, Reino Unido, «Lo que resulta de una singularidad [Big
Bang] puede ser o bien totalmente caótico y desestructurado, o bien coherente y
organizado».[3] Por si alguien pensara que lo que busca Davies con esta
afirmación es minimizar riesgos, hay que tener en cuenta que seis páginas antes
dice que el universo que empezó con la singularidad del Big Bang «no era un
universo de máxima organización, sino de simplicidad y equilibrio». Lo cual
describe un estado de entropía máxima. Tal vez la razón por la que Davies
minimiza luego los riesgos es porque Roger Penrose había llegado a la
conclusión contraria: «El hecho de que [el Big Bang] debió tener una entropía
absurdamente baja [un estado altamente ordenado] se hace evidente por la mera
existencia de la segunda ley de la termodinámica».[4] Penrose asume que la
segunda ley de la termodinámica (más concretamente, el principio del aumento
de entropía) aplica al universo y, por lo tanto, el estado inicial del mismo tiene
que ser de entropía mínima. Se trata de un argumento circular e inválido.
Contradice, además, la tercera ley de la termodinámica.

Tercera ley de la termodinámica: la entropía a temperatura cero absoluto


de un cristal perfectamente ordenado es igual a cero.

El modelo ortodoxo de la cosmología actual propone la materia inicial del


universo como un plasma, desordenado y en ebullición, de partículas
fundamentales que se forman espontáneamente de la energía de radiación, un
plasma demasiado caliente para impedir la formación de estructuras ordenadas.
Se trata claramente de un estado con un nivel de entropía muy alto, con un
equilibrio general entre materia y energía a temperatura casi infinita que sigue de
inmediato a una singularidad Big Bang con nivel máximo de entropía, como
concluyó inicialmente Davies.

Pregunta 2. A escala del universo, ¿es la evolución de la materia entrópica o


anti-entrópica? Es decir, la entropía ¿aumenta o disminuye?
La figura 10.2 ilustra el dilema del modelo ortodoxo de la cosmología actual.
La figura 10.2 (a) muestra una esfera con moléculas de un gas constreñidas
en una disposición ordenada, es decir, en un estado de entropía baja. Al liberarse
de su constreñimiento, y siempre y cuando la temperatura esté por encima del
cero absoluto, las moléculas se mueven a distintas velocidades y colisionan entre
ellas. La repulsión eléctrica de los electrones con carga negativa del exterior de
cada molécula es tan superior a la atracción gravitatoria entre las moléculas, que
las colisiones llevan a que las moléculas se expandan rápidamente hasta llenar
toda la esfera, alcanzando el equilibrio termodinámico a una temperatura
uniforme, como se observa en la esfera (b). Es un estado de entropía máxima.
La esfera (c) muestra moléculas primordiales (con masa compuesta por
aproximadamente un 75 por ciento de hidrógeno y un 25 por ciento de helio)
poco después del hipotético Big Bang. Constituyen toda la materia del universo
y se reparten por todo el espacio existente en ese momento. Están en un estado
de entropía extremadamente alta (desorden) mientras el espacio entre ellas se
expande. Si estuvieran en equilibrio termodinámico, estarían en un estado de
entropía máxima.
Entre las páginas 201 y 214 se ofrece el relato ortodoxo, además de una
crítica, de cómo esta nube molecular primordial evolucionó a través de la
atracción gravitatoria hasta transformarse en estructuras de galaxias, grupos
locales, cúmulos y supercúmulos, como se muestra en la esfera (d).
El proceso mostrado en la esfera (c) → (d) es el contrario al mostrado en la
esfera (a) → esfera (b): es anti-entrópico.
Penrose, sin embargo, afirma que es entrópico.
Tanto él como Stephen Hawking[5] afirman que la «acumulación» de los
cuerpos gravitantes produce desorden. Pero las observaciones muestran
claramente que las galaxias y demás formaciones están más ordenadas y
estructuradas que las nubes de material a partir de las cuales se formaron.
Penrose llega a la conclusión de que «un sistema inicial de cuerpos
gravitantes uniformemente dispersos representa una entropía relativamente baja,
y las acumulaciones tienden a ocurrir a medida que aumenta la entropía. Por
último, hay un aumento enorme de entropía cuando se forma un agujero negro
que engulle la mayor parte del material».[6]
Aquí, Penrose utiliza el término «entropía» para los cuerpos gravitantes para
expresar precisamente lo contrario del significado para cuerpos no-gravitantes.
Su argumento descansa sobre la afirmación de que con «la gravedad las cosas
parecen ser de otra manera».[7] Aquí corremos de nuevo el peligro de caer al
otro lado del espejo de Alicia, donde una palabra «significa justo lo que yo
quiero que signifique, ni más ni menos».
Además, si cuando se forma un agujero negro se produce un aumento enorme
de entropía, y si las condiciones de la materia durante el Big Bang, deducidas al
realizar una regresión de la expansión del universo, son similares a las de un
agujero negro, tal y como Hawking y él defendían,[8] el Big Bang representaría
un estado de entropía muy elevada, si no máxima. Lo cual contradice
directamente la afirmación citada previamente de que el Big Bang tenía «una
entropía absurdamente baja».
Tal y como Ellis observa:

A pesar de lo que se defiende a menudo en las discusiones sobre la segunda ley de la


termodinámica, cuando se dice que si la materia se dejara actuar por sí sola siempre tendería a un
estado de desorden creciente, la historia natural del universo nos demuestra lo contrario. Por proceso
espontáneo, las primeras estructuras ordenadas (estrellas y galaxias) crecieron a través del proceso
de atracción gravitatoria; luego surgieron las estrellas con planetas de segunda generación y
ofrecieron el hábitat para la vida […]. Por lo tanto, la material presenta una propensión
extraordinaria a crear orden, a generar espontáneamente niveles de estructura jerárquica cada vez
más elevados y un orden concurrente.[9]

Se trata de un proceso anti-entrópico según la definición generalmente


aceptada de entropía. La contradicción entre conjetura y evidencia que presenta
el modelo ortodoxo del Big Bang no se enfrenta a las hipótesis en las que el
universo es eterno e infinito, porque un estado así es de entropía constante en la
escala del universo y, por lo tanto, es consistente con el principio del aumento de
entropía («la entropía se mantiene constante o, normalmente, se incrementa…»,
véase definición en página 247).

Pregunta 3. ¿Qué es lo que provoca este incremento de complejidad


(disminución de entropía) a escala del universo?
Davies dice que el campo gravitatorio cósmico, a través de la expansión
cósmica, es el responsable de generar orden. Llega a la conclusión de que:

Presuntamente sufre cierta tendencia al desorden como resultado [de su orden creador]… pero de
ser así tenemos que explicar cómo apareció el orden en el campo gravitatorio […]. El tema gira en
torno a si la segunda ley de la termodinámica aplica tanto a la gravedad como a la materia. En
realidad, nadie lo entiende. Trabajos recientes sobre los agujeros negros [los de Jacob Bekenstein y
Stephen Hawking] sugieren que sí. [10]

Sobre la cuestión de si el principio del aumento de entropía aplica a la


gravedad, algo que la ciencia explica actualmente como una deformación del
tejido espacio-tiempo provocada por la masa, la única conclusión razonable es a
la que llega Ellis.

Otro asunto no resuelto es el de la naturaleza de la entropía gravitatoria […]. No existe aún una
definición sobre la entropía gravitatoria que sea generalmente aplicable; hasta que la haya, los
argumentos cosmológicos asentados sobre conceptos de entropía carecen de base sólida.[11]
La respuesta a esta pregunta es que actualmente desconocemos la causa del
incremento observado de complejidad y, por lo tanto, de la disminución de
entropía, que se produce cuando el universo se expande.

Pregunta 4. ¿Cuál es el estado final, es decir, termina el universo en


desorden?
El problema de que las evidencias entran en contradicción con el modelo
ortodoxo de la cosmología, que aparece planteado al final de la respuesta a la
Pregunta 2, podría resolverse si se diera el caso de que, a pesar de que la
complejidad y el orden han aumentado hasta la fecha, el universo terminara en
desorden. Es decir, si a pesar de que la evolución de la materia en el universo ha
sido un proceso anti-entrópico hasta la fecha, acabara finalmente siendo
entrópica.
Sin embargo, tal y como llegó a la conclusión el capítulo 8, la pregunta de si
el universo permanecerá a perpetuidad en su actual nivel de complejidad
dinámica, o si se mantendrá en este nivel a través de ciclos perpetuos tal y como
propone la cosmología de estado cuasi-estacionario, o si ha iniciado un proceso
entrópico que acabará llevando al desorden máximo en una muerte térmica, o si
se volverá a contraer hasta el desorden máximo en la singularidad de un Big
Crunch, sigue totalmente abierta.
Hasta hace ochenta y cinco años, y en base a las evidencias disponibles en
aquel momento, la ciencia creía que el universo sería siempre inalterable.
Durante los siguientes treinta y cinco años, y basándose en nuevas evidencias, la
ciencia quedó dividida entre aquellos que consideraban que el universo era
eterno, los que opinaban que estaba experimentando una expansión de estado
estacionario y los que defendían que el universo empezó de la nada como un
punto que explotó en un Big Bang y que había estado expandiéndose a un ritmo
desacelerado desde entonces. Hace cincuenta años, evidencias que
discutiblemente eran nuevas, convencieron a la cosmología ortodoxa para que
adoptara la idea del Big Bang. Unos veinte años más tarde, y debido a los
conflictos entre las evidencias y el modelo del Big Bang, la cosmología ortodoxa
llegó a la conclusión de que el universo primitivo experimentó una expansión
indeterminada, aunque increíblemente breve e increíblemente enorme, antes de
embarcarse en una expansión desacelerada mucho más pequeña. Y quince años
más tarde, la cosmología ortodoxa interpretó las evidencias y alcanzó la
conclusión de que después de dos tercios de su vida, la expansión desacelerada
del universo cambió de ritmo por razones que no comprendemos y pasó a una
expansión acelerada, pero que ni de lejos se acerca a su ritmo de inflación.
Solo un cosmólogo osado podría predecir con confianza lo que la cosmología
ortodoxa pensará acerca de la evolución de la materia a gran escala en diez años,
en cien años, y mucho menos en mil años, qué periodos son insignificantes en
comparación con la estimación de tiempo de vida del universo, que la
cosmología ortodoxa actual estima en 13,8 miles de millones de años.
Las proyecciones sobre el destino del universo son puramente especulativas
y la cosmología es incapaz de ofrecer una respuesta a esta pregunta. En
consecuencia, el actual modelo ortodoxo no puede aclarar si el principio del
aumento de entropía es aplicable al universo como un todo.
Incorporaré las conclusiones de este capítulo en las conclusiones de la
primera parte que ofrezco en el capítulo siguiente.
[1] Véase página 96 y página 171.
[2] Véase glosario para una definición completa de «entropía» y su ecuación.
[3]Davies (1990), p. 56.
[4]Penrose (2004), p. 726.
[5]Hawking (1998), p. 149.
[6]Penrose (2004), p. 707.
[7]Ibid, p. 731.
[8]Hawking (1998), pp. 49–50.
[9]Ellis (2002), S.5.4.6.
[10]Davies (1990), p. 52.
[11]Ellis (2007), S.2.5.
CAPÍTULO 11. REFLEXIONES Y CONCLUSIONES
SOBRE EL ORIGEN Y LA EVOLUCIÓN DE LA
MATERIA

Los cosmólogos se equivocan a menudo, pero nunca dudan.

ATRIBUIDO A LEV LANDAU, 1908 -1968

Reflexiones

Cuando inicié este viaje tenía la impresión de que el Big Bang era una teoría
científica sólidamente respaldada por las evidencias y que, por lo tanto,
averiguar qué conocemos sobre el origen y la evolución de la materia inanimada
sería relativamente sencillo. Pero cuantas más preguntas me formulaba, más
quedaba patente que mis supuestos iniciales eran erróneos.
Lo cual no era malo. Había abordado el tema con mentalidad abierta,
intentando buscar lo que sabíamos o podíamos deducir razonablemente a partir
de la observación y la experimentación, por un lado, y diferenciarlo de las
hipótesis, la especulación o las creencias, por el otro. Si las evidencias empíricas
no sustentaban, o incluso contradecían, mis supuestos, tenía que asumir que así
es cómo funciona la ciencia funciona: el conocimiento científico no está grabado
en piedra, sino que evoluciona a medida que aparecen evidencias y las ideas se
desarrollan.
Pero lo que me resultó inquietante fue que algunos cosmólogos respondieran
tremendamente a la defensiva cuando les pedí que corrigieran en mis borradores
algún error de hecho u omisión o las conclusiones inadecuadas. Después de
haber leído solo la mitad de un capítulo, uno de ellos me dijo: «Bajo mi punto de
vista, el gran público no debería recibir una visión tan sesgada de lo que la
ciencia ha conseguido y no».
Otro me respondió diciendo que «No creo que alguien que no ha estudiado
cosmología con todo su detalle físico y matemático pueda realmente escribir una
crítica creíble sobre la cosmología moderna». Cuando le recordé que el borrador
del capítulo que le había remitido exponía críticas a la ortodoxia vigente
realizadas por varios cosmólogos reconocidos, descartó a dos de ellos por «haber
dejado de tener credibilidad en el mundo de la cosmología». Uno de ellos había
sido galardonado hacía tan solo dos años con la medalla de oro de la Royal
Astronomical Society.
Para justificar su aseveración de que el borrador «estaba lleno de fallos»,
destacó una sección que concluía diciendo que los datos del telescopio espacial
WMAP no confirmaban en absoluto la teoría de la inflación. Dijo: «La mayoría
de la gente considera que los datos del WMAP son muy consistentes con la
inflación». Si hubiese verificado las fuentes que yo citaba para apoyar mi
conclusión, habría visto que incluían parte de un libro de texto y también un
artículo que él mismo había publicado en Nature en el que llegaba a la misma
conclusión. Terminó diciendo que no quería perder más tiempo colaborando con
lo que consideraba un ataque contra la cosmología.
Creo que parte de esta triste respuesta defensiva tanto desde dentro como
desde fuera de la cosmología deriva de los problemas a los que se enfrenta la
cosmología como medio explicativo y que se describen en el capítulo 6. En parte
surge también porque la cosmología como disciplina empezó con una teoría
matemática —las ecuaciones de campo de la relatividad general de Einstein
aplicadas al universo— y ha sido liderada mayoritariamente por teóricos cuyo
instrumento de trabajo principal son las matemáticas. Muchos combinan las
pruebas matemáticas con las pruebas científicas, cuando en realidad se trata de
dos cosas muy distintas. Introducir en sus ecuaciones un amplio rango de
parámetros arbitrarios cuyos valores pueden ajustarse libremente para que sean
consistentes con la observación es, para los teóricos, un modo razonable de
desarrollar un modelo matemático, pero esta práctica no constituye una prueba
empírica, tal y como la comunidad científica acepta el concepto. Todo esto
resulta especialmente evidente cuando modelos mutuamente contradictorios
afirman ser consistentes con los mismos datos observados.
En ausencia de test observacionales o experimentales que puedan validar o
rechazar sin ambigüedades una hipótesis específica, sus proponentes disponen
solo de un conjunto de ecuaciones matemáticamente consistentes que creen que
representan la realidad tal y como la perciben nuestros sentidos. Los adeptos a
estas creencias actúan de un modo similar a los adeptos a cualquier creencia:
quien no está de acuerdo con ellas es porque no las entiende, se equivoca o
carece de credibilidad. (Este último término de desaprobación resulta revelador
cuando lo utiliza un científico.) Cuando los adeptos a la creencia mayoritaria
adquieren poder entre los académicos, imparten sus enseñanzas a los nuevos
cosmólogos y deciden cuáles de ellos obtendrán puestos de investigación,
recibirán subvenciones y verán sus trabajos publicados, la creencia se
institucionaliza; como sucede con cualquier institución, las presiones para
ajustarse a la ortodoxia vigente y de este modo asegurar y mantener la carrera
profesional son enormes. Como resultado de ello, cualquier postura distinta
sobre los mismos problemas queda sin investigar, la innovación en la forma de
pensar se reprime y se estanca en lo que el físico teórico Lee Smolin denomina
«pensamiento de grupo» (ejemplificado por lo que «la mayoría de la gente
piensa» soporta mi conclusión) y el progreso científico se ralentiza.
Si el patrón habitual del progreso científico continúa, acabará apareciendo un
inconformista que realizará un gran avance y se producirá un cambio de
paradigma kuhniano.[1] Pero en el campo de la cosmología, donde los test
empíricos exigen un nivel de presupuesto impresionante —como sucede con los
detectores espaciales o los colisionadores de partículas—, las oportunidades de
que se produzca un rechazo académico como el de Einstein son escasas.

Paradigma: patrón dominante de pensamiento y supuestos,


incuestionables en gran medida, que integra una disciplina científica,
dentro del que se desarrollan las investigaciones y según el cual se
interpretan los resultados.

De este modo, la cosmología ortodoxa tiende a comportarse menos como una


ciencia y más como una religión que a punto está de alcanzar la violencia física
en su respuesta a los disidentes internos y a los infieles externos. Cuando en los
capítulos 3 y 5 he examinado las alternativas a la ortodoxia vigente, he apuntado
ejemplos del trato recibido por los cosmólogos que se muestran en desacuerdo
con las creencias ortodoxas, con los supuestos, con frecuencia sobreentendidos,
que las sustentan o con la interpretación ortodoxa de los datos. Smolin ofrece
muchos ejemplos más en su libro Las dudas de la física en el siglo XXI: ¿es la
teoría de cuerdas un callejón sin salida?.[2] No es mi intención atacar la
cosmología, sino mostrar cómo funciona en la práctica y sugerir que estas
actividades son contrarias a los valores de la ciencia. Además, considero que
aseverar que las especulaciones cosmológicas son teoría científica establecida
abre la puerta a que especulaciones y creencias extravagantes quieran cobijarse
bajo el manto de la ciencia.
Tampoco es mi propósito criticar a ningún cosmólogo a nivel individual.
Muchos de ellos se cuentan entre las mentes más brillantes que existen en el
campo de la ciencia y las matemáticas. Pero el resplandor intelectual no impidió
que Newton y muchos otros grandes científicos mostraran una conducta
altamente cuestionable para con otros científicos.
Dicho esto, quiero expresar mi profundo agradecimiento a todos aquellos
cosmólogos que han tenido la amabilidad de corregir los errores, omisiones y
conclusiones erróneas de mis borradores. En la sección de Agradecimientos
aparecen algunas de las mentes más destacadas de la cosmología. Cualquier
error residual es única y exclusivamente mío y, como dejo claro, mi deuda con
estos científicos no implica que estén necesariamente de acuerdo con todas mis
conclusiones y ni siquiera entre ellos. Establecer este debate razonado, del que
este libro se ha beneficiado enormemente, fue, por encima de todo, una
experiencia placentera y estimulante.
Mi intento de realizar una evaluación imparcial de lo que sabemos o de lo
que razonablemente podemos deducir a partir de la observación y la
experimentación acerca del origen y la evolución de la materia dio como
resultado lo siguiente.

Conclusiones

1. La cosmología, la rama de la ciencia que estudia el origen, la naturaleza y


la forma del universo, defiende el modelo del Big Bang como su teoría
ortodoxa. Sin embargo, el modelo básico no supera el test que exige la
ciencia a cualquier teoría robusta puesto que, entre otras cosas, entra en
conflicto con las evidencias obtenidas mediante observación. (Capítulo 3).
2. Las dos grandes modificaciones a las que ha sido sometido el modelo
básico para resolver estos conflictos dieron como resultado el modelo del
Big Bang inflacionario con fluctuación cuántica, pero la reivindicación
principal de estas modificaciones sigue sin poderse verificar con ningún
medio conocido. (Capítulo 3). Además, estas modificaciones producen un
modelo lógicamente inconsistente si sigue sosteniéndose que el Big Bang
es el inicio de todo o, como alternativa, un modelo que contradice este
principio básico en el caso de que existiera un vacío cuántico y un campo
inflacionario antes del hipotético Big Bang caliente. (Capítulos 4 y 7).
3. Además, este modelo modificado no logra explicar si el Big Bang fue o no
una singularidad y, en caso de que lo fuera, cómo es que era un punto de
volumen tan infinitamente pequeño y de densidad infinita. Tampoco logra
explicar de manera convincente, y mucho menos predecir, la proporción
observada entre materia y radiación del universo, ni la naturaleza de la
«materia oscura» (que se supone que constituye el 27 por ciento del
universo) y de la misteriosa «energía oscura» anti-gravedad (que se supone
que constituye el 68 por ciento del universo y del cambio que se ha
producido en la expansión del universo, que después de pasar dos tercios
de su vida con un ritmo desacelerado ha pasado a un ritmo acelerado),
ambas añadidos para conseguir que el modelo ortodoxo sea consistente
con la interpretación ortodoxa de los datos observados. (Capítulo 4).
4. Este modelo modificado tampoco explica por qué el universo adoptó la
forma que tiene habiendo otras formas alternativas (capítulo 7) y, lo que es
más importante, de dónde vino todo. (Capítulos 4 y 7).
5. La interpretación ortodoxa de las evidencias obtenidas mediante la
observación sostiene que el universo se expande, pero saber si está
expansión puede retrotraerse hasta llegar a un suceso de creación con un
punto de origen, o si se trata de una fase de un universo cíclico y eterno,
depende de poder extrapolar la física conocida hasta más allá de sus
límites y también de los cuestionables supuestos que sustentan la
interpretación de los datos. (Capítulos 3, 5 y 6).
6. Las demás hipótesis propuestas para modificar más si cabe, o desbancar, el
modelo ortodoxo no han sido sometidas a test o no pueden ser sometidas a
test con los medios actualmente conocidos. (Capítulo 5). Las que buscan
explicar de dónde surgió el universo planteando la existencia de un
universo previo en colapso o de un multiverso, no responden a la pregunta
acerca del origen porque no explican de dónde surgió el universo anterior o
el multiverso. (Capítulos 3 y 5).
7. Un universo eterno en el que la energía y la materia se reciclan
constantemente ofrecería una explicación más razonable que la creación a
partir de la nada y se han propuesto distintas conjeturas en este sentido.
Los diversos modelos cíclicos plantean un número interminable de ciclos
cada vez más largos o de universos cada vez más masivos pero, siguiendo
su propia lógica y haciendo retroceder el reloj, se llega a un inicio de los
ciclos a partir de una singularidad, lo que los lleva a no ser eternos. El
modelo de cosmología cuasi-estacionaria evita este problema, pero plantea
la creación continua de materia y energía mediante una serie de mini-bangs
no singulares; la hipotética fuente de energía para estos mini-bangs no
resulta más razonable que la conjetura de la creación del universo a partir
de la nada en un solo Big Bang. El modelo de universo evolutivo estático
de la cosmología del plasma propone un universo eterno que no exige la
creación de la materia y la energía a partir de la nada, pero hasta el
momento no ha logrado explicar qué fue lo que provocó la existencia del
plasma inicial de un universo eterno y qué fue lo que provocó la existencia
de las fuerzas físicas conocidas y las llevó a interactuar de modo que
produjeran estados de materia cada vez más ordenados y complejos.
(Capítulos 5 y 7).
8. La cosmología se diferencia de otras ramas de la ciencia en que solo
tenemos un universo, es incomparablemente grande y formamos parte de
él. Estas diferencias generan problemas prácticos de detección de límites y
dificultades de medición, problemas de interpretación de datos y de validez
de los supuestos subyacentes, y deficiencia no solo de teoría cosmológica
sino también de la base que integran la teoría de la relatividad, la mecánica
cuántica y la física de partículas cuando se aplica al universo como un
todo. En consecuencia, desconocemos con certitud cosas como la edad del
universo o su supuesto ritmo de expansión. (Capítulo 6).
9. A pesar de estos tremendos problemas, los cosmólogos suelen realizar
aseveraciones con escasa justificación científica. Con frecuencia, su
lenguaje refleja más el de un sistema de creencias que el de una ciencia, y
la respuesta de la cosmología institucional a los científicos reconocidos
que presentan una interpretación distinta de los datos o que ofrecen
conjeturas alternativas recuerda a una iglesia enfrentada a sus disidentes.
(Capítulos 3, 5 y 6).
10. Con la mejora de las técnicas de detección, y con el desarrollo de
interpretaciones y teorías como respuesta a la aparición de nuevos datos y
nuevas ideas, las limitaciones prácticas, interpretativas y teóricas quedarán
superadas y la cosmología nos ofrecerá una mejor comprensión del origen
de la materia y de la energía de la que estamos hechos. Sin embargo, hasta
que los cosmólogos presenten una nueva definición de ciencia y de método
científico que resulten aceptables tanto para la comunidad científica como
para la comunidad intelectual en su sentido más amplio, muchas «teorías»
cosmológicas deberán quedar clasificadas como conjeturas no verificables
y, en consecuencia, ser consideradas más filosóficas que científicas.
(Capítulo 6).
11. Un problema teórico particular es el relacionado con el concepto de
infinitud, tanto espacial como temporal. Si este concepto matemático se
corresponde o no a la realidad del mundo físico que percibimos con los
sentidos, como seres finitos que somos, es una cuestión metafísica. El
hecho de que las teorías que incorporan la infinitud no pueden verificarse
mediante la observación sistemática o la experimentación, las sitúa fuera
del campo de la ciencia tal y como la entendemos hoy en día. (Capítulos 6
y 7).
12. A pesar de que la ciencia tiene que ver con la comprensión del universo
material, hay otras formas de existencia distintas a la material —las leyes
de la física, por ejemplo— que describen o regulan cómo cobra vida el
universo material y cómo funciona. Estas leyes se expresan mediante
relaciones matemáticas. En consecuencia, los físicos teóricos deducen que
las formas materiales existen como una realidad objetiva fuera del espacio
y del tiempo y regulan la formación y el funcionamiento del universo
material. Este razonamiento queda fuera del campo de la ciencia. En el
fondo, no se diferencia de la visión de brahmán de las antiguas Upanishads
o de la visión del tao de los antiguos chinos en cuanto a una realidad
definitiva que existe fuera del espacio y el tiempo, de la que todo mana y
según la cual funciona el mundo natural. (Capítulos 6 y 7).
13. Si reconociéramos los problemas exclusivos de la cosmología y
sometiéramos las diversas especulaciones cosmológicas al test de la razón
en vez de al test estrictamente empírico de la ciencia, veríamos que
ninguna de ellas resulta convincente, que algunas quedan debilitadas por
inconsistencias internas y que varias son poco más razonables que muchas
creencias que la ciencia considera superstición. (Capítulo 7).
14. Ni la ciencia ni la razón ofrecen una explicación convincente sobre el
origen del universo y, en consecuencia, sobre el origen de la materia y la
energía de las que estamos hechos. Lo más probable es que quedé lejos de
su capacidad para hacerlo. Pero la ciencia, de todos modos, sigue
suministrando una amplia gama de explicaciones provisionales —que
cambiarán a medida que se produzcan nuevos descubrimientos y varíen las
ideas— sobre cómo funciona el universo tanto a pequeña como a gran
escala. (Capítulo 7).
15. Si el universo primitivo consistía en un plasma extremadamente denso,
caliente y desordenado de partículas fundamentales que se formó a partir
de energía de radiación, y la aniquiló, ha ido evolucionando a gran escala
para formar estructuras dinámicas y complejas dispuestas en una jerarquía
que va desde sistemas estelares con planetas en órbita, a galaxias en
rotación, grupos locales de galaxias y cúmulos de galaxias, hasta súper-
cúmulos separados entre sí por vacíos parecidos a burbujas. (Capítulo 8).
16. Evidencias obtenidas a través de la observación muestran de forma
convincente que, simultáneamente, la materia evolucionó a pequeña escala
siguiendo un patrón de complejidad creciente, desde sencillos núcleos de
átomos de hidrógeno hasta las moléculas (con base de carbono) de incluso
trece átomos que encontramos en el espacio interestelar y los aminoácidos
simples, también con esa cantidad de átomos, que encontramos en
asteroides de nuestro sistema solar. (Capítulo 9).
17. La ciencia ha deducido leyes físicas y químicas que describen o
determinan cómo interactúa la materia invariablemente en todo el universo
observable. Sin cumplir estas leyes, la materia no podría haber
evolucionado hasta la compleja forma del ser humano. (Capítulos 6, 7, 8, 9
y 10).
18. Además de estas leyes físicas y químicas, para obtener un universo que
permita que la materia evolucione hasta la complejidad de los átomos y las
moléculas de las que estamos formados, es necesario ajustar con precisión
el valor de seis parámetros cosmológicos. Además, para permitir la
evolución de cualquier átomo o molécula, es necesario ajustar con
precisión los valores de dos constantes sin dimensión. Y finalmente, para
conseguir la producción de carbono suficiente para la evolución de las
moléculas orgánicas esenciales para la existencia del ser humano y de
todas las formas de vida conocidas, es imprescindible ajustar también con
precisión los valores de tres parámetros de la nucleosíntesis estelar.
(Capítulos 7 y 9).
19. Ninguna teoría explica cómo surgen estas leyes o por qué estos parámetros
tienen los valores críticos que tienen. Varias conjeturas con distintos tipos
de multiverso proponen que, en un cosmos con un número de universos
tremendamente grande o infinito, resulta abrumadoramente probable que
surgiese un universo justo con las propiedades que tiene el nuestro; y
casualmente existimos en él (el universo antrópico). Ni la observación ni la
experimentación pueden validar estas conjeturas y quedan fuera del campo
de la ciencia. Además, todas las conjeturas de multiversos están basadas en
una lógica cuestionable. (Capítulo 7).
20. El proceso de complejidad creciente a pequeña escala que llevó a la
producción de los aproximadamente 95 elementos naturales que existen
estuvo provocado por transformaciones de energía que se iniciaron en el
interior de las estrellas, y especialmente entre energía gravitatoria potencial
y energía de masa en reposo, cinética, calorífica y lumínica.
Transformaciones posteriores de estas energías, limitadas por la teoría
cuántica, produjeron átomos más complejos que posteriormente se
enlazaron para formar moléculas. Las hipótesis basadas en los sistemas
auto-organizados explican, con cierta base empírica, que un sistema
abierto de moléculas puede incrementar su complejidad mediante un flujo
de energía y materia que circula a través del sistema y que produce un
sistema estable alejado del equilibrio. (Capítulos 9 y 10).
21. Hasta el momento, la cosmología ortodoxa no ha conseguido ofrecer una
explicación satisfactoria sobre la causa de la complejidad creciente a escala
del universo. Su relato sobre cómo surgieron las heterogeneidades iniciales
en la materia —a través de la hipotética expansión inflacionaria de
fluctuaciones cuánticas en el Big Bang o en un vacío preexistente— es tan
flexible que no es verificable, y muchos cosmólogos de renombre han
sembrado serias dudas con respecto a su supuesta validación a partir de las
ondulaciones de densidad observadas en el fondo cósmico de microondas.
Su explicación sobre cómo estas heterogeneidades generaron campos
gravitatorios con fuerza suficiente en distintas nubes de átomos y
moléculas primitivas para producir los sistemas estelares y las galaxias, los
grupos locales de galaxias y los cúmulos de galaxias, además de los
supercúmulos en forma de lámina separados entre sí por vacíos con
aspecto de burbuja constituye el modelo ascendente que incluye materia
oscura fría y desconocida y energía oscura desconocida. Las observaciones
de estrellas rojas gigantes y de hierro y otros metales en galaxias que
deberían ser muy jóvenes según el modelo, además de la observación de
estructuras mucho más grandes de lo vaticinado, arrojaron importantes
dudas con respecto a ese modelo. Además, los cosmólogos no se ponen de
acuerdo en cómo se formaron las estrellas de primera generación y en
cuáles fueron las primeras estructuras del universo: cúmulos globulares,
agujeros negros súper masivos o estrellas con poca masa. (Capítulos 8 y
10).
22. Este patrón de aumento de la complejidad contradice el principio de
aumento de la entropía (desorden) de la ciencia. La cosmología ortodoxa
actual explica que los aumentos de complejidad (disminución de la
entropía) se producen en los sistemas locales y abiertos y se ven superados
con creces por los aumentos de entropía en el resto del universo. Pero
como que el universo es un sistema aislado y, por lo tanto, cerrado, esto no
consigue explicar el aumento de complejidad (disminución de la entropía)
en el universo como un todo. Este problema no se encuentra en el modelo
de cosmología de estado cuasi-estacionario que defiende un universo
infinito que experimenta continuamente fases cíclicas, puesto que la
entropía es la misma al inicio y al final de cada ciclo; pero, como sucede
con la cosmología ortodoxa, presenta un problema con el principio de la
conservación de la energía porque sus mini-bangs implican la creación de
materia-energía a partir de la nada. La cosmología del plasma propone un
universo eterno, pero se trata de un universo que empieza en un estado de
plasma desordenado, o en un estado previo no especificado, y evoluciona
para producir estados de materia más complejos como galaxias, cúmulos
de galaxias y supercúmulos a partir de vórtices de filamentos comprimidos
magnéticamente. Como sucede con el modelo ortodoxo, se trata de un
proceso anti-entrópico que entra en conflicto con el principio del aumento
de la entropía. Además, no queda claro cómo es posible que un universo
que tiene un principio es eterno. (Capítulos 5 y 10).
23. El problema podría resolverse para el actual modelo ortodoxo si:
a. El proceso de aumento de la complejidad cesara, se revertiera y el
universo volviera a contraerse para acabar con el desorden máximo que
supondría un Big Crunch, o si el universo se expandiera hasta llegar a la
ausencia de cualquier tipo de orden en el equilibrio termodinámico de
una muerte térmica, pero las proyecciones sobre el destino final del
universo son especulaciones que han cambiado radicalmente varias
veces en el transcurso de los últimos cien años; o si
b. El universo fuera un sistema abierto mantenido lejos del equilibrio
mediante un flujo de energía, aunque esto exigiría que el universo no
consistiera en todo lo que hay ahí y tampoco explica de dónde
procedería esa energía; o si
c. Una forma o formas de energía no identificada todavía por la
cosmología estuviera implicada en las transformaciones de energía y los
cambios de complejidad asociados.
[1] Thomas Khun, filósofo de la ciencia, defiende que los factores sociales y psicológicos influyen la
actitud de los científicos cuando pasan de adherirse a la teoría vigente a adoptar otra nueva y revolucionaria.
Véase Khun (2012).
[2] Editado en español por Crítica, Barcelona, 2007.
SEGUNDA PARTE.
El origen y la evolución de la vida
CAPÍTULO 12. UN PLANETA IDÓNEO PARA LA
VIDA

Quiero saber cómo Dios creó el mundo.

ALBERT EINSTEIN, 1955

En nuestro siglo, la biosfera ha adquirido un significado completamente nuevo; se ha revelado como un


fenómeno planetario de carácter cósmico.

VLADIMIR VERNADSKY, 1945

La pregunta en el sentido más amplio de cómo surgió en el universo la vida


en diversas, y posiblemente exóticas maneras, queda fuera del alcance de nuestro
viaje, que se centra en teorías científicas establecidas y en evidencias que
sustentan la evolución del ser humano. De ahí que la Segunda Parte examine el
origen y la evolución de la vida en la Tierra.
En la primera parte se ha explicado que la materia más compleja que
conocemos actualmente como resultado de la evolución a pequeña escala se
encuentra en el espacio interestelar y en los asteroides de nuestro sistema solar y
son moléculas orgánicas de hasta trece átomos. La Tierra, por otro lado, alberga
los objetos más complejos del universo conocido: el ser humano. Pero el ser
humano y otras formas de vida existen solo en una minúscula zona de la Tierra:
justo por encima y justo por debajo de su superficie. Es lo que conocemos como
la biosfera aunque tal vez sería mejor denominarla la «biocapa».
Empezaré la segunda parte considerando las condiciones necesarias para la
aparición y la evolución de la vida tal y como la conocemos y luego examinaré
las teorías científicas que explican cómo se desarrollaron estas condiciones en la
Tierra para dar lugar a su biosfera.
Condiciones necesarias para las formas de vida conocidas

Las condiciones que los científicos consideran necesarias para la aparición y


la evolución de la vida pueden diferenciarse en seis grupos: los elementos y las
moléculas esenciales, la masa del planeta, el rango de temperatura de la biosfera,
las fuentes de energía, la protección contra la radiación nociva y los impactos, y
la estabilidad.

Los elementos y moléculas esenciales

Todas las formas de vida conocida están integradas por una gran variedad de
moléculas tremendamente complejas. El único elemento capaz de formar
moléculas de tal complejidad es el carbono,[1] razón por la cual la vida, al
menos en su inicio, exige la presencia del elemento carbono.
Todos los biólogos consideran el agua, en su formato líquido, como un
elemento esencial para la vida. Y ello se debe al tamaño, la forma y la particular
distribución de la carga eléctrica que presenta la molécula del agua, tal y como
se muestra en la figura 12.1.

Una molécula de agua es eléctricamente neutra, pero en el interior de la


molécula, la carga se distribuye de forma desigual. El átomo de oxígeno atrae
una gran parte de la carga eléctrica y es electronegativo; los dos átomos de
hidrógeno son electropositivos. Estas cargas dipolares permiten que los átomos
electropositivos de hidrógeno del interior de la molécula de agua formen enlaces
de Van der Waals[2] especialmente fuertes, atrayendo los átomos
electronegativos de otras moléculas; es lo que se conoce como enlaces de
hidrógeno. La figura 12.1 muestra estos enlaces de hidrógeno con otras
moléculas de agua. Esta fuerza hace que el agua puede permanecer en formato
líquido a una temperatura mucho más elevada que lo que podrían hacerlo otras
moléculas pequeñas, como el metano, el dióxido de carbono o el amoniaco, que
se disocian en moléculas distintas en forma de gas cuando alcanzan la
temperatura debida. El agua existe en formato líquido en condiciones de presión
atmosférica normal y en un rango de temperatura excepcionalmente amplio, que
va desde los 0 a los 100 grados Celsius (de los 273 a los 373 grados Kelvin), el
rango ideal para que se produzcan reacciones bioquímicas y necesario para
reproducir y mantener la vida.
La capacidad de estas pequeñas moléculas de formar enlaces de hidrógeno
hace que el agua líquida sea además un potente solvente tanto para compuestos
iónicos, como las sales, como para aquellas moléculas orgánicas que presentan
también una distribución desigual de la carga eléctrica, como los aminoácidos,
que son tan fundamentales para las formas conocidas de vida que se los conoce
como los bloques constructivos de la vida.
Los enlaces de hidrógeno pueden ser más fuertes que los enlaces covalentes
que unen el único átomo de oxígeno a dos átomos de hidrógeno, rompiendo
estos últimos, de modo que dos moléculas de agua líquida formen un ion de
hidronio positivo, H3O+, y un ion de hidroxilo negativo, OH-.

H2O + H2O → H3O+ + OH-

En el agua líquida, estos iones son un buen conductor de electricidad.


Estas propiedades solventes y conductoras del agua la convierten en un buen
medio para el desarrollo de los procesos bioquímicos esenciales como, por
ejemplo, la disolución de nutrientes y el transporte de los mismos a través de
membranas semi-porosas en el interior de los organismos vivos y la disolución y
el transporte de los productos de desecho.
Los elementos esenciales para la conservación de la vida van desde
elementos ligeros como el hidrógeno, el oxígeno y el carbono, hasta elementos
pesados. El molibdeno, por ejemplo, colabora en la fijación del nitrógeno, una
reacción química en la que las moléculas de nitrógeno, que en general no son
reactivas, se transforman en compuestos de nitrógeno más reactivos, un paso
clave en el metabolismo de las plantas, que consiste en una serie de reacciones
bioquímicas interrelacionadas mediante las cuales las plantas obtienen la energía
y los nutrientes necesarios para sostener su existencia. Como que los animales
comen plantas, y el ser humano come plantas y animales, la fijación del
nitrógeno es un paso fundamental en la cadena metabólica tanto de los animales
como del ser humano.
Los elementos radiactivos, mucho más pesados, como el uranio y el torio,
generan calor mediante su desintegración radiactiva. Como veremos más
adelante, los geofísicos consideran que el calor generado por estos elementos
produce el movimiento de las placas tectónicas, y el consiguiente movimiento de
los continentes, que juega un papel importante en la evolución de la vida.

La masa del planeta

Cuantificar este factor es complicado porque depende de muchos factores


más, como la distancia con respecto a su estrella, la luminosidad de la misma, el
tamaño del planeta y, por consiguiente, su densidad.
En términos generales, si la masa de un planeta es excesivamente pequeña,
su campo gravitatorio no será lo suficiente fuerte como para retener los gases de
su atmósfera y los elementos volátiles, como el agua líquida, de su superficie.
Un planeta con poca masa se habrá enfriado con relativa rapidez desde su
formación y carecerá de la actividad tectónica que fomenta la evolución
biológica. Existe el consenso de que la masa de un planeta nunca debería ser
inferior a un tercio de la masa de la Tierra.[3]
El consenso es menos amplio en lo referente al límite máximo de masa. El
punto de vista convencional es que un planeta con una masa diez veces superior
a la de la Tierra capturaría una cantidad importante de gas de su disco nebular, lo
cual vendría seguido por un crecimiento desenfrenado de gas que sería
perjudicial para las formas de vida conocidas.[4] Por otro lado, el equipo de
definición de ciencia y tecnología del proyecto Terrestrial Planet Finder de la
NASA llegó a la conclusión de que una masa planetaria grande no es un factor
necesariamente influyente en la habitabilidad de un planeta.[5]

El rango de temperatura

La temperatura no debe ser tan elevada como para provocar la ruptura de los
enlaces de las moléculas orgánicas complejas, ni tan baja como para que las
reacciones bioquímicas esenciales se produzcan con excesiva lentitud, lo que
impediría la producción de más moléculas complejas y el mantenimiento de las
reacciones metabólicas esenciales. El biofísico Harold Morowitz estima un
rango de temperatura de 500º Celsius.[6] Sin embargo, puesto que los biólogos
consideran que el agua en estado líquido es esencial para la vida, el rango se
reduciría considerablemente. Bajo distintas presiones y otras circunstancias, el
agua en estado líquido es factible en un rango de temperatura que oscila entre los
0 y los 100º Celsius con una presión atmosférica normal.

Las fuentes de energía

Para producir la temperatura esencial para mantener la vida, un planeta debe


disponer de fuentes de energía. La principal fuente de energía en la superficie es
la energía electromagnética irradiada por la estrella del planeta. Antiguamente, la
estimación de la temperatura de la superficie de un planeta se calculaba
multiplicando la luminosidad de la estrella (energía irradiada por segundo) por la
distancia entre el planeta y la estrella. El rango de distancias que producía una
temperatura de superficie entre 0 y 100º Celsius se definía como la zona de
habitabilidad estelar.
Pero era un cálculo demasiado simplista. En primer lugar, objetos como las
nubes y el hielo reflectan una parte (lo que se conoce como el albedo) de la
radiación total que llega al planeta. En segundo lugar, la cantidad de energía que
alcanza la superficie de un planeta depende del tiempo que la superficie esté
encarada hacia la estrella, lo que a su vez depende del tiempo de rotación del
planeta sobre su eje; parte de esta energía solar que llega con longitudes de onda
visibles y calientan la superficie del planeta se irradia de nuevo hacia el frío cielo
nocturno en longitudes de onda térmicas superiores cuando el planeta no encara
la estrella. En tercer lugar, la cantidad de energía irradiada depende de los gases
de la atmósfera del planeta; así, gases como el dióxido de carbono, el vapor de
agua y el metano absorben esta energía térmica e irradian de nuevo parte de ella,
produciendo un efecto invernadero.
Además, podrían existir otras fuentes de energía, como el calor del interior
del planeta, que puede estar generado por la desintegración radiactiva o ser un
calor residual de los procesos de formación planetaria. El efecto directo que este
calor geotermal ejerce sobre la superficie es pequeño, pero genera actividad
volcánica, que a su vez suministra dióxido de carbono a la atmósfera del planeta
e incrementa el efecto invernadero.

La protección contra la radiación nociva y los impactos

No toda la radiación que emite una estrella sirve para fomentar las reacciones
bioquímicas esenciales. Por encima de determinadas intensidades, las
frecuencias de algunas radiaciones (la radiación ultravioleta, por ejemplo)
pueden dañar de forma irreparable los organismos, mientras que las llamaradas
solares —explosiones intensas de radiación electromagnética y electrones,
protones y otros iones de alta energía— pueden arrasar la atmósfera de un
planeta. Para que exista vida, la biosfera del planeta tiene que quedar protegida
de radiaciones nocivas de este tipo.
Por otro lado, la biosfera necesita estar protegida del impacto de cometas o
asteroides de tamaño capaz de destruir formas de vida complejas.

La estabilidad

Estas condiciones deben mantenerse estables durante un tiempo lo


suficientemente prolongado como para permitir que de las moléculas esenciales
surjan organismos sencillos que evolucionen en formas de vida tan complejas
como la del ser humano.
La formación de la Tierra y de su biosfera

Empezaré resumiendo lo que la ciencia nos dice sobre la Tierra y su biosfera


y a continuación examinaré las teorías que explican cómo se desarrollaron.

Características de la Tierra

La Tierra tiene una forma más o menos esférica, con una leve protuberancia
en el ecuador, y un diámetro medio de 12.700 kilómetros. Su masa es
aproximadamente de 6 x 1024 kilos y posee un potente campo magnético. Gira
alrededor de su estrella, el sol, en una órbita ligeramente elíptica que tiene una
duración de 365 días y cuarto, a una distancia media de 149 millones de
kilómetros. Rota cada 24 horas sobre su eje, que presenta una inclinación de 23,5
grados con respecto a la perpendicular al plano elíptico de la órbita, como se
muestra en la figura 12.2.

A una distancia media de 384.000 kilómetros de la Tierra orbita su único


satélite natural, la luna. Con un diámetro algo superior a una cuarta parte el de la
Tierra (y de casi de tres cuartas partes el diámetro del planeta Mercurio), la luna
es excepcionalmente grande en comparación con su planeta.

Estructura interna

La imposibilidad de acceder directamente a todo el interior de la Tierra,


combinada con las distintas interpretaciones de datos como los patrones de las
ondas sísmicas de los terremotos, hace que ciertas áreas de la geología sigan
siendo aún controvertidas. La figura 12.3 muestra el consenso actual sobre la
estructura interna de la Tierra.

Hidrosfera

Aproximadamente dos tercios de la superficie de la Tierra están cubiertos por


agua en forma de océanos, mares y ríos. La profundidad de esta hidrosfera oscila
entre 0 y 5 kilómetros.

Atmósfera

La capa gaseosa de la Tierra se extiende hasta 10.000 kilómetros por encima


de la superficie sólida y líquida, pero los primeros 65-80 kilómetros contienen el
99 por ciento de la masa total de la atmósfera de la Tierra. Por densidad, está
integrada aproximadamente por un 78 por ciento de nitrógeno, un 20 por ciento
de oxígeno, un 1 por ciento de argón y el restante 1 por ciento por una mezcla de
otros gases, incluyendo vapor de agua, cuya concentración aumenta con la
temperatura, y un 0,003 por ciento de dióxido de carbono; la capa de entre 19 y
50 kilómetros que se eleva por encima de la superficie contiene ozono, una
forma de oxígeno con tres átomos por molécula, en vez de dos.

Magnetosfera

En principio, un campo magnético se extiende indefinidamente. En la


práctica, el campo magnético de la Tierra produce efectos significativos hasta
decenas de miles de kilómetros de distancia de la superficie y se denomina
magnetosfera. Tal y como muestra la figura 12.4, el viento solar deforma la
forma habitualmente simétrica de un campo magnético.

Biosfera

La biosfera integra todos los entornos capaces de mantener la vida tal y como
la conocemos. Se trata de un caparazón fino que abarca entre 5 kilómetros por
debajo y 5 kilómetros por encima del nivel del mar y cubre parte de la litosfera,
la mayoría de la hidrosfera (la capa externa sólida de la Tierra) y parte de la
atmósfera.
Formación

Evidencias

Las evidencias de cómo se desarrollaron la Tierra y sus esferas externas son


difíciles de encontrar. En la superficie no quedan restos relacionados con la
formación del planeta: las rocas se han visto erosionadas por las condiciones
climatológicas, o han sufrido una metamorfosis como consecuencia del calor y la
presión, que han producido cambios estructurales y químicos, o se han fundido
por las altas temperaturas al verse empujadas hacia el interior por un proceso
conocido como subducción; la datación de las rocas superficiales es
controvertida, pero se considera que las más antiguas tienen alrededor de 3,8
miles de millones de años, es decir, son unos 700 millones de años más jóvenes
que la formación de la Tierra. La hidrosfera se ha recirculado continuamente a
través de la evaporación como vapor de agua seguido por precipitaciones en
forma de lluvia, granizo o nieve. Los procesos biológicos que examinaré más
adelante han transformado por completo la atmósfera.
Los científicos han desarrollado hipótesis sobre la formación de la Tierra
mediante inferencia: a partir de los estudios sobre las distintas etapas de la
formación estelar en otros lugares de nuestra galaxia; el examen de los
meteoritos que se consideran representativos de los planetesimales que,
agregados, formaron la Tierra; la datación de rocas y otros componentes de la
superficie de la Tierra y del magma expulsado de su interior; análisis
fisicoquímicos y datación de rocas de la luna y de Marte; y los datos obtenidos
con sondas en la mayoría de planetas de nuestro sistema solar.
La datación precisa es un elemento crítico para determinar los procesos
evolutivos. La datación comparativa, basada en observaciones de las estrellas en
diversas etapas de su evolución, combinada con los estudios de fusión nuclear,
suele utilizarse para explicar los cambios que ha experimentado el tamaño y la
luminosidad del sol con el paso del tiempo.
La datación radiométrica (conocida también como radioisotópica)
proporciona un método potente y preciso de datación absoluta de muestras,
siempre y cuando puedan determinarse ciertos parámetros. Por ejemplo,
mediante experimentación, los científicos han establecido la vida media del
carbono-14 en 5.730 años. Esto significa que en 5.730 años, la mitad de
cualquier cantidad de carbono-14 experimentará una desintegración radiactiva
que lo convertirá en nitrógeno-14 estable. Los científicos han establecido
también la proporción entre carbono-14 y carbono-12, un isótopo más común y
estable presente en los compuestos de carbono de origen natural. La
determinación de las distintas proporciones en una roca muestra qué cantidad de
carbono-14 se ha perdido como consecuencia de la desintegración radiactiva; un
simple cálculo determina el tiempo que ha durado este proceso y, en
consecuencia, la antigüedad de la muestra. Técnicas similares se emplean con
otros elementos radiactivos, como el uranio-238, con una vida media de 4,6
miles de millones de años, y el torio-232, con una vida media de 14 mil millones
de años.
Las hipótesis resultantes de estos datos obtenidos mediante observación y
experimentación, junto con los modelos realizados con ordenador, explican la
formación de la Tierra y sus esferas como sigue.

El planeta

La hipótesis general nebular esbozada en el capítulo 8[7] ofrece un relato


sobre la formación del planeta. En este caso en particular, hace
aproximadamente 4,6 miles de millones de años, la inmensa mayoría de un disco
en rotación de unos 24 mil millones de kilómetros de diámetro, giró en espiral
sobre su centro masivo de hidrógeno, incrementando con ello su densidad y su
temperatura hasta el punto en que el núcleo se encendió con una fusión nuclear
que acabó generando el sol.
La formación del disco no era perfecta. En aquellas condiciones turbulentas,
ciertas acumulaciones de material —básicamente hielo y polvo— siguieron
trazando órbitas muy excéntricas alrededor del sol formando ángulo con el
disco; es lo que acabó conociéndose como cometas.
Del material que quedó en el disco en rotación, el viento solar —iones y
electrones que salen proyectados del sol ardiente— empujó los gases ligeros de
hidrógeno y helio hacia las regiones exteriores y frías del disco, donde se
acumularon para formar nebulosas planetarias —no lo suficientemente calientes
ni densas como para fusionarse— que acabarían formando los cuatro planetas
gigantes gaseosos más exteriores.
Las moléculas más pesadas, formadas por hidrógeno combinado con otros
elementos —como las moléculas de metano (CH4), vapor de agua (H2O) y
sulfuro de hidrógeno (H2S)—, permanecieron en las regiones más interiores del
disco, donde granos de polvo, silicatos en su mayoría colisionaron, repeliéndose
en ocasiones y en otras adhiriéndose entre ellos. Los que se adhirieron formaron
granos algo más grandes con campos gravitatorios algo más fuertes que atrajeron
granos más ligeros y moléculas de gas. Se formaron grumos del tamaño de
guijarros que fueron creciendo hasta convertirse en planetesimales[8] de varios
kilómetros de diámetro. Las colisiones caóticas entre planetesimales acabaron
dividiendo algunos de ellos y fusionando a otros, produciendo, en este último
caso, cuerpos más grandes.
En la frontera entre la región interior y la exterior, allí donde los
planetesimales estaban muy distanciados entre sí y lo bastante alejados del
gigante gaseoso más próximo, Júpiter, como para no ser atraídos hacia su órbita,
esos objetos siguieron orbitando alrededor del sol en lo que se conoce como el
cinturón de asteroides.
Más cerca del sol, donde los planetesimales estaban mucho más próximos
ente sí, se produjeron más colisiones y, como consecuencia de ellas, cuatro
protoplanetas incrementaron su masa para acabar dominando el cinturón orbital
del disco. Cada uno de estos protoplanetas creció mediante un proceso violento
de acreción, durante el cual su campo gravitatorio, cada vez más potente, atrajo
con voracidad hacia su región a los planetesimales restantes. Estos
planetesimales chocaron contra el protoplaneta y se fusionaron con él, generando
mucho calor; esto, combinado con el calor generado por la desintegración
radiactiva de algunos de sus elementos —como el uranio y el torio—, más el
calor procedente de la transformación de la energía gravitatoria potencial
generada con la condensación de su materia gaseosa, más el calor del sol, fue
suficiente para fundir la mayor parte de cada protoplaneta. Cuando la inmensa
mayoría de los planetisimales quedo absorbida por el cinturón, la fase de
acreción tocó a su fin, probablemente entre 400 y 700 millones de años después
de que el sol se encendiera. Acababa de nacer un planeta rocoso fundido y con
una atmósfera con silicatos en estado gaseoso.[9] La Tierra, el tercero de estos
planetas en relación a su distancia con el sol, entró en su eón hádico (de Hades,
el infierno) de acreción hace aproximadamente 4,56 miles de millones de años y
emergió del mismo con su masa actual hace entre 4 y 3,9 miles de millones de
años.[10]

El núcleo de hierro

El calor generado por el bombardeo de planetesimales en la fase de acreción


de la Tierra fraccionó la mezcla fundida. Los elementos más pesados se
sumergieron hacia la parte central del planeta. El elemento preponderante, con
diferencia, era el hierro. Así pues, el núcleo del planeta estaba compuesto
principalmente por hierro, con algo de níquel, el siguiente elemento pesado en
abundancia. El análisis de meteoritos ricos en hierro, junto con las densidades
deducidas a partir de datos sísmicos, sustentan esta hipótesis.[11]
Cuando terminó el eón de acreción generadora de calor, el núcleo empezó a
enfriarse por el centro, que se solidificó bajo una intensa presión, mientras que la
parte exterior del núcleo siguió fundida.

El campo magnético

Las evidencias que proporcionan las rocas de la superficie indican que en los
últimos 330 millones de años, el campo magnético de la tierra se ha invertido
más de 400 veces, es decir, que el polo norte se ha intercambiado con el polo sur
y viceversa. El intervalo de tiempo entre estas inversiones varía oscila entre
menos de 100.000 años y decenas de millones de años; la última inversión se
produjo hace 780.000 años.
Durante el último siglo, el polo norte magnético se ha desplazado 1.100
kilómetros. Además, el seguimiento de desplazamientos anuales desde 1970
demuestra que este ritmo se está acelerando y que el polo se desplaza
actualmente más de 40 kilómetros anuales.[12]
Los científicos no comprenden cómo se formó el campo magnético. Una
mayoría de geocientíficos planetarios apoya la hipótesis de la dinamo, según la
cual el movimiento de un material conductor eléctrico en un campo magnético
existente refuerza el campo magnético original. En este caso, la rotación de la
Tierra habría hecho que el hierro líquido (un buen conductor eléctrico) de la
parte exterior del núcleo circulara alrededor del eje de rotación, generando con
ello un campo magnético con un polo norte en el polo norte geográfico y un polo
sur en el polo sur geográfico. Sin embargo, esto no explica por qué los polos
magnéticos se han invertido de un modo tan errático o por qué los polos se
trasladan a un ritmo acelerado; el científico atmosférico de la Pennsylvania State
University, James Kasting, sugiere que es debido a que la dinamo es un sistema
caótico.[13]
En 2009, Gregory Ryskin, profesor asociado de ingeniería química y
biológica de la Northwestern University, Illinois, presentó la controvertida
hipótesis de que las fluctuaciones en el campo magnético de la Tierra son
debidas a los movimientos de los océanos. La sal del agua de mar le permite
conducir electricidad, generando con ello campos eléctricos y magnéticos. En el
Atlántico Norte, los cambios en la fuerza de las corrientes oceánicas están
correlacionados con los campos en los campos magnéticos de Europa
Occidental.[14] Históricamente, los movimientos de la placa tectónica han
provocado cambios en la ruta de las corrientes oceánicas, que podrían haber
producido la inversión de los polos magnéticos.

La corteza, la litosfera y el manto

Al final de la fase de acreción de la Tierra, el calor del bombardeo se detuvo


y la superficie se enfrió a medida que el planeta fue rotando para alejarse del sol
e irradió su calor hacia el cielo nocturno.
Los silicatos, tanto los que estaban en forma de vapor como los fundidos en
forma líquida, se condensaron de tal modo que los silicatos más ligeros quedaron
depositados encima y los silicatos más ricos en elementos pesados quedaron
abajo. Los silicatos de la parte exterior, más ligeros, fueron los primeros en
enfriarse y solidificarse, formando la corteza rígida; a eso le siguió el
enfriamiento y solidificación de la capa superior del manto, la capa entre la
corteza y el núcleo externo. La mayor parte del manto conservó su calor, pero la
presión del material que tenía encima forzó su solidificación, aunque adoptando
una forma dúctil.
El enfriamiento uniforme provocado desde el exterior de una bola de material
fundido como aquella debería de haber originado capas lisas de profundidad
consistente en la corteza, en la capa superior del manto, etc. Pero en la corteza
observamos montañas, valles, volcanes y llanuras, separados entre sí por
inmensos y profundos océanos. Se plantearon diversas ideas para explicar esta
topografía. A finales del siglo XIX, los geólogos adoptaron la idea sugerida por
uno de sus representantes más ilustres, el austriaco Eduard Suess: cuando la
Tierra se enfrió, empezó a arrugarse, como una manzana al horno. A pesar de los
evidentes movimientos verticales, la visión de que los continentes y los océanos
eran características permanentes de la superficie de la Tierra se convirtió en la
teoría ortodoxa de la geología.
Inspirándose en las observaciones que indicaban que los continentes adoptan
la forma de piezas de un rompecabezas que en su día debieron de encajar, un
austriaco de treinta y dos años de edad llamado Alfred Wegener, propuso en
1912 una hipótesis alternativa a la que puso el nombre de deriva continental,
según la cual un súper- continente, Pangea, se rompió y sus distintas partes, los
continentes, fueron desplazándose hasta quedar separadas. La geología ortodoxa
rechazó la propuesta y la calificó de ridícula.
Wegener siguió trabajando su idea y en 1921 publicó una versión revisada y
ampliada de su libro para justificar la hipótesis. Incluía evidencias de estructuras
geológicas idénticas en la costa oriental de América del Sur y la costa Occidental
de África, junto con restos fósiles idénticos tanto de estos como de otros
continentes separados por grandes distancias. La ortodoxia ignoró o desdeñó las
evidencias geológicas; Wegener, al fin y al cabo, era un meteorólogo. Para
justificar las evidencias fósiles, recurrieron a la idea de puentes terrestres entre
continentes que habían desaparecido sin dejar rastro. Era evidente que la idea de
Wegener era absurda: ¿qué fuerza podía mover algo tan colosal como los
continentes?
En 1944, Arthur Holmes, un geólogo inglés, ofreció una explicación. El calor
generado por la desintegración radiactiva de los elementos del interior
proporcionaría la energía necesaria para romper y desplazar los continentes.
Exceptuando un pequeño número de defensores de la deriva continental, la
inmensa mayoría de geólogos se aferró a la línea ortodoxa y siguió considerando
la hipótesis una simple tontería fantasiosa.
Las evidencias fueron acumulándose con el paso de los años. Los
oceanógrafos descubrieron que la corteza oceánica era excepcionalmente joven,
con una edad media de 55 millones de años que no era nada en comparación con
la corteza continental, que tenía una edad media de 2,3 miles de millones de años
y presentaba rocas de incluso 3,8 miles de millones de años de antigüedad.
Descubrieron una serie de colosales cadenas montañosas, de más de 50.000
kilómetros de longitud, que se elevaban desde el fondo oceánico y serpenteaban
alrededor del globo terráqueo como la costura de una bola de béisbol. En las
cimas de estas cordilleras oceánicas era donde se localizaban las rocas más
jóvenes, que mostraban la misma polaridad magnética que observamos hoy en
día. A lado y lado, bandas de roca alternaban su polaridad magnética. Esta
alternancia era idéntica a la secuencia de inversiones magnéticas ya conocidas a
partir de los flujos de lava continental y se utilizó para realizar la datación de las
bandas de roca, lo que vino a demostrar que la edad de las rocas se incrementaba
a medida que se alejaban de la cima (véase figura 12.5). La secuencia temporal
de las inversiones magnéticas ofreció una base sólida a la idea de que el magma
del interior había sido empujado hacia arriba hasta superar la cima de una
cordillera oceánica y había partido en dos la corteza previamente existente,
alejándola lateralmente de la cordillera; al enfriarse, había dejado registrada la
polaridad magnética que tenía la Tierra en aquel momento.
Lawrence Morley, un geólogo canadiense, consiguió atar los distintos cabos
de las evidencias y ofrecer una explicación coherente de todos los datos, pero las
revistas científicas siguieron aferrándose al punto de vista ortodoxo y rechazaron
su documento en 1963. El Journal of Geophysical Research lo rechazó con el
argumento de que «no es el tipo de cosa que debería publicarse bajo un
patrocinio científico serio».[15]
Drummond Matthews, de la Universidad de Cambridge, y su alumno, Fred
Vine, tuvieron mejor suerte. Trabajando independientemente de Morley habían
llegado a la misma conclusión y el mismo año 1963, Nature publicó sus
descubrimientos. Vine y Matthews prescindieron del término «deriva
continental» porque era evidente que se había desplazado algo más que los
continentes. En 1968, su teoría recibió el título de «placas tectónicas», y en un
cambio de paradigma kuhniano, la inmensa mayoría de geólogos la adoptó
rápidamente como la nueva ortodoxia.[16]
La teoría sigue en desarrollo y algunos elementos de la misma continúan
siendo preguntas abiertas. Sin embargo, a diferencia del modelo ortodoxo de la
cosmología, este cualifica como teoría científica. Ha realizado retrodicciones
únicas, por ejemplo, en los hallazgos de fósiles idénticos de determinadas edades
y que han sido confirmados por la investigación; ha realizado predicciones
únicas, por ejemplo, con respecto a la localización de zonas sísmicas y
volcánicas y el movimiento de masas continentales, que han quedado
confirmadas por la observación.
Sirviéndose de las evidencias de campos tan diversos como la paleontología,
la oceanografía, la sismología y, más recientemente, los mapas del GEOSAT
(Geostationary Satellite), esta teoría unificadora explica actualmente los
fenómenos geológicos en términos de la formación, movimiento e interacción de
siete grandes bloques, y varios más pequeños, de la litosfera rígida, conocidos
como placas tectónicas, que flotan sobre la astenosfera (véase figura 12.6).
La placa del Pacífico, por ejemplo, está pulverizando la placa norteamericana
a un ritmo medio de cinco centímetros anuales; lo cual produce la falla de San
Andrés, de unos 1.300 kilómetros de longitud y, en determinados puntos, de
decenas de kilómetros de anchura, que recorre dos tercios de la longitud de
California.[17]
A pesar de que no existen evidencias directas, la mayoría de geólogos
considera que la fuerza que empuja las placas es el lento movimiento del manto,
caliente y dúctil, que se extiende debajo de las placas rígidas. Calentado
principalmente por la desintegración radiactiva de elementos como el uranio y el
torio, se cree que el manto se mueve en corrientes de convección circulares,
como muestra la figura 12.7.
Los fenómenos geológicos están causados por la colisión entre placas. La
figura 12.8 ilustra la lenta colisión de una placa oceánica contra una placa
continental.

Por ejemplo, en la placa oceánica de Nazca, el magma caliente del interior se


ve forzado hacia el exterior a través de una falla para crear una cordillera
montañosa sub-oceánica y empujar la placa lateralmente. La parte occidental de
esta placa colisiona lentamente contra la parte oriental de la placa continental
sudamericana. Con ello, se ve empujada bajo la placa sudamericana, en un
proceso denominado «subducción», desapareciendo bajo la trinchera Perú-Chile,
situada en el extremo occidental del océano, y en el interior del manto, donde el
calor la funde. Al verse empujada bajo de la placa sudamericana, fuerza a dicha
placa a crear la cordillera de los Andes, la columna vertebral del continente, y la
placa debilitada crea una zona donde son comunes terremotos potentes y
destructivos y la aparición geológicamente veloz de cadenas montañosas.
En consecuencia, la corteza oceánica es joven porque se ve reciclada
continuamente reciclada a lo largo de su vida geológica y en el proceso, su
sección más antigua se ve forzada a sumergirse bajo una placa continental,
donde acaba fundiéndose, para quedar sustituida por la roca fundida interior que
emerge a través de una falla y adopta la forma de cima de una cordillera
oceánica.[18]
La teoría ortodoxa actual de la geología ofrece una explicación, sustentada
por evidencias, de la litosfera y su evolución desde que la súper-placa de Pangea
se rompió hace entre 225 y 200 millones de años. En cuanto a cómo se formó
Pangea, se defiende la idea de que no es más que la fase más reciente de un ciclo
que consiste en la formación de un súper-continente, ruptura del mismo,
formación y ruptura, que se inició hace más de tres mil millones de años.
Lo cual deja todavía abierta la pregunta de cuál era la forma original de la
corteza y la litosfera. La medición de los pulsos láser enviados al retro-reflector
instalado en la luna por los astronautas del Apolo XI en 1969, muestra que la
luna se aleja de la Tierra a un ritmo de 3,8 centímetros anuales.[19] Lo cual
sugiere que hace 4,5 miles de millones de años la luna estaba mucho más cerca
de la Tierra. El campo gravitatorio mucho más potente de una luna mucho más
cercana podría haber unido los silicatos más ligeros cuando se condensaron para
formar el primer súper-continente alrededor del ecuador. Sin embargo, a falta de
evidencias que hayan podido llegar hasta nosotros, estas ideas se quedan en
simples especulaciones.
He dedicado bastante espacio a la teoría de las placas tectónicas porque,
como veremos más adelante, una mayoría de científicos considera que el
movimiento de estas placas, y en particular el movimiento de las masas
continentales asociado al mismo, juega un papel vital en la evolución biológica.

Hidrosfera y atmósfera

No ha llegado hasta nosotros ninguna evidencia que nos muestre qué


atmósfera sustituyó a los vapores de silicatos cuando el bombardeo planetesimal
terminó y la superficie se enfrió. En 2001, Stephen Mojzsis y sus colegas,
basándose en el análisis de minúsculos cristales de zircón encontrados en el
interior de rocas de las Jack Hills, en el oeste de Australia, declararon que el
agua en estado líquido ya estaba presente hace 4,3 miles de millones de años,
unos 200 millones de años antes de que se formara el planeta.[20] En 2005, dos
científicos geólogos, E. B. Watson, del Rensselaer Polytechnic Institute, Troy,
Nueva York, y T. M. Harrison, de la Australian National University, Camberra,
utilizaron también el análisis del zircón para proponer una fecha aún más
antigua, 4,35 miles de millones de años.[21] Antes de estas propuestas, el
metamorfismo provocado por el calor y la presión sobre las rocas sedimentarias
más antiguas de la Tierra, habían dado a entender que el agua líquida empezó a
existir sobre la superficie de la Tierra hace aproximadamente 3,8 miles de
millones de años.[22]
La formación de la hidrosfera y la atmósfera lleva tiempo siendo un tema de
controversia. En la década de 1950 y 1960, los geólogos se apuntaron al punto
de vista de William Rubey, que defendía que durante la formación de la Tierra
habían quedado gases volátiles en su interior que posteriormente habían sido
liberados a través de fumarolas volcánicas, un proceso conocido como
desgasificación, y habían generado de este modo los océanos y los gases
atmosféricos.[23]
Los miembros de la disciplina emergente de la ciencia planetaria eran de la
opinión de que la zona orbital de la proto-Tierra estaba demasiado próxima al sol
y que, por lo tanto, el calor era excesivo para que los planetesimales a partir de
los cuales se había formado contuviesen gases volátiles. Defendían la idea de
que el gran volumen de agua de la superficie de la Tierra provenía del exterior.
Los océanos contienen aproximadamente mil trillones (1021) de kilos de agua.
Un cometa contiene tal vez mil billones (1015) kilos de hielo; por consiguiente,
para producir los océanos se necesitaría que solo un millón de cometas (106)
chocara contra la Tierra y que su hielo se deshiciera con el calor generado por el
impacto.[24]
Esta idea estaba sustentada por algunos modelos de acreción planetaria
obtenidos mediante ordenados que mostraban la Tierra primitiva bombardeada
no solo por los detritos de su zona orbital sino también por planetesimales
muchos más alejados del sol y por cometas. La hipótesis del hielo de los cometas
acabó convirtiéndose en la explicación ortodoxa de los océanos de la Tierra.
Sin embargo, sondeos llevados a cabo en 2000 en los planetas Halley,
Hyakutake y Hale-Bopp mostraron que el hielo de estos cometas contiene el
doble de deuterio (un isótopo del hidrógeno) que de hidrógeno que el agua de los
océanos de la Tierra. Lo cual parece descartar la hipótesis de los cometas. Pero
uno de sus defensores, Michael Mumma, científico de la NASA especializado en
cometas, se mantiene impertérrito. Sostiene que estos cometas no son de la
región adecuada del sistema solar y que los cometas de la región joviana
mostrarán la proporción correcta. La cuestión sigue, por lo tanto, pendiente de
verificación.
Una hipótesis alternativa que afirma explicar la proporción entre deuterio e
hidrógeno propone que el grueso del agua que existe hoy en la Tierra procede de
varios embriones planetarios de gran tamaño que se formaron en la parte exterior
del cinturón de asteroides y que fueron acrecidos por la Tierra en su fase final de
formación.[25]
En cuanto a la atmósfera primitiva, sabemos que en la actualidad los
volcanes liberan gases del manto. Estos gases podrían haber sido reciclados de
rocas superficiales subducidas: cuando la creta y la caliza, por ejemplo, se vieron
empujadas hacia el manto, el calor disociaría su carbonato de calcio para
producir dióxido de carbono. Pero la concentración relativa de los gases nobles
inertes en los gases volcánicos es aproximadamente la misma que encontramos
en la atmósfera. Lo cual sugiere que gases como el sulfuro de hidrógeno, el
dióxido de azufre, el dióxido de carbono, el vapor de agua, el nitrógeno y el
amoniaco quedaron atrapados en el interior durante la formación planetaria o
bien fueron liberados en el interior por la disociación de moléculas compuestas,
como el carbonato cálcico, debido al fuerte calor. Cuando la superficie se enfrió,
los gases escaparon a través de las fumarolas creadas en la litosfera por las
fallas. En una atmósfera tan primitiva como esta, no habría habido presencia ni
de oxígeno libre ni de ozono.
Este proceso podría ser también el responsable de la hidrosfera: con la
continuación del enfriamiento, el vapor de agua desgasificado se condensó en
forma de agua líquida en tormentas violentas para acabar formando los ríos y los
océanos.
De todos modos, sin evidencias directas, todas estas ideas siguen siendo
hipótesis.

La luna

Tres especulaciones compitieron durante muchos años para explicar cómo la


Tierra acabó teniendo una luna tan excepcionalmente grande. La primera de ellas
decía que era simple coincidencia que, como consecuencia de la acreción, se
formara y aumentara de tamaño cerca de la proto-Tierra un gran planetesimal. La
segunda decía que el campo gravitatorio de la Tierra atrajo un gran planetesimal
que pasaba por las proximidades y lo atrapó en su órbita. Una tercera
argumentaba que una masa de gran tamaño salió proyectada de la proto-Tierra
fundida en rotación y se condensó para formar la luna.
Análisis fisicoquímicos y radiométricos que dataron las muestras de rocas
lunares recogidas por los astronautas del proyecto Apolo durante la década de
1970, proporcionaron las primeras evidencias directas, que resultaron
inconsistentes con las tres especulaciones. Revelaron, entre otras cosas, que las
rocas lunares eran más típicas del manto de la Tierra que de meteoritos
primitivos (y, en consecuencia, de planetesimales), que eran tremendamente
pobres en elementos más volátiles que el potasio en comparación con el manto
de la Tierra, que tenían muy poco hierro y que las rocas de la superficie lunar de
más edad —de entre 4,4 y 4,5 miles de millones de años— eran más antiguas
que las rocas de la superficie terrestre.[26]
En 1975, las evidencias llevaron a dos grupos de científicos a formular la
hipótesis del impacto gigante, para cuyo desarrollo necesitaron diez años de
simulaciones por ordenador. Según esta hipótesis, un gigantesco planetesimal,
del tamaño aproximado de Marte, impactó contra la proto-Tierra y la fundió.
Con el calor de la colisión, ambos núcleos de hierro fundido se adhirieron como
dos gotas de agua y se sumergieron hacia el centro de la proto-Tierra, mientras
que el impacto proyectó cerca del 70 por ciento del material de la superficie
hacia el espacio, donde quedó atrapado por el campo gravitatorio de la nueva
proto-Tierra, ahora de mayor tamaño. Muy rápidamente, tal vez en tan solo un
año, los desechos fundidos se agregaron bajo sus propios campos gravitatorios y
se condensaron para formar la luna.[27]
Esta hipótesis explicaría no solo el tamaño anormalmente grande de la luna
en comparación con su planeta padre, además de la composición química y la
baja densidad de la luna, sino también por qué la Tierra es el planeta más denso
del sistema solar, por qué posee un núcleo de hierro que, por lo que podemos
deducir a partir de las evidencias, es proporcionalmente más grande que el de los
demás planetas rocosos de tamaño comparable (Venus y Marte), y también por
qué la Tierra posee una corteza más fina que las de esos dos planetas.
A pesar de que quedan aún preguntas por responder, la hipótesis del impacto
gigante ha pasado a ser la ortodoxia científica.

La biosfera
Al principio del capítulo he presentado seis condiciones consideradas
necesarias para la aparición y la evolución de la vida tal y como la conocemos.
El relato actual de la ciencia de cómo estas condiciones formaron la biosfera de
la Tierra es el siguiente:

a) Los elementos y las moléculas esenciales


La hipótesis estelar nebular explica la presencia de los elementos
esenciales, mientras que distintas hipótesis, principalmente la del
bombardeo de cometas ricos en agua y/o asteroides y/o protoplanetas
durante el eón hádico, sugieren explicaciones sobre el por qué la Tierra
posee un volumen tan grande de agua en su superficie.
Científicos planetarios sugieren que una proporción destacada de las
moléculas orgánicas presentes en los cometas y los meteoritos
sobrevivieron intactas cuando estos objetos impactaron contra la superficie
de la Tierra y que fue así como las primeras acumulaciones de agua
acabaron sembradas con componentes organicos.[28] Puesto que sabemos
que en cometas y asteroides se formaron moléculas orgánicas tan
complejas como los aminoácidos,[29] me parece factible que se formaran
también de manera independiente en la Tierra; carecemos de evidencias
porque no ha llegado hasta nosotros ningún vestigio de la superficie
original de la Tierra, mientras que, por otro lado, se cree que los cometas y
los asteroides han permanecido en gran parte inalterables desde su
formación.
b) La masa del planeta
Por mucho que la hipótesis nebular explique la formación de gases
gigantes en el disco exterior, demasiado grandes como para poder albergar
vida en su superficie, y la formación de planetas rocosos en el disco
interior, no explica por qué la Tierra creció hasta alcanzar una masa capaz
de soportar vida mientras otro planeta rocoso, Mercurio, acabó siendo tan
pequeño, con solo 0,055 ese tamaño. Simulaciones de la formación
planetaria terrestre realizadas mediante ordenador y dirigidas en 2004 por
Sean Raymond, de la Universidad de Colorado, dan a entender que el
tamaño planetario es una característica aleatoria del proceso de acreción.
c) La protección contra la radiación nociva y los impactos
La atmósfera y su potente campo magnético proporcionaron a la Tierra
la protección necesaria contra la radiación. La magnetosfera bloqueó la
radiación ionizante del sol, tal y como ilustra la figura 12.4. La Tierra
primitiva no tenía la protección que actualmente proporciona la capa de
ozono de la atmósfera contra cualquier radiación ultravioleta de alta
intensidad, fatal para las formas de vida superiores que evolucionaron
posteriormente.
El campo gravitatorio del gigante gaseoso, Júpiter, que multiplica por
más de trescientos la masa de la Tierra y quintuplica su distancia del sol,
protege a la Tierra y a otros planetas interiores del impacto de la mayoría
de los planetas. George Wetherill, director emérito del departamento de
Magnetismo terrestre del Carnegie Institute, estimó que sin la masa y la
localización de Júpiter, la Tierra recibiría entre mil y diez mil veces más
impactos de cometas de los que pueda recibir ahora.[30]
d) Las fuentes de energía
Las cuatro fuentes disponibles para generar los procesos bioquímicos
esenciales fueron las siguientes: la conversión en energía calorífica de la
energía cinética de los planetesimales al impactar contra la superficie de la
Tierra; la conversión en energía calorífica de la energía gravitatoria
potencial cuando la materia fundida gravitó hacia el centro de la Tierra; la
energía generada por la desintegración radiactiva de elementos como el
uranio y el torio; y la energía irradiada por el sol.
e) El rango de temperatura
La temperatura en la superficie de la Tierra, o cerca de ella, fue el
resultado de cuatro fuentes de energía. La radiación solar es lo que
básicamente controla su rango a largo plazo y dicha radiación depende de
cinco factores.
En primer lugar, de la cantidad de energía emitida por el sol (su
luminosidad).
En segundo, de la distancia entre la Tierra y el sol, que varía entre 147
y 152 millones de kilómetros debido a la forma elíptica de su órbita a lo
largo de su viaje de 365,25 días alrededor del sol.
En tercer lugar, de la variación del albedo, el porcentaje de radiación
solar que refleja una superficie con respecto a la radiación que incide sobre
la misma: las finas nubes estratos tienen un albedo escaso, mientras que los
gruesos estratocúmulos tienen un albedo de hasta el 80 por ciento, la nieve
recién caída lo tiene de entre el 40 y el 70 por ciento y la arena seca, de
entre el 35 y el 40 por ciento; el albedo medio actual de la Tierra se sitúa
en torno al 35 por ciento. Pero no sabemos cuál era durante los primeros
dos mil millones de años de existencia de la Tierra.
En cuarto lugar, depende de la energía solar que alcanza la superficie,
parte de la cual es absorbida y luego irradiada como calor con longitudes
de onda más largas, y ello depende del tiempo que la superficie está en
contacto con el frío cielo nocturno, lo que a su vez depende de las 24 horas
de rotación de la Tierra sobre su eje y, en lugares muy concretos, de la
latitud y de la inclinación de 23,5º del eje de la Tierra.
Y en quinto lugar, hay que tener en cuenta que parte de esta energía
calorífica irradiada es reflectada de nuevo y calienta la superficie, lo cual
depende de los gases que constituyen la atmósfera. En la actualidad, el
dióxido de carbono representa el 0,003 por ciento de la atmósfera y es el
principal responsable de reflectar la cantidad suficiente de esta energía
irradiada para producir un leve efecto invernadero.
El conjunto de estos cinco factores produce una temperatura biosférica
que oscila entre -50º y +50º Celsius, dependiendo de la época del año, la
localización y la distancia de la superficie, mientras que la temperatura
media de la superficie oceánica es de 15º Celsius.[31] Por lo tanto, durante
la mayor parte del año, los lugares situados justo por debajo o por encima
de la superficie de la Tierra presentan una temperatura adecuada para las
reacciones bioquímicas que fomentan y mantienen la vida tal y como la
conocemos.
f) La estabilidad
La última condición, la estabilidad, exige básicamente que la biosfera
tenga una temperatura que se mantenga dentro del rango que permite la
existencia sobre la superficie del planeta del agua en forma líquida, y que
esta superficie que quede protegida de las radiaciones nocivas y de los
impactos el tiempo suficiente para que las formas de vida primitiva
emerjan y evolucionen hacia formas más complejas que acaben
evolucionando en el ser humano. Que esta estabilidad se haya conseguido
en la biosfera de la Tierra durante aproximadamente cuatro mil millones de
años se atribuye a diversos factores.
Los modelos de formación planetaria realizados mediante ordenador
muestran que, una vez formados, los planetas principales mantienen una
órbita generalmente estable alrededor del sol gracias, principalmente, a la
conservación del momento angular.
Sin embargo, esto por sí mismo no produciría un rango de temperatura
biosférica estable, porque se cree que el sol primitivo era
considerablemente más tenue y más frío de lo que lo es ahora. Partiendo de
estudios sobre la formación estelar y sobre las distintas fases de la
evolución estelar en otras partes de nuestra galaxia, y de estudios sobre los
procesos de fusión nuclear solar que generan energía, los cálculos indican
que al principio del eón arcaico de la Tierra, hace 3,8 miles de millones de
años, el sol irradiaba un 25 por ciento menos de energía que en la
actualidad. Siendo iguales que ahora todos los demás factores, la superficie
de la tierra sería entonces de -18º Celsius:[32] toda el agua sería hielo y no
existiría el agua líquida necesaria para los procesos bioquímicos esenciales
para reproducir y conservar la vida.
La explicación de la existencia y la evolución de la vida en este eón
exige la presencia de fuentes adicionales de energía para calentar la
biosfera. Dichas fuentes podrían ser el calor residual del proceso de
formación planetaria, el calor emitido por la desintegración radiactiva de
los elementos del interior o el calor irradiado reflectado por atmósfera de
la Tierra que habría aumentado el efecto invernadero.
Desconocemos la composición de la atmósfera del eón arcaico pero,
puesto que la atmósfera de la Tierra en el momento de su formación, hace
4,5 miles de millones de años, era claramente distinta del 78 por ciento de
nitrógeno y el 21 por ciento de oxígeno actuales (véase sección anterior,
«Hidrosfera y atmósfera»), es razonable deducir que hace 3,8 miles de
millones de años era más parecida a la primitiva. Una proporción mayor de
gases de efecto invernadero, como el dióxido de carbono y el metano,
podrían haber calentado la biosfera lo suficiente como para que existiera
agua líquida. Sin embargo, si aquella atmósfera distinta hubiera tenido un
albedo distinto, habría que tener también en cuenta este factor en cualquier
cálculo.
Además, si una atmósfera distinta produjo un efecto invernadero mayor
que facilitó la existencia de agua líquida en la Tierra durante un eón en el
que el sol irradiaba un 25 por ciento menos de energía, se necesitaría una
reducción muy precisa del efecto invernadero cuando la energía irradiada
por el sol fuera aumentando a lo largo de cuatro mil millones de años.
Se han presentado diversas ideas para explicar este fenómeno,
incluyendo entre ellas la hipótesis de Gaia, que fue propuesta por el
científico independiente británico, James Lovelock, en la década de 1960,
y que defiende la regulación mediante la retroalimentación biótica. Por
ejemplo, las bacterias que realizan la fotosíntesis en los océanos y
absorben el dióxido de carbono de la atmósfera florecen a medida que la
luz del sol y la temperatura aumentan, reduciendo con ello el efecto
invernadero; cuando la temperatura baja, su ritmo de crecimiento baja
también, dejando más dióxido de carbono en la atmósfera e incrementando
con ello el efecto invernadero y la temperatura de la superficie. La
hipótesis recibió el soporte empírico de los análisis químicos de grandes
núcleos de hielo a los que se ha accedido mediante perforaciones del
manto de hielo de la Antartida.[33]
Kasting, sin embargo, argumenta que un mecanismo de
retroalimentación biótica no puede ser el principal regulador de la
temperatura, sobre todo porque la biosfera viva no es un depósito de
carbono lo bastante grande para ello. Defiende que la regulación más
importante a largo plazo de la temperatura de la superficie por el efecto
invernadero es la retroalimentación negativa entre el dióxido de carbono
de la atmósfera y la temperatura de la superficie a través de lo que se
conoce como ciclo carbonato-silicato. El dióxido de carbono se disuelve en
el agua de lluvia y erosiona las rocas que contienen silicatos. Los ríos
transportan los productos hacia los océanos, donde acaban formando una
placa tectónica oceánica que se desliza bajo una placa continental, y el
dióxido de carbono vuelve a ser liberado hacia la atmósfera a través de los
volcanes.[34]
Independientemente de cuál sea la explicación correcta, es evidente que
uno, o más probablemente, varios mecanismos de retroalimentación han
regulado un rango de temperatura biosférica estable.
Dentro de este rango, la temperatura varía de una hora del día a otra, de
un punto en la superficie a otro, de una distancia de la superficie a otra y
de un periodo del año solar a otro. Estas variaciones de temperatura
generan patrones climatológicos en las distintas zonas que cambian tanto a
diario como estacionalmente. Estos patrones, además, han variado también
con los cambios de inclinación del eje de la Tierra y de la elipse que traza
su órbita, mientras que, por otro lado, la radiación solar se ha incrementado
y la composición de la atmósfera de la Tierra ha cambiado
dramáticamente, generando cambios climáticos a lo largo de periodos de
decenas de miles de años.
La biosfera de la Tierra es un sistema que se mantiene en estado
estable, aunque lejos del equilibrio termodinámico, unos cuatro mil
millones de años.

¿Es especial la Tierra?

El punto de vista ortodoxo

Desde que Galileo utilizó un telescopio para demostrar la hipótesis de


Copérnico de que la Tierra no era el centro del universo y de que la Tierra y los
demás planetas giraban en órbita alrededor del sol, los científicos han asumido
que la Tierra no es especial.
Los instrumentos cada vez más sofisticados han cambiado nuestra visión de
lo que integra el universo hasta el punto que, hoy en día, la postura ortodoxa es
que la Tierra no es más que un planeta normal que orbita alrededor de una
estrella de secuencia principal normal, que traza una órbita normal alrededor del
centro de una galaxia normal compuesta por varios centenares de miles de
millones de estrellas, que forma parte de un grupo local de un cúmulo de
galaxias normal en órbita alrededor del centro de un supercúmulo de galaxias
normal, que forma parte de un universo observable que está integrado por un
centenar de miles de millones o más de galaxias, que a su vez forma parte de un
universo que en gran parte queda más allá del horizonte visible. Los cosmólogos
ortodoxos creen que incluso este universo no es más que una parte microscópica
de un universo inflado.
Resulta difícil degradar la Tierra a un lugar de menor importancia en el
cosmos que este.
La opinión sostenida con firmeza de que la Tierra no es especial, combinada
con el conocimiento de que alberga vida inteligente, llevó en 1961 al radio-
astrónomo Frank Drake a estimar el número de civilizaciones inteligentes que
podía haber en nuestra propia galaxia. Concibió para ello una ecuación que
multiplica siete parámetros. El valor que otorgó al primero de ellos, el ritmo de
formación de estrellas adecuadas para el desarrollo de vida inteligente, era una
estimación pura y dura, por no decir simplista; los valores de los demás
parámetros eran suposiciones basadas en la extrapolación de los puntos de vista
de la época sobre el único ejemplo conocido, la Tierra. Multiplicando estos
valores se obtenía que en nuestra galaxia había diez civilizaciones detectables
por su emisión de señales de televisión y radio. A pesar de que la cifra era
resultado de una serie de suposiciones, más que de estimaciones basadas en
evidencias, la palabra «ecuación» le otorgó un aura de respetabilidad científica.
La «ecuación de Drake», como se la conoce en la actualidad, generó enorme
excitación y dio pie a la puesta en marcha del programa SETI (Search for
Extraterrestrial Intelligence) [Búsqueda de Inteligencia Extraterrestre], que fue
adoptado por la NASA y estuvo subvencionado durante un tiempo por el
Congreso de los Estados Unidos.[35]
Más de cincuenta años de búsqueda de lugares probables no han aportado
pruebas de otra forma de vida inteligente. Otras búsquedas han fracasado
también hasta el momento y no han encontrado evidencias de otras formas de
vida, por primitivas que sean, ni en nuestro sistema solar ni en otras partes.
No obstante, la postura ortodoxa actual fue resumida en 2004 por el entonces
presidente de la Royal Astronomical Society, Michael Rowan-Robinson, en la
edición que se publicó aquel año de su libro Cosmology:

Resulta evidente que en la era post-copérnicana de la historia de la humanidad, ninguna persona


racional y bien informada puede imaginar que la Tierra ocupa un lugar único en el universo. A este
profundo descubrimiento filosófico lo denominaremos el «Principio copernicano».[36]

Evidencias que cuestionan el punto de vista ortodoxo

Las evidencias que sustentaban que la Tierra, si no única, sí podría ser el


resultado de una concurrencia especial de factores que permitió la aparición y
evolución de la vida compleja que conocemos, empezaron a acumularse muchos
años antes que el libro de Rowan-Robinson.

Zona galáctica habitable

El factor propuesto más recientemente es el de la localización de la Tierra en


la zona galáctica habitable. La idea fue avanzada en 2000 por dos científicos de
la Universidad de Washington, el paleontólogo y profesor de Biología y de
Ciencias del espacio y de la Tierra, Peter Ward, y el profesor de Astronomía,
Don Brownlee,[37] y desarrollada por ellos y otros científicos, destacando entre
ellos Guillermo Gonzalez, antiguamente en la Universidad de Washington y
actualmente en la Ball State Unievrsity, Indiana.[38]
Basándose en estudios de nubes moleculares gigantes y de formación estelar
en distintas partes de la Via Lactea, junto con la actividad de la radiación, esta
hipótesis aplica a la galaxia el concepto de la zona circunestelar habitable.
Propone que existen muy pocas zonas donde puede evolucionar la vida compleja
y que estas zonas cambian con el tiempo.
Las regiones exteriores de la galaxia no tienen elementos y moléculas
esenciales en la cantidad necesaria para permitir la formación de planetas
rocosos con los ingredientes imprescindibles para la vida. Estos elementos sí
están presentes cerca del centro de la galaxia, pero las interacciones gravitatorias
caóticas que tienen lugar en esa concentración de estrellas generan condiciones
excesivamente inestables para una biosfera planetaria. Además, durante los
miles de millones de años necesarios para que evolucione la vida compleja
basada en el carbono, las estrellas y los sistemas planetarios podrían recibir
impactos mortales de radiación, bien procedente de explosiones de supernovas,
bien de la materia previa absorbida por el agujero negro gigante que se cree que
ocupa el núcleo galáctico. Esta región de radiación letal se ha encogido con el
tiempo, probablemente porque estas explosiones eran más habituales en la
primera fase de la galaxia.
Los brazos de la espiral de nuestra galaxia también son adversas para la vida.
Son regiones de formación activa de estrellas donde las nubes moleculares
gigantes se condensan caóticamente para producir estrellas. La radiación
energética ultravioleta de las estrellas jóvenes de gran tamaño evapora los discos
de gas y polvo de su alrededor antes de que pueda iniciarse la formación
planetaria mientras que, por otro lado, estas estrellas grandes terminan su vida
con relativa rapidez con explosiones de supernovas.
Las únicas zonas donde se dan las condiciones adecuadas y la estabilidad
suficiente para la evolución biológica se sitúan entre los brazos de la espiral en el
plano del disco galáctico, allí donde se encuentra actualmente nuestro sistema
solar, a medio camino entre el centro galáctico y el extremo exterior visible del
disco. El hecho de que las estrellas de estas zonas orbiten el centro galáctico,
pero no necesariamente en el mismo plano o a la misma velocidad que los brazos
de la espiral, dificulta la tarea de evaluar dónde se encuentran estas zonas.
Nikos Prantzos, del Institut d’Astrophysique de París, ha criticado la
hipótesis calificándola de imprecisa y no cuantificada. Hemos visto que las
cuantificaciones iniciales de la hipótesis de la zona circunestelar habitable eran
excesivamente simplistas y no tenían en cuenta los muchos factores que
determinan la temperatura de la superficie planetaria.[39] A escala galáctica,
muchos de los determinantes son aún grandes desconocidos y cuantificarlos
queda actualmente más allá del alcance de los astrofísicos. Hay que decir, para
ser justos, que sus defensores han dejado claro que la hipótesis está en fase de
desarrollo. Pero, de todos modos, la propuesta básica parece sensata: las zonas
que ofrecen las seis condiciones para la aparición y la evolución de la vida
compleja tal y como la conocemos constituyen solo una pequeña parte de nuestra
galaxia, y la localización física de estas zonas cambia con el tiempo a medida
que la galaxia evoluciona.
La Tierra lleva 4,5 miles de millones de años en una zona así y, por lo tanto,
no puede considerarse simplemente como un planeta típica que orbita una
estrella de secuencia principal típica que traza una órbita típica alrededor del
centro de una galaxia típica.

Idoneidad de la estrella

El hecho de que un sistema estelar se encuentre en una zona galáctica


habitable, no significa que la estrella sea idónea para la aparición y la evolución
de vida con base de carbono. Las estrellas se clasifican mediante una letra —O,
B, A, F, G, K, o M—, que las ordena de grandes a pequeñas. Dentro de cada una
de estas categorías, se subdividen por número. Nuestro sol es una estrella G2.
Solo entre el dos y el cinco por ciento de todas las estrellas son tan grandes
como el sol. Un planeta que orbite una estrella menor que una K5 sufrirá
seguramente lo que se conoce como acoplamiento de marea, es decir, que
siempre estará encarada del mismo lado hacia la estrella; en consecuencia, es
muy probable que el lado encarado a la estrella sea demasiado caliente, y el lado
oscuro demasiado frío, para permitir la evolución de vida compleja. Tampoco es
probable que evolucione vida compleja en un planeta que orbite una estrella
mayor que una F0, puesto que el tiempo de vida en la secuencia principal de las
estrellas grandes es relativamente corto y estas estrellas emiten grandes
cantidades de radiación ultravioleta nociva.
Lo cual nos deja con un veinte por ciento de las estrellas en la secuencia
principal con un tamaño idóneo. Sin embargo, unos dos tercios de la totalidad de
las estrellas existen en sistemas estelares binarios o multiples.[40] Un sistema
estelar binario, sobre todo cuando las dos estrellas están muy cerca la una de la
otra, no es favorable para la vida: cualquier planeta tendría a buen seguro una
órbita extremadamente elíptica y la temperatura de su superficie cambiaría de
caliente a fría de forma tan extrema, que la vida sería imposible en un solo giro
alrededor de las dos estrellas.

Zona circunestelar habitable

En aquellas estrellas idóneas que se mantienen el tiempo suficiente en una


zona galáctica habitable, la vida tal y como la conocemos solo podrá aparecer y
evolucionar cuando la estrella tenga uno o más planetas que se mantengan el
tiempo suficiente en una zona en que la temperatura de la superficie del planeta
permita la existencia de agua en estado líquido, es decir, en lo que se conoce
como una zona circunestelar habitable. Como ya hemos visto, los primeros
intentos de definición de una zona de este estilo fueron excesivamente
simplistas.
En 1993, James Kasting, el científico atmosférico considerado la autoridad
puntera en habitabilidad planetaria, junto con Daniel Whitmire y Ray Reynolds,
realizó un intento más sofisticado. Su modelo climático unidimensional tiene en
cuenta la energía solar reflectada (el efecto albedo) y el efecto invernadero,
además de otros factores, pero no considera el efecto del periodo rotacional del
planeta sobre la cantidad de energía solar que recibe la superficie y
posteriormente irradia.[41] A pesar de que supone un avance considerable con
respecto a modelos anteriores, los supuestos y aproximaciones no hicieron más
que subrayar las dificultades que conlleva cuantificar los sistemas complejos e
interactivos que implican los procesos de retroalimentación climática. El equipo
de definición de ciencia y tecnología del proyecto Terrestrial Planet Finder de la
NASA llegó a la conclusión de que los modelos climáticos unidimensionales son
incapaces de simular con exactitud los efectos de las nubes (vapor de agua o
dióxido de carbono) sobre la radiación planetaria y, en consecuencia, no son
fiables; presentó, de todos modos, una versión más sofisticada del modelo de
Kasting para sugerir una zona circunestelar habitable de entre 0,75 UA y 1,8
UA[42] para el sol, escalable para otras estrellas.[43]

Exoplanetas

En 1994 se confirmó el anuncio realizado en 1992 por dos radio-astrónomos,


que detectaron por primera vez la existencia de planetas fuera de nuestro sistema
solar. Se trataba de dos planetas, de aproximadamente tres veces el tamaño de la
Tierra, y de un objeto de tamaño similar al de la luna, que orbitaban una vieja
estrella neutrón que giraba velozmente, un pequeño y denso residuo de una
estrella grande que había terminado su tiempo de vida en la secuencia principal
como consecuencia de un colapso gravitatorio catastrófico y una explosión
supernova.[44] Es uno de los lugares menos probables donde los astrofísicos
creían que podrían encontrar planetas, y su proximidad a la estrella de neutrones,
que emite radiaciones potentes, significa que las seis condiciones para la
evolución de formas de vida conocidas no pueden cumplirse.
El primer planeta en órbita alrededor de una estrella en secuencia principal
fue detectado al año siguiente. Los telescopios carecían de la resolución
necesaria para observarlo directamente, pero los astrónomos calcularon la masa
del planeta y la distancia que mantenía con respecto a su estrella mediante la
oscilación que su campo gravitatorio provocaba en la distancia de la estrella con
respecto a la tierra cuando el planeta pasaba por delante, alrededor y detrás de la
estrella. 51 Pegasi b es un gigante gaseoso, como Júpiter, que traza una órbita de
cuatro días de duración alrededor de la estrella 51 Pegasi, lo cual implica que su
distancia con respecto a esa estrella es inferior a la de Mercurio, nuestro planeta
rocoso más interior, respecto al sol.
Hasta finales de 2008, los astrónomos habían detectado 330 planetas
extrasolares, lo que actualmente se conoce como exoplanetas. Su descubrimiento
ha debilitado el modelo de formación planetaria nebular, que predice que los
planetas orbitan su estrella en la misma dirección con órbitas casi circulares a la
altura o cerca del ecuador de la estrella, y con una distribución en la que los
planetas más pequeños y densos, compuestos principalmente por roca y hierro
(como Mercurio, Venus, la Tierra y Marte) ocupan la parte interior del sistema y
los enormes gigantes gaseosos, compuestos principalmente por hidrógeno y
helio (como Júpiter, Saturno, Urano y Neptuno), orbitan a una distancia de la
estrella mucho mayor. Pero resulta que no solo hay «Júpiteres calientes» —
gigantes gaseosos que giran alrededor de su estrella más cerca que Mercurio del
sol, a distancias en las que la temperatura es demasiado elevada para permitir
que hielos sólidos y gases formen un núcleo planetario—, sino que hay además
otros planetas que siguen órbitas tremendamente elípticas, con algunos orbitando
alrededor del polo de su estrella en vez de alrededor de su ecuador y otros
orbitando en dirección opuesta al giro de su estrella.
Posteriormente, la NASA lanzó al espacio el telescopio Kepler que detecta el
tenue oscurecimiento de la luz de una estrella cuando un planeta pasa por delante
de ella, lo cual ha permitido identificar planetas mucho más pequeños que las
técnicas anteriores pasaban por alto. A fecha agosto de 014, había descubierto
978 exoplanetas en órbita alrededor de 421 estrellas y tenía 4.234 planetas
candidatos a la espera de confirmación.[45]
Todo lo cual ha dado pie a la creencia extendida de que la Tierra no es
especial y que en una galaxia de varios centenares de miles de millones de
estrellas tiene que haber muchos planetas habitables, en alguno de los cuales
podría haber evolucionado la vida inteligente.
Sin embargo, los sistemas estelares identificados por Kepler debilitan aún
más el modelo de formación planetaria nebular. Además de los Júpiteres
calientes, el telescopio espacial ha descubierto planetas gigantes con órbitas
idiosincráticas, mientras que, por otro lado, los planetas más comunes, que
encontramos orbitando cerca del cuarenta por ciento de las estrellas más
próximas y más parecidas al sol, los llamados «súper-Tierras» —una categoría
de planetas más grandes que la Tierra pero más pequeños que Neptuno (17
masas terrestres)—, orbitan tan cerca de sus estrellas que es imposible que
puedan albergar vida.
Viendo estas evidencias, los astrofísicos han presentado diversas propuestas
para modificar la hipótesis de formación planetaria nebular. Varias de ellas
conjeturan con que en la zona que va desde la parte intermedia hasta el exterior
del disco nebular crecen planetas de todo tipo hasta alcanzar su tamaño máximo
y que, cuando el gas viscoso del disco ralentiza su órbita, giran en espiral hacia
el interior; esto explicaría los Júpiteres calientes. Sin embargo, los modelos de
simulación muestran que estos planetas migratorios continúan girando en espiral
hacia su estrella. Nadie hasta la fecha ha sido todavía capaz de explicar por qué
detienen en seco su giro en espiral y se estabilizan en las órbitas que
observamos.[46] De hecho, ya que no las hemos observado con suficiente detalle
durante suficiente tiempo, podría ser que siguieran aun girando en espiral.
Además, estos modelos no explican por qué nuestro sistema solar es tan distinto,
excepto cuando parten del supuesto arbitrario de que el gas nebular de nuestro
disco no era lo bastante viscoso como para que los gigantes gaseosos de la zona
exterior del sistema girasen en espiral hacia la zona interior.
Las técnicas actuales no son capaces de detectar planetas de masa similar a la
de la Tierra alrededor de las estrellas. Es posible que instrumentos más
sofisticados acaben descubriendo muchos planetas parecidos a la Tierra en masa,
tamaño y órbita estable en zona circunestelar habitable.
Por otro lado, nuestro sistema solar no contiene los planetas más comunes
detectados hasta la fecha, las súper-Tierras. Tal vez el hecho de que un pequeño
planeta rocoso como la Tierra permanezca en una órbita estable —
supuestamente como consecuencia de la influencia gravitatoria de un gigante
gaseoso exterior como Júpiter, que además nos protege del bombardeo de los
cometas— y a la distancia óptima de su estrella durante más de cuatro mil
millones de años, tiempo suficiente para que la vida compleja evolucione, es
realmente un caso curioso.

Impacto de un planetesimal del tamaño de Marte

La explicación ortodoxa de la ciencia es que la luna excepcionalmente


grande de la Tierra es consecuencia del impacto de un planetesimal del tamaño
de Marte.
Estudios recientes sugieren que en las fases finales de la acreción planetaria,
cuando los cuatro protoplanetas rocosos absorbieron en sus zonas orbitales los
planetesimales grandes que aún quedaban, los impactos masivos no eran una
excepción. Pero de todas maneras, para crear el núcleo de hierro anormalmente
grande de la Tierra y su corteza anormalmente fina, para acelerar la velocidad de
giro de la Tierra, para cambiar la inclinación de su eje de 22º a 24º, y para
producir una luna anormalmente grande que estabilizara esta inclinación,
ralentizara la rotación de la Tierra y provocara las mareas, se necesitaría el
impacto de un planetesimal con la masa suficiente y con la velocidad relativa y
el ángulo idóneos. Estas consecuencias afectaron de forma significativa la
aparición y la evolución de la vida.

a) Núcleo de hierro anormalmente grande


Un núcleo de hierro anormalmente grande significa que lo único que se
ha enfriado lo suficiente para solidificarse ha sido el núcleo interno,
dejando durante 4,5 miles de millones de años un núcleo externo en estado
líquido y capaz de generar una magnetosfera potente que protege la
superficie de la tierra de la radiación ionizante nociva y su atmosfera del
viento solar.
Los análisis de las rocas recogidas en Marte indican que ese planeta
tuvo en su día un campo magnético, pero las prospecciones no detectan
ningún campo de este tipo en la actualidad. Lo cual planteó la hipótesis de
que Marte había tenido en su día un núcleo de hierro líquido que, al igual
que el núcleo interior de la Tierra, se habría enfriado y solidificado; sin una
magnetosfera protectora, el viento solar habría destruido la atmósfera
marciana en su práctica totalidad. Los sondeos tampoco han logrado
detectar un campo magnético importante en Venus (se cree que este
planeta conserva una atmósfera densa porque la elevada temperatura de su
superficie volatiliza componentes como el agua, que sería líquida en la
Tierra).
b) Corteza anormalmente fina
La corteza anormalmente fina de la Tierra permite el movimiento de las
placas tectónicas, algo que se considera único en el sistema solar;[47] las
evidencias obtenidas a partir de las sondas, por ejemplo, sugieren que las
placas tectónicas de Venus están bloqueadas.
Como hemos visto, Kasting defiende que a pesar del incremente de la
energía irradiada por el sol, el rango de temperaturas favorable a la
biosfera se ha mantenido durante miles de millones de años,
principalmente gracias a la regulación del efecto invernadero del gas
dióxido de carbono a través del mecanismo de las placas tectónicas.
Además, miembros de una especie separados por la deriva continental
debida a las placas tectónicas, se encuentran en distintas condiciones
físicas y climáticas; las dos ramas de la especie evolucionarán de forma
distinta en sendos ambientes distintos.
De esta manera, la corteza fina permite la evolución de las especies.
c) Cambio en la rotación
Los modelos por ordenador sugieren que el impacto gigante llevó a la
Tierra a incrementar la velocidad de giro sobre su eje, llegando tal vez a un
giro completo cada cinco horas, y que la luna, recién formada, estaba
mucho más cercana a la Tierra.
La proximidad de la gran luna generó una fuerza de gravedad enorme
sobre la superficie de la Tierra, que llegaba a levantarse y descender unos
sesenta metros cuando la luna pasaba por encima. Esta presión sobre la
corteza terrestre ralentizó la rotación de la Tierra y forzó el alejamiento de
la luna, tal y como evidencian las mediciones de los pulsos láser realizadas
por la NASA.[48] La rotación de la Tierra se ha ralentizado hasta llegar al
ritmo de una vuelta completa cada 24 horas que tenemos actualmente. Este
día más largo implica que la superficie recibe más energía solar durante el
día e irradia más calor durante la noche. De ahí que la variación de la
temperatura de superficie con respecto a su media sea superior a la de
cualquier otro planeta que gire a mayor velocidad. Lo cual permite un
rango más amplio de reacciones bioquímicas —aunque siempre dentro del
rango que hace factible el agua líquida—, lo que conlleva una variedad
más amplia de moléculas complejas, lo que a su vez incrementa las
posibilidades de que la complejidad de dichas moléculas sea mayor. Una
vez ha aparecido la vida, el mismo efecto produce una mayor variedad de
entornos, lo que a su vez fomenta una diversidad evolutiva mayor.
Por otro lado, el «planeta hermano» de la Tierra, Venus, con casi su
misma masa, rota sobre su eje una vez cada 243 días terrestres. Esto,
combinado con el tiempo que tarda en trazar su órbita alrededor del sol,
hace que el día solar de Venus sea de 117 días terrestres. Una exposición
diaria a la radiación solar tan prolongada ayudó a crear un efecto
invernadero desenfrenado que produjo una temperatura de superficie que
hoy en día se mantiene en torno a los 470º Celsius, tanto de día como de
noche, una temperatura tan elevada que fundiría incluso el plomo.[49]
d) Inclinación axial de 23,5º
La inclinación de 23,5º del eje de rotación de la Tierra (véase figura
12.2) genera las variaciones estacionales de temperatura, que son distintas
en distintas latitudes pero que se mantienen siempre dentro del rango
biosférico. Esta variedad en los climas estacionales en distintos lugares de
la superficie produce una amplia variedad de entornos cambiantes que
fomenta la diversidad biológica evolutiva.
e) Estabilización de la inclinación axial
La proximidad de la luna anormalmente grande genera un potente
campo gravitatorio que estabiliza la inclinación axial de la Tierra.
La estabilización no es perfecta; la inclinación axial ha oscilado entre
los 22º y los 24º en el transcurso de 41.000 años[50] y contribuye a las
glaciaciones periódicas que sufre la Tierra, tal y como propone la que se
conoce como hipótesis Milankovitch. Sin embargo, se trata de una
variación pequeña. Un estudio realizado en 1993 llegó a la conclusión de
que sin la luna, esta inclinación oscilaría caóticamente entre 0º y 85º en
una escala de tiempo de decenas de millones de años, lo que causaría
estragos en el clima de la Tierra. Una simulación por ordenador llevada a
cabo en 2011 cuestiona esta afirmación y sugiere que la inclinación
oscilaría entre 10º y 50º en el transcurso de 4 miles de millones de años.
[51] Sea como fuere, estos cambios en la inclinación darían como
resultado grandes cambios de temperatura, lo que haría extremadamente
difícil la evolución de vida compleja.
f) Mareas
El potente campo gravitatorio de la luna es también responsable de las
mareas de los océanos y los mares de la Tierra. Estas mareas no solo
alteran los entornos físicos —y, por lo tanto, fomentan la diversidad
biológica evolutiva— erosionando la costa, sino que además arrastran
material del mar hacia tierra y a su vez se llevan material de tierra hacia el
mar, lo que fomenta la aparición de ecosistemas dinámicos.

La suma de todos estos factores, combinada con un aumento significativo de


la energía irradiada por el sol y un cambio enorme en la composición de la
atmósfera de la Tierra, supone un flujo cambiante de energía a través de un
sistema que se ha mantenido estable, aunque alejado del equilibrio
termodinámico, durante cerca de cuatro mil millones de años. Partiendo del
trabajo de Ilya Prigogine, Morowitz y otros científicos consideran que un
sistema así genera un aumento de la complejidad física y química que conduce
hacia la aparición de la vida y su posterior evolución.[52]

Conclusiones

La primera parte nos llevó a la conclusión de que un universo en el que la


materia es capaz de evolucionar hasta las formas de vida conocidas exige un
conjunto de leyes físicas y químicas que describan o determinen cómo interactúa
la materia, el ajuste de precisión de seis parámetros cosmológicos y dos
constantes sin dimensión, y el ajuste de precisión de tres parámetros en la
nucleosíntesis estelar que permitan la producción del carbono necesario para la
formación de las moléculas orgánicas esenciales.
Este capítulo llega a las conclusiones siguientes:

1. Para que las moléculas orgánicas de hasta trece átomos que encontramos
en el espacio interestelar y en determinados asteroides evolucionen hasta
crear objetos tan complejos como el ser humano, son necesarias seis
condiciones: un planeta con elementos y moléculas esenciales, fuentes de
energía, una masa mínima y probablemente también una masa máxima,
una protección contra la radiación nociva y los impactos, un rango de
temperatura estrecho justo debajo y justo encima de su superficie, y la
estabilidad de esta biosfera durante miles de millones de años.
2. La concurrencia de diversos factores galácticos, estelares y planetarios
proporciona estas condiciones en la Tierra.
2.1. Su estrella madre es única, posee una masa que se ubica dentro del
estrecho margen exigido para mantener la estabilidad durante 4,5 miles
de millones de años y permanece localizada dentro de la relativamente
pequeña y cambiante zona galáctica habitable durante este periodo.
2.2. Se formó como un planeta rocoso integrando, y posteriormente
incorporando, elementos y moléculas esenciales.
2.3. Su masa se sitúa dentro del rango que sustenta una biosfera.
2.4. Su localización dentro de una estrecha zona circunestelar habitable ha
quedado atípicamente protegida durante 4,5 miles de millones de años
del bombardeo destructivo de los cometas por el efecto gravitatorio de
un gigantesco planeta gaseoso exterior.
2.5. Cuando el planeta estaba formándose, recibió el impacto, a la
velocidad relativa idónea y con el ángulo idóneo, de un planetesimal con
masa suficiente como para producir varias características favorables
para la evolución de la vida compleja: un núcleo de hierro anormalmente
grande que genera una potente magnetosfera protectora; una corteza
anormalmente fina que permite el movimiento de placas tectónicas; y
una luna anormalmente grande que produce una rotación optima, una
inclinación axial estable y mareas en sus océanos.
2.6. El planeta posee uno o más mecanismos de retroalimentación que
mantienen un rango de temperatura de superficie favorable para las
reacciones bioquímicas y que ha permitido que el agua en forma líquida
permanezca en su superficie durante cerca de cuatro mil millones de
años a pesar del gran incremento de la energía irradiada por su estrella
madre.
3. La combinación de estos factores produce un flujo cambiante de energía a
través de un sistema fisicoquímico que ha permanecido estable, pero
alejado del equilibrio termodinámico, durante cerca de cuatro miles de
millones de años y que ha generado el incremento de complejidad
necesario para permitir la aparición y evolución de una amplia variedad de
formas de vida.
4. Estos factores contradicen el punto de vista de la cosmología ortodoxa,
que defiende que la Tierra no es más que un planeta normal que orbita
alrededor de una estrella normal en una galaxia normal integrada por
varios centenares de millones de estrellas que forma parte del universo
observable que se estima que está integrado por cien mil millones de
galaxias.
5. La Tierra, si no es única, sí que es una excepción en la galaxia, e incluso
en el universo, en cuanto a que posee las condiciones necesarias para la
aparición y la evolución de formas de vida tan complejas como el ser
humano.

La Tierra evolucionó desde ser un planeta con la superficie caliente y una


atmósfera probablemente compuesta por sulfuro de hidrógeno, dióxido de
azufre, dióxido de carbono, vapor de agua, nitrógeno y amoniaco, componentes
venenosos para el ser humano y que no ofrecen protección contra la radiación
ultravioleta, a ser un planeta con una temperatura de superficie media anual de
15º Celsius, mares azules, nubes esponjosas y una atmósfera compuesta
principalmente por nitrógeno y oxígeno, junto con una capa de ozono, que
bloquea la radiación ultravioleta nociva y permite la aparición y la evolución de
la vida en su superficie. Pero, ¿qué es la vida?
[1] Véase página 236.
[2] Véase página 235.
[3]Documento JPL D-34923 de 12 de junio de 2006,
http://exep.jpl.nasa.gov/files/exep/STDT_Report_Final_Ex2FF86A.pdf, sección 1.3.1.1.3, consultado el 21
de marzo de 2014.
[4]Pollack, James B., et al, «Formation of the Giant Planets by Concurrent Accretion of Solids and
Gas», Icarus, 124: 1, 1996, pp. 62–85.
[5]Documento JPL D-34923 de 12 de junio de 2006.
[6]Morowitz (2004), p. 65.
[7] Véase página 210.
[8] Un planetesimal hace normalmente referencia a un cuerpo pequeño formado durante la primera fase
de la formación planetaria más que al tamaño de un cuerpo de un sistema solar.
[9] Un protoplaneta se convierte en planeta cuando ha absorbido los planetesimales y otros desechos de
su zona orbital y ha alcanzado una masa y un volumen más o menos constantes. Véase el glosario para una
definición más detallada de «planeta», que tiene en cuenta la redefinición realizada por la Unión
Astronómica Internacional en 2006.
[10]Schilling, Govert, «Planetary Systems: From a Swirl of Dust, a Planet Is Born», Science, 286:
5437, 1999, 66–68; Lunine (1999), p. 4.
[11]Ibid, pp. 124–125.
[12]http://gsc.nrcan.gc.ca/geomag/nmp/long_mvt_nmp_e.php, consultado el 23 de mayo de 2008.
[13]James Kasting, comunicación personal, 30 de mayo de 2008.
[14]Ryskin, Gregory, «Secular Variation of the Earth’s Magnetic Field: Induced by the Ocean Flow?»,
New Journal of Physics, 11: 6, 2009, 063015.
[15]Bryson (2004), pp. 228–229.
[16]http://www.geolsoc.org.uk/gsl/geoscientist/features/page856.html, consultado el 23 de mayo de
2008.
[17]Kious y Tilling (1996).
[18]Ibid.
[19]http://eclipse.gsfc.nasa.gov/SEhelp/ApolloLaser.html, consultado el 24 de mayo de 2008.
[20]Mojzsis, S. J., et al., «Oxygen-Isotope Evidence from Ancient Zircons for Liquid Water at the
Earth’s Surface 4,300 Myr Ago», Nature, 409, 2001, pp. 178–181.
[21]Watson, E. B. y T. M. Harrison, «Zircon Thermometer Reveals Minimum Melting Conditions on
Earliest Earth», Science, 308: 5723, 2005, pp. 841–844.
[22]Nutman, Allen P., «Comment on ‘Zircon Thermometer Reveals Minimum Melting Conditions on
Earliest Earth’ Ii», Science, 311: 5762, 2006, p. 779.
[23]Glikson, Andrew, «Comment on ‘Zircon Thermometer Reveals Minimum Melting Conditions on
Earliest Earth’ I», Science, 311: 5762, 2006, p. 779.
[24]Lunine (1999), pp. 130–131.
[25]Morbidelli, A., et al., «Source Regions and Timescales for the Delivery of Water to the Earth»,
Meteoritics & Planetary Science, 35: 6, 2000, pp. 1309–1320.
[26]Lunine (1999), pp. 127–130.
[27]http://solarsystem.nasa.gov/scitech/display.cfm?ST_ID=446, consultado el 10 de junio de 2014.
[28]Lunine (1999), p. 132.
[29] Véase el glosario para la diferencia entre «cometa», «meteorito» y «asteroide».
[30]Kasting, James, «Essay Review of Peter Ward and Don Brownlee’s Rare Earth: Why Complex Life
Is Uncommon in the Universe», Perspectives in Biology and Medicine, 44, 2001, pp. 117–131.
[31]Lunine (1999), p. 165.
[32]Ibid, pp. 165–176.
[33]Gribbin (2004), pp. 200–223.
[34]Kasting, J. F. y Catling, D., «Earth: Evolution of a Habitable Planet», Ann Rev Astron Astrophys 41,
2003, pp. 429–463
[35]http://www.seti.org/seti/seti-science, consultado el 21 de febrero de 2008.
[36]Rowan-Robinson (2004), p. 63.
[37]Ward and Brownlee (2000).
[38]Gonzalez, Guillermo, et al., «The Galactic Habitable Zone: Galactic Chemical Evolution», Icarus,
152: 1, 2001, p. 185–200.
[39] Véase página 275.
[40]Ward and Brownlee (2000).
[41]Kasting, J. F., et al., «Habitable Zones around Main Sequence Stars», Icarus, 101: 1, 1993, pp.
108–12.
[42] UA significa Unidad Astronómica (o AU por sus siglas en inglés, Astronomic Unit), la distancia
media de la tierra al sol.
[43]Documento JPL D-34923 de 12 de junio de 2006,
http://planetquest.jpl.nasa.gov/TPF/STDT_Report_Final_Ex2FF86A.pdf.
[44]Wolszczan, A. y Frail, D. A., «A Planetary System around the Millisecond Pulsar Psr1257 + 12»,
Nature, 355: 6356, 1992, pp.145–147.
[45]http://www.nasa.gov/mission_pages/kepler/main/index.html#.U_PC0Cj5hhK, consultado el 19 de
agosto de 2014.
[46]Finkbeinter, Ann, «Astronomy: Planets in Chaos», Nature, 511, 2014, pp. 22–24.
[47]Ward y Brownlee (2000).
[48] Véase página 291.
[49]http://www.planetary.org/explore/topics/compare_the_planets/terrestrial.html, consultado el 25 de
mayo de 2008.
[50]http://earthobservatory.nasa.gov/Study/Paleoclimatology_Evidence/, consultado el 11 de junio de
2008.
[51]http://www.newscientist.com/article/mg21228384.600-aliens-dont-need-a-moonlike-
ours.html#.U5covij5hhI, consultado el 10 de junio de 2014.
[52]Morowitz (2004), pp. 58–62.
CAPÍTULO 13. LA VIDA

Y entonces, «¿qué es la vida?», grité.

PERCY BYSSHE SHELLEY, 1822

La esencia de la vida es la improbabilidad estadística a escala colosal.

RICHARD DAWKINS, 1986

Si nuestra intención es descubrir cómo apareció la vida en la Tierra,


necesitamos averiguar antes qué es la vida. A la mayoría nos parece algo
evidente. El gato que se frota contra mi pierna está vivo; la tostada quemada que
tengo en el plato delante de mí no está viva. Pero definir qué es lo que distingue
lo vivo de lo no vivo no es tan sencillo.
Como apuntamos en el capítulo 9, estamos hechos principalmente de átomos
de hidrógeno, oxígeno, carbono y nitrógeno. Pero estos átomos no se diferencian
de los átomos de hidrógeno, oxígeno, carbono y nitrógeno que encontramos en el
agua, en el aire o en la tostada quemada. De hecho, un montón de estos átomos
entra y sale de nuestro cuerpo cuando respiramos, bebemos, comemos, sudamos,
orinamos y defecamos.
Si los átomos de los seres vivos son iguales, ¿será entonces su disposición en
moléculas más complejas lo que los diferencia? Pero resulta que una persona que
acaba de morir posee el mismo nivel de complejidad molecular que tenía el
momento antes de su muerte.
Intentaré llegar a entender qué es la vida examinando lo que el mundo
antiguo creía que era, las explicaciones que ha desarrollado la ciencia, algunas
explicaciones contemporáneas que afirman reconciliar las perspectivas antiguas
con la ciencia moderna, la respuesta a las mismas que da la ciencia ortodoxa y
algunas definiciones destacadas del concepto vida.
El concepto de la vida en el mundo antiguo

Los primeros intentos de comprender la esencia de la vida se realizaron en


India. Los videntes utilizaban la meditación —una introspección disciplinada
que busca comprender fusionándose con el objeto de estudio— y sus puntos de
vista quedaron registrados en las Upanishads. Distintas Upanishads caracterizan
la vida como «prana».
Esta palabra sanscrita tiene probablemente su origen en el prefijo «pra», que
significa completar (seguramente utilizado aquí a modo de intensificador) y la
raíz «na», que significa respirar.[1] Podría interpretarse literalmente como
respiración, pero la Prashna Upanishad deja su significado claro. Seis
buscadores de la verdad formulan seis preguntas al vidente Pippalda. Para
responder a la primera, quién creó el universo, Pippalda responde que el Señor
meditó y creó prana y ravi (la materia), y que a partir de esta dualidad brotaron
las dualidades de masculino y femenino, el sol y la luna, y la luz y la oscuridad.
Como en otras Upanishads, el resto de la Prashna Upanishad deja claro
mediante metáforas, símiles y parábolas, que prana es la energía fundamental y
vital de cualquier cuerpo, del mismo modo que es la energía fundamental y vital
del universo.[2] La medicina ayurdévica busca alcanzar un equilibro del prana,
mientras que el yoga intenta mejorar su flujo a través del cuerpo.
Michael Nagler, profesor emérito de Literatura clásica y comparativa de la
Universidad de California, Berkeley, defiende que prana significa energía vital,
y que todos los signos vitales a partir de los cuales intentamos identificar la
presencia de vida son símbolos de la capacidad del cuerpo de dirigir, conservar y
emplear energía con elevados niveles de complejidad. Eso es la vida desde el
punto de vista biológico.[3]
Respondiendo al rechazo del vitalismo por parte de la ciencia moderna, se
pregunta: «Y si la vida no es energía, entonces ¿qué es?».
Los textos taoístas chinos, una recopilación de conceptos y reflexiones
filosóficas que datan del siglo VI a. C. en adelante, ofrecen un punto de vista
similar. Aquí, la palabra en chino antiguo qi (o chi, según la norma occidental
utilizada) significa tanto respirar como espíritu que otorga la vida.[4] La
manipulación del flujo de qi, la energía vital del cuerpo, juega un papel esencial
en la curación china tradicional.
Estos puntos de vista fueron transmitidos a los japoneses cuando estos
adaptaron la cultura china para su sociedad. La palabra que ellos utilizan para
respiración y espíritu es «ki».
Los hebreos utilizaron también una palabra con doble significado: «ruach»,
como viento o espíritu. En el Tanaj, sus escrituras, se utiliza para hablar del
Espíritu de Dios.
En los poemas homéricos griegos, fechados el siglo VIII a. C., «psyche» es la
respiración o espíritu que abandona el cuerpo del héroe cuando este fallece.[5]
Los estoicos, que encontramos entre el siglo III y I a. C., hablaban de «pneuma»
(respiración, alma o espíritu vital) y de Dios y el principio organizador de la
naturaleza refiriéndose básicamente a la misma cosa, haciéndose eco del
concepto defendido por Heráclito de una inteligencia o alma de aspecto similar
al fuego que anima el universo.[6]
De un modo similar, los romanos utilizaron la palabra «spiritus» para
referirse tanto a la respiración como al espíritu; la iglesia cristiana occidental
adoptó la palabra para dar nombre a la tercera persona de la Santísima Trinidad,
el Espíritu Santo.
Por lo tanto, la explicación de que un espíritu vital o energía vital anima (que
literalmente significa «respira o insufla vida») la materia y la distingue de lo
inanimado, estaba completamente extendida en el mundo antiguo. Además, esta
energía vital —denominada «vitalismo» en términos generales— sería la base de
toda la energía del universo.
En distintas culturas y religiones el concepto se interpretó como la creación
de una divinidad suprema informe, o de Dios en persona, o de un aspecto de
Dios o, antropomórficamente, se asumió que Dios, o un dios, respiraba sobre la
materia inanimada, como la arcilla, para insuflarle vida.
Lo que dio lugar al vitalismo no fue solamente esta perspectiva mítica, sino
que la ciencia dedujo su existencia desde un buen principio.

El desarrollo de la explicación de la vida por parte de la ciencia

La ciencia y la medicina occidentales están enraizadas, en gran parte, en el


descubrimiento que en el siglo X I I hicieron de Aristóteles. A diferencia de
muchos otros pensadores griegos, como Pitágoras y Heráclito, Aristóteles no era
un místico. Distinguía entre objetos minerales inanimados por un lado y objetos
vegetales y animales por otro, y sostenía que la vida de estos últimos residía en
su «psyche» o alma. Pero para Aristóteles, la psyche no era un espíritu etéreo.
Sino que era la forma, u organización, de las características físicas que la dotan
de vida y propósito; el alma y el cuerpo son dos aspectos de un ser vivo. Varios
comentaristas medievales, sin embargo, interpretaron las traducciones
(mayoritariamente en árabe) de Aristóteles para justificar un vitalismo menos
materialista.[7]
Este vitalismo fue defendido en los orígenes de la ciencia moderna, en los
siglos XVI y XVII, como oposición a la diseminación de la biología del mecanismo
cartesiano, que consideraba que un organismo no era más que una máquina. Los
vitalistas defendían que la materia no podía explicar el movimiento, la
percepción, el desarrollo y la vida. Incluso mecanicistas del siglo XIX, como John
Needham y el conde de Buffon, se sintieron atraídos en sus experimentos de
biología del desarrollo a invocar la existencia de una fuerza vital análoga a la
gravedad y la atracción magnética.
El vitalismo jugó un papel esencial en el desarrollo de la química del siglo
XVIII y principios del siglo XIX. Dio lugar a la distinción aristotélica entre
sustancias orgánicas (extraídas de animales y vegetales) e inorgánicas
(minerales). A raíz de un experimento en el que se quemaba madera, Georg Stahl
defendió que la pérdida de peso entre la madera y sus cenizas era debida a la
fuerza vital, que se había perdido irremediablemente.
La oposición al vitalismo creció a partir de mediados del siglo XIX, liderada
por médicos y fisiólogos que defendían el materialismo mecánico y por
químicos que sintetizaban componentes encontrados en la naturaleza a partir de
sus elementos químicos constituyentes, refutando con ello las tesis de Stahl.
Pero en el siglo XIX, científicos tan notables como Louis Pasteur, que llegó a
la conclusión de que la fermentación era una «acción vital», siguieron apoyando
el vitalismo. A principios del siglo XX, sin embargo, la medicina ortodoxa, la
biología y la química habían rechazado ya el vitalismo apoyándose en que sus
supuestos fenómenos podían explicarse reduciéndolos a componentes físicos y
químicos que obedecían leyes físicas y químicas. Pese a ello, el vitalismo siguió
vigente durante la primera mitad del siglo XX, abanderado por el filósofo francés
y Nobel de literatura, Henri Bergson, y por el eminente embriólogo alemán,
Hans Driesch.[8]

Supuestas reconciliaciones entre las posturas antiguas y la ciencia moderna

La medicina alternativa

Los últimos cincuenta años han sido testigos en Occidente del crecimiento de
una medicina alternativa basada en antiguas técnicas de curación orientales.
Tratamientos como la acupuntura y la acupresión están concebidos para
desbloquear restricciones en el flujo del qi, mientras que terapias como el reiki
(del japonés «rei», que significa invisible o espiritual y «ki», que significa
energía vital, de ahí «energía vital universal») están también enfocadas a
transmitir o canalizar la energía vital universal al paciente, bien a través del
contacto, bien a través del movimiento de las manos del profesional cerca del
cuerpo del paciente.
Desde 1972, cuando una revista médica occidental informó por vez primera
del empleo en China de la acupuntura como analgésico en la cirugía mayor en
vez de la anestesia con fármacos, una parte de la profesión médica occidental ha
probado y utilizado con éxito la acupuntura muchas enfermedades, destacando
entre ellas la gestión del dolor agudo y crónico, la recuperación de la parálisis
después de un ictus y el alivio de las enfermedades respiratorias. Su
funcionamiento continúa siendo una pregunta sin respuesta.
El enfoque holístico oriental ha sido adoptado a mayor escala por la
enfermería occidental. El tratamiento más conocido, cuyas enseñanzas se
imparte en cerca de un centenar de universidades y escuelas de medicina y
enfermería de los Estados Unidos y Canadá, es el «toque terapéutico». El
contacto, o toque, no es con el cuerpo del paciente, sino con el campo de energía
vital del cuerpo, o aura, que los profesionales consideran que se extiende hasta
varios centímetros o metros del cuerpo. Las técnicas utilizadas no se distinguen
de las del reiki y se practican además bajo varios nombres distintos como
curación, curación espiritual o curación psíquica.
Accedí a recibir este tratamiento en dos ocasiones. En la primera de ellas,
cuando la profesional me pasó las manos por encima del cuerpo, experimenté
una sensación de calor y en la segunda, un hormigueo. Desconozco la naturaleza
de estas sensaciones, que se dice que son características.
La fundadora de Therapeutic Touch, la profesora de enfermería de la
Universidad de Nueva York, Dolores Krieger, identifica la energía como prana.
Sostiene que el toque terapéutico, al igual que la hipnoterapia, funciona con
mayor efectividad sobre el sistema nervioso. «En el análisis final, es el paciente
el que se cura a sí mismo».[9] El sanador, o terapeuta, según este punto de vista,
actúa como un sistema de soporte de energía humana hasta que el sistema
inmunológico del paciente es lo suficientemente robusto como para tomar el
relevo.
Los éxitos son en su mayoría anecdóticos, con escasas pruebas sistemáticas.
En 1973, Krieger demostró que los valores medios de hemoglobina de 46 sujetos
aumentaron después de un tratamiento con toque terapéutico en comparación
con la ausencia de cambios significativos en un grupo de control de 29 sujetos.
[10] En 1998, el Medical Center de la Universidad de Pittsburgh informó de
mejoras importantes en la función y en el alivio del dolor provocada por la
osteoartritis de rodilla en pacientes tratados con toque terapéutico en
comparación con grupos tratados con placebo y grupos de control, aunque solo
25 pacientes acabaron completando el estudio.[11]
Por otro lado, es famoso el artículo que publicó el Journal of the American
Medical Association el 1 de abril de 1988 sobre una prueba supuestamente
concebida por Emily Rosa, de once años de edad. La niña invitó a 21
especialistas en toque terapéutico a pasar las manos a través de un agujero
abierto en una pantalla opaca para percibir su campo de energía vital. Emily
lanzaba una moneda al aire para decidir a cuál de las dos manos del especialista
iba a acercar las suyas y el especialista debía detectar su aura y decir a qué mano
se había acercado. Los especialistas alcanzaron un porcentaje de éxito del 44 por
ciento, un nivel inferior al 50 por ciento que cabría esperar que acertaran por
puro azar.[12]
Hipótesis de campos

En ese mismo periodo, un número reducido de científicos y filósofos


desarrolló la idea de que la biología ortodoxa sigue aferrada al punto de vista
mecanicista newtoniano que caracterizaba a la física del siglo XIX y que no ha
tenido en cuenta la revolución que se vivió a principios del siglo XX en el campo
de la física, y muy en especial la teoría cuántica, con sus conceptos de campos y
no localización. Les atrae la idea de que el cosmos es un todo y de que todas sus
partes existen en un estado de interdependencia coherente y dinámica.
El teórico cuántico David Bohm, influido por el místico y filósofo indio
Jiddu Krishnamurti, fue uno de los primeros en intentar desarrollar un modelo
holístico del universo basado en principios científicos. Lo denominó «totalidad
no dividida en movimiento fluyente», en la cual «el flujo es, en cierto sentido,
previo a las “cosas” que vemos formarse y disolverse en ese flujo». Continuaba
diciendo que «Hay que considerar que la vida pertenece a una totalidad» y que,
de algún modo, está «envuelta» en el sistema.[13]
Ervin Laszlo, antiguo profesor de filosofía, teórico de sistemas y pianista de
música clásica, reclama el apoyo de los últimos descubrimientos en el campo de
las ciencias naturales para un campo que conecta y correlaciona
instantáneamente todas las cosas del cosmos. Se trata de un redescubrimiento del
antiguo concepto místico del «akasha» (una palabra en sanscrito que significa
«espacio»), el más fundamental de los cinco elementos del cosmos que contiene
a los demás (aire, fuego, agua y tierra) en su interior pero que al mismo tiempo
está fuera de ellos. Afirma que el campo akásico es el medio fundamental del
cosmos, y lo equipara al vacío cuántico del universo,[14] que los teóricos
cuánticos ortodoxos consideran que tiene una energía de estado fundamental de
la que puede emerger espontáneamente la materia.[15] Según Laszlo, el campo
akásico es la base a partir de la cual se originan todas las cosas del universo y, en
consecuencia, la fuente de toda la vida y lo que conecta toda la vida.
El biólogo botánico, Rupert Sheldrake, fue durante siete años director de
estudios de Bioquímica y biología celular en el Clare College de la Universidad
de Cambridge. Viajó a India para investigar la fisiología de los cultivos, y allí
mantuvo discusiones con Krishnamurti y pasó dieciocho meses en el ashram de
Bede Griffiths. Con esta experiencia, e inspirándose también en las ideas
vitalistas de Bergson y Driesch, desarrolló su hipótesis de la causación
formativa, según la cual la memoria es inherente en la naturaleza: la mayoría de
las llamadas leyes de la naturaleza son más bien costumbres que dependen de un
refuerzo de similitud no local.[16]
Sheldrake defiende que los sistemas naturales, o unidades mórficas, sea cual
sea su nivel de complejidad —átomos, moléculas, cristales, células, tejidos,
órganos y sociedades de organismos— están animados, organizados y
coordinados por campos mórficos no locales que contienen una memoria
intrínseca. Un ejemplar (una célula, por ejemplo) de un grupo mórfico (las
células hepáticas, por ejemplo), un grupo que ya ha establecido su campo
mórfico colectivo mediante su patrón de conducta pasada, se sintonizará con el
campo mórfico de ese grupo y leerá su información colectiva a través de un
proceso de resonancia mórfica que guiará el desarrollo de este ejemplar. Este
desarrollo se retroalimenta por resonancia con el campo mórfico del grupo,
reforzándolo con su propia experiencia e incorporando nueva información, lo
que permitirá la evolución del campo mórfico.
Sheldrake sugiere la existencia de un espectro continuo de campos mórficos,
que incluye campos morfogenéticos, campos de conducta, campos mentales y
campos sociales y culturales. En consecuencia, los campos mórficos actúan
como bases de datos universales y en evolución tanto para las formas vivas
como para las formas mentales, y conducen a una visión de un universo vivo y
en evolución con una memoria inherente.
Lo que la mayoría de estas ideas —tanto en el campo de la medicina como en
el de la bilogía— tienen en común es la visión de que la ciencia ortodoxa
enraizada en el reduccionismo es incapaz de explicar qué es la vida, la creencia
de que el cosmos es un todo dinámico integrado por partes interdependientes
conectadas entre sí mediante un campo de energía universal similar a lo que la
mística del mundo antiguo percibía, la creencia de que los organismos vivos
están conectados con este campo a través de una relación interdependiente y,
finalmente, la convicción de que este concepto está sustentado por las evidencias
y es compatible con los principios científicos más avanzados, y muy en especial,
con la teoría cuántica de campos.
La respuesta de la ciencia ortodoxa

La respuesta de la ciencia ortodoxa contemporánea a estas propuestas queda


resumida en un artículo de opinión sobre la hipótesis de Sheldrake, publicado en
1981 por la revista Nature y firmado por el que entonces era su director editorial,
John Maddox.

Los argumentos de Sheldrake no son, en ningún sentido, argumentos científicos sino un ejercicio de
pseudociencia. De un modo absurdo, afirma que su hipótesis es verificable —que puede someterse
al criterio de falsabilidad de Poppe— y, de hecho, el texto incluye media docena de propuestas de
experimentos que podrían llevarse a cabo para verificar que las formas de agregación de materia
están moldeadas por los hipotéticos campos morfogenéticos que supuestamente lo impregnan todo.
Estos experimentos tienen en común los atributos de ser una pérdida de tiempo, no concluyentes
[…] y poco prácticos, en el sentido de que ningún organismo capaz de otorgar subvenciones y sea
respetable se tomará en serio las propuestas […]. La objeción más seria a sus argumentos es que no
dice nada en absoluto sobre la naturaleza y el origen de los fundamentales campos morfogenéticos y
no incluye propuestas para investigar los medios a través de los cuales se propagan. Muchos lectores
quedarán con la impresión de que Sheldrake ha tenido éxito en encontrar un lugar para la magia en
la discusión científica.[17]

La oposición a la aplicación de estas ideas holísticas a la medicina ha sido


liderada, entre otros, por Linda Rosa, madre de la precoz Emily. Dos años antes
de la publicación del experimento de Emily (el documento fue escrito por su
madre y dos personas más, además de Emily), publicó un Survey of Therapeutic
Touch «Research», alegando fallos metodológicos y de todo tipo en todos los
estudios positivos.
Victor Stenger, profesor emérito de Astronomía de la Universidad de Hawái,
es también un apasionado materialista que realiza campaña contra la
pseudociencia empleada en la profesión médica occidental. Su conclusión es que
no existe ni una pizca de evidencia que sustente la existencia de una energía vital
o de un campo bioenergético. Según él, todo es reducible a interacciones
electromagnéticas que quedan explicadas por la física y la química ortodoxas,
ambas extensamente verificadas. Hasta que no se demuestre lo contrario, y con
el mismo nivel de relevancia experimental que se exige en la física, la
parsimonia requiere que cualquier otra explicación distinta a las evidencias sea
rechazada.[18]
Considero que Stenger tiene razón cuando asegura que muchas de estas
afirmaciones son refutables y que las evidencias revisadas hasta la fecha son
insuficientes para confirmar la existencia de un campo cósmico responsable del
fenómeno de la vida.
Sin embargo, la ausencia de evidencias no es evidencia de su ausencia. Un
John Maddox del siglo XVIII habría descartado por absurda la idea de que existe
un campo cósmico responsable de los fenómenos eléctricos y magnéticos (la
ciencia considera actualmente que el campo electromagnético tiene un alcance
infinito). Además, mientras que la ciencia ortodoxa acepta la idea de un campo
cósmico y un vacío cuántico, sigue sin poder explicar en absoluto su naturaleza.

La ciencia ortodoxa y su definición de la vida

Todo lo cual nos lleva a la pregunta de cómo define la vida la ciencia


ortodoxa actual. Según Edward O. Wilson, una de las pocas autoridades
mundiales que ha reflexionado en profundidad sobre la ciencia más allá de su
campo de especialización, el estudio de las hormigas, «el reduccionismo es la
actividad principal y esencial de la ciencia».[19]
La mayor parte de nuestra inmensa riqueza de conocimientos sobre la
naturaleza, y de nuestra comprensión de la misma desde la primera revolución
científica en Occidente, se debe a la técnica analítica que consiste en
descomponer las cosas en las distintas partes que las componen y estudiarlas. Sin
ella, no sabríamos que las páginas de este libro Estan hechas principalmente de
celulosa, que es un polímero lineal de moléculas consistentes en átomos de
carbono, oxígeno e hidrógeno, cada uno de los cuales consiste en un núcleo de
carga positiva orbitado a distancias relativamente enormes por electrones de
carga negativa, mientras que es el movimiento de los electrones libres lo que
produce electricidad y campos magnéticos.
Los éxitos espectaculares que cosechó el reduccionismo en la física durante
el siglo XIX y principios del siglo XX se repitieron en la biología cuando, en 1953,
James Watson y Francis Crick demostraron que la estructura de doble hélice de
la molécula de ADN (ácido desoxirribonucleico) explica el funcionamiento de la
herencia.
El reduccionismo, sin embargo, no puede explicar la vida, del mismo modo
que descomponer una obra de Shakespeare en palabras y luego esas palabras en
letras del alfabeto no puede explicar los personajes, las emociones y el drama de
la obra.
Podemos ponernos de acuerdo en que un ser humano está vivo. Podemos
también ponernos de acuerdo en que los miles de millones de células que
componen un ser humano están vivas. Pero si examináramos los componentes de
cada una de estas células, ¿podríamos decir que cada uno de sus cromosomas
está vivo? ¿Que cada una de sus proteínas está viva? La respuesta es claramente
no, igual que lo es para todos los átomos que componen todas las proteínas. El
fracaso del reduccionismo[20] en cuanto a conseguir explicar la vida llevó a los
científicos a prestar atención al concepto de emergencia articulado por el filósofo
inglés John Stuart Mill en 1843 y desarrollado posteriormente en centenares de
versiones. En la más sencilla de todas ellas, significa que el todo es más que la
suma de sus partes, del mismo modo que la imagen resultado de un puzle solo
emerge cuando las partes del puzle están organizadas de una manera concreta.
La siguiente definición, que incorpora las tres grandes categorías
relacionadas con las preguntas que esta investigación pretende responder, ofrece
el sentido que yo utilizo del concepto (otros utilizan las mismas palabras para
definir y categoriza de diversas maneras).

Emergencia: la aparición en un todo complejo de una o más propiedades


nuevas que ninguna de sus partes constituyentes presenta.
La «emergencia débil» se da cuando las propiedades nuevas que
aparecen en el nivel superior pueden explicarse por la interacción de las
partes constituyentes.
La «emergencia fuerte» se da cuando las propiedades nuevas que
aparecen en el nivel superior no pueden reducirse ni predecirse a partir de
la interacción de las partes constituyentes.
La «emergencia de sistemas» se da cuando las propiedades nuevas que
aparecen en el nivel superior interactúan causalmente con propiedades de
nivel inferior; esta causalidad descendente, y también ascendente, suele
formar parte de un enfoque sistémico que, en contraste con el enfoque
reduccionista, considera cada componente como una parte
interdependiente del todo.

El científico Francis Crick, abiertamente reduccionista, reconoció que


invocar la emergencia podría ser necesario, aunque reivindicó que con la
emergencia débil bastaría para explicar la vida.

Mientras que es posible que el todo no sea simplemente suma de todas las partes, su conducta
puede, al menos en principio, comprenderse a partir de la naturaleza y la conducta de sus partes
constituyentes más el conocimiento de cómo interactúan dichas partes.[21]

Paul Davies, físico teórico y cosmólogo que dirige actualmente el Center for
Fundamental Concepts in Science de la Universidad de Arizona, aplica esto a la
vida afirmando que:

No encontraremos el secreto de la vida entre los átomos per sé, sino en el patrón que sigue su
asociación, en la forma en que están unidos […]. Los átomos no necesitan ser «animados» para
producir vida, lo que simplemente necesitan es estar dispuestos de una manera compleja y adecuada.
[22]

El neurobiólogo británico, Donald Mackay, por otro lado, desafió la


emergencia débil dentro de este contexto sirviéndose del ejemplo de un panel
publicitario (como los que pueden encontrarse en Times Square, Nueva York)
con bombillas de colores que se encienden y se apagan de una forma
programada para deletrear el mensaje «La vida es mejor con Coca-Cola». Un
ingeniero eléctrico reduciría este sistema a sus componentes y explicaría cómo y
por qué se encienden las distintas luces y cómo se coordina su ritmo de
encendido. Pero entender las interacciones de los distintos componentes
eléctricos no facilita la comprensión, y mucho menos predice, el mensaje de que
beber Coca-Cola te mejora la vida. Para ello se necesita otro nivel de
explicación. Es un ejemplo de emergencia fuerte.[23]
La explicación que Davies da de la vida resulta insuficiente. Los miles de
millones de células de un cuerpo humano no están simplemente dispuestas de
una manera compleja y adecuada; sino que las células interactúan entre ellas y
dependen las unas de las otras para formar un ser humano completo y vivo.
Siguiendo esta lógica, la vida es una propiedad emergente de un sistema
Pero esto no nos dice, sin embargo, qué es esta propiedad emergente. Más
concretamente, cuáles son las características de esta propiedad emergente que
denominamos vida que la diferencian de lo que no es vida.

Características de la vida

Pese a ser algo que intuitivamente parece evidente, los científicos y los
filósofos no consiguen ponerse de acuerdo con respecto a cuáles son las
características de la vida. Casi todos ofrecen un listado. Una o más de las
siguientes características aparecen en la mayoría de esos listados, pero el número
de características incluidas en los distintos listados varía considerablemente.

a) Reproducción.
b) Evolución.
c) Sensibilidad (respuesta al estímulo).
d) Metabolismo.
e) Organización.
f) Complejidad.

Son términos que significan cosas distintas para personas distintas y, por lo
tanto, para decidir si son necesarias o suficientes para definir la vida, es
importante dejar claro lo que significa cada una de estas características.

Reproducción

La reproducción aparece en la mayoría de listas. No es, sin embargo, una


condición suficiente. Si echamos un cristal de sal en una solución salina
saturada, el cristal se reproducirá: se creará un cristal mucho más grande que
reproducirá exactamente la estructura del cristal original.
La reproducción tampoco es una condición necesaria. Las mulas no se
reproducen, tampoco lo hacen las hormigas obreras y muchas variedades de
plantas de jardín, y con todo y con eso están vivas.
Por lo tanto, la reproducción no es una característica suficiente ni necesaria
de la vida.

Evolución

La evolución también aparece en muchas listas, pero es de por sí un concepto


demasiado vago como para resultar útil. La costa evoluciona con el tiempo por la
erosión del mar, el viento y la lluvia, pero nadie considera que la costa esté viva.
Por este motivo, hay quien prefiere utilizar el término «adaptación». Aunque
también podría decirse que una costa se adapta a un entorno cambiante.
El programa Exobiology de la NASA es más preciso y define la vida como
«un sistema químico autosuficiente capaz de experimentar evolución
darwiniana».[24] Pero aun así, muchas especies, como las cianobacterias, los
celacantos y algunos tipos de cocodrilo, tienen varios cientos de millones de
años de existencia y no han experimentado cambios en sus características físicas.
Si una sonda espacial de la NASA estuviera observando la Tierra, ¿cuánto
tiempo esperaría antes de llegar a discernir si los cocodrilos son capaces o no de
experimentar una evolución darwiniana? Ya que los miembros de las especies en
estasis evolutiva están vivos, la evolución por selección natural no es una
característica necesaria ni suficiente para la vida.

Respuesta al estímulo

Un fotómetro responde al haz de luz que se proyecta hacia él y lo hace


registrando un cambio en el número de lúmenes que aparece en su pantalla. Y lo
mismo hacen muchísimos tipos de detectores. De ahí que la sensibilidad no sea
suficiente como característica de la vida.
Una persona en coma profundo o un animal en estado de hibernación podría
no responder a los estímulos, de modo que la sensibilidad no es una
característica necesaria.

Metabolismo

La mayoría de definiciones de metabolismo dicen que consiste en los


procesos bioquímicos que tienen lugar dentro de un organismo vivo. Si un
organismo vivo es necesario para la definición del metabolismo, decir que el
metabolismo es característico de la vida se convierte en un argumento circular.
Si es posible abstraer los procesos de los organismos vivos, podría ser que
esos procesos fueran característicos de la vida (y consideraré algunos intentos
cuando examine más adelante las definiciones más importantes), pero el
metabolismo en sí mismo no tiene sentido como característica de la vida.

Organización

A pesar de que aparece en muchos listados, el término «organización» es


demasiado general para resultar de utilidad. Puede significar la disposición
estática de las partes de un todo, como los iones de un cristal, o la coordinación
activa de elementos separados en un todo sistémico, como la gestión de las
divisiones y el personal de Ford Motor Company. Pero ni un cristal ni Ford
Motord Company suelen considerarse un ser viviente, razón por la cual la
organización no es una característica suficiente de la vida.
Podría decirse que la organización es una condición necesaria de la vida,
aunque también es una condición necesaria de cualquier cosa que no sea un caos.
De ahí que la organización en sí misma no sea una condición necesaria excepto
en un sentido trivial.

Complejidad
La complejidad aparece también en muchos listados y presenta los mismos
inconvenientes que la organización si se utiliza para caracterizar la vida: un
cuerpo muerto y el puente del Golden Gate son complejos, pero ninguno de los
dos está vivo. La complejidad no es una condición suficiente, ni por sí misma
necesaria, excepto en un sentido trivial, puesto que es una condición para
cualquier cosa que no sea absolutamente sencilla.
Si ninguna de estas características es necesaria o suficiente por sí misma,
¿serviría para definir la vida la combinación de dos o más de ellas? Davies
afirma que «las dos características distintivas de los sistemas vivos son la
complejidad y la organización».[25] Aunque esto tampoco nos lleva mucho más
lejos: Ford Motor Company posee las características de complejidad y
organización.
Seis páginas más adelante, Davies dice que:

Lo que sucede [en el metabolismo] es que hay un flujo de energía que recorre el cuerpo. Este flujo
está impulsado por el ordenamiento, o entropía negativa, de la energía consumida. El ingrediente
crucial para mantener la vida es, pues, la entropía negativa.[26]

Lo que creo que quiere decir es que, siguiendo a Prigogine,[27] un flujo de


energía que recorre un sistema vivo mantiene su estructura compleja en un
estado dinámico, aunque estable, alejado del equilibrio termodinámico, en
oposición al principio del aumento de entropía,[28] y que este rasgo
antientrópico es una característica de la vida. Es también una característica de
algunos sistemas no vivos, como los vórtices en los fluidos.[29] Además, la
entropía es una medida del grado de desorden de un sistema aislado; un cuerpo
vivo es un sistema abierto a través del cual fluye energía.

Definiciones de vida

En 2004, Philip Ball, por entonces asesor editorial de Nature, defendió que el
ejercicio de intentar definir la vid no tiene sentido y es una pérdida de tiempo
para filósofos y científicos. Argumentando que no existen fronteras entre lo vivo
y lo no vivo, citaba el caso de los virus. Los virus se reproducen, evolucionan,
están organizados y son complejos (en comparación, por ejemplo, con un
aminoácido), pero son parásitos. Lejos de una célula viva, un virus es inactivo;
solo se vuelve activo cuando encuentra una célula huésped idónea y se apodera
de la maquinaria metabólica de la célula para reproducir nuevas partículas de
virus, que pueden entonces infectar otras células.
Puesto que la actividad de los virus depende de la existencia de una célula
huésped, no pueden considerarse candidatos para el título de primeras formas de
vida que emergieron en la Tierra y, por otro lado, tampoco son formas de vida
independiente. A diferencia del punto de vista de Ball de que «Nadie sabe si
calificar o no a los virus de seres vivos»,[30] la mayoría de fuentes define a los
virus como partículas que son activas o inactivas a diferencia de vivas o muertas.
[31]
Ball apunta también que en Agosto de 2002, Eckard Wimmer y sus colegas
de la State University de Nueva York, observaron la estructura química del
genoma del virus de la polio a través de Internet, ordenaron los segmentos de
material genético de compañías que sintetizan ADN y lo unieron todo para crear
un genoma completo. Cuando lo combinaron con las enzimas adecuadas, este
ADN sintético proporcionó la semilla a partir de la cual crecieron partículas de
virus de la polio. A Ball no le cabe la menor duda de que los biólogos pronto
serán capaces de fabricar cosas como células que en general se consideran vivas,
reforzando con ello su punto de vista de que intentar definir la vida no tiene
sentido.
A pesar de que ir marcando las casillas de un listado de características más o
menos vagas no es en absoluto productivo, no hay que extraer la conclusión de
que no existe distinción entre lo que está vivo y lo que no lo está. Se han
realizado intentos prometedores de definir la vida en términos de un sistema que
interactúa de maneras específicas con su entorno, y a continuación examinaré los
que considero más relevantes. (Resulta interesante el detalle de que uno de ellos
lo presenta un físico teórico, otro un antiguo físico teórico y otro un biólogo
cuya conjetura parte de las bases de la física teórica. La mayoría de biólogos que
trabaja en departamentos universitarios etiquetados como de «Ciencias vivas»,
concentra su trabajo en campos limitados dentro de subespecialidades limitadas
de la biología, como el estudio de vectores retrovirales dentro de la
subespecialidad de la biología molecular, y muestra escaso interés por lo que
define su especialidad dentro de la ciencia).

El sistema auto-organizado de Smolin

El físico teórico Lee Smolin se inspira en las ideas de los sistemas complejos
auto-organizados propuestas por Ilya Prigogine, John Holland, Harold Morowitz,
Per Bak y Sturar Kauffman para construir lo que denomina una teoría en
desarrollo para definir la vida. (En el próximo capítulo consideraré estas ideas,
puesto que afirman poder explicar la aparición de la vida).
Todo ello le lleva a proponer que la vida en la Tierra podría definirse como:

1. Un sistema auto-organizado sin equilibrio


2. Cuyos procesos están gobernados por un programa que simbólicamente
está almacenado en las estructuras del ADN y el ARN (igual que el ADN,
se trata de un ácido nucleico pero que normalmente forma una sola hebra
de nucleótidos[32]) y
3. Que puede reproducirse, incluyendo en esa reproducción su programa.[33]

Sin embargo, los únicos organismos que se reproducen a sí mismos son los
unicelulares. Un animal, por ejemplo, no es capaz de reproducirse a sí mismo ni
de reproducir por sí solo su programa de ADN; es el sexo con una pareja lo que
produce un vástago, que será distintos de sus dos progenitores y que tendrá un
programa de ADN distinto. Y, como se ha apuntado previamente, existen
especies, como las mulas y las hormigas obreras, que no pueden tener
descendencia y satisfacen igualmente los criterios (1) y (2). De ahí, que este
intento no consigue alcanzar su objetivo.

La trama de la vida de Capra


Después de rechazar el reduccionismo como método para explicar la vida, el
antiguo físico teórico, Fritjof Capra, intentó realizar una síntesis de las teorías de
sistemas desarrolladas a partir de las ideas pioneras que el físico, filósofo,
economista y revolucionario ruso, Alexander Bogdanov, presentó antes de la
Primera Guerra Mundial (a pesar de que Occidente no estuvo al corriente de las
mismas hasta mucho después), las propuestas de auto-organización en las que se
basó Smolin, los patrones cibernéticos de causalidad circular en las que se basa
el concepto de retroalimentación, y las matemáticas de la complejidad, para
proponer una «teoría emergente» (que tal vez sería mejor etiquetar como
hipótesis en desarrollo) de la vida. El trabajo de los neurocientíficos chilenos
Jumberto Maturana y Francisco Varela ejerció asimismo una gran influencia
sobre su pensamiento.[34]
Capra defiende que los sistemas vivos se definen mediante tres criterios
completamente interdependientes: patrón de organización, estructura y proceso
vital.

Patrón de organización

El patrón de organización es la configuración de relaciones que determina las


características esenciales del sistema; para un ser vivo, ese patrón es la
autopoiesis. Etimológicamente, el término significa «hacerse a sí mismo» o
«autoproducción», pero Capra utiliza la definición sugerida por Maturana y
Varela en 1973 de un «patrón en red en el que la función de cada componente
consiste en participar en la producción y transformación de los demás
componentes de la red, de tal modo que se mantenga en todo momento la
circularidad general de la misma».[35] A mi entender, se refiere básicamente a
una red cerrada de procesos que se mantiene a sí misma continuamente.

Estructura

La estructura es la corporeización personificación física del patrón de


organización del sistema. En el caso de un ser vivo, se trata de una estructura
disipativa, tal y como la define Prigogine, es decir, un sistema que se mantiene
en un estado estable alejado del equilibrio termodinámico por un flujo de
energía. Y mientras que una red autopoiética es cerrada desde el punto de vista
organizativo, es abierta desde el punto de vista estructural porque la materia y la
energía fluyen constantemente por ella.

Proceso vital

El proceso vital es la actividad implicada en la corporeización continua de un


patrón de organización autopoiético en una estructura disipativa; es la cognición,
tal y como la definió en la década de 1970 el antropólogo, lingüista y
especialista en cibernética Gregory Bateson y, más extensamente, Maturana y
Varela, es decir, el proceso de conocer.
La autopoiesis y la cognición son, pues, dos aspectos distintos del mismo
fenómeno vital: todos los sistemas vivos son sistemas cognitivos y la cognición
siempre implica la existencia de una red autopoiética.
Capra defiende que la autopoiesis es la característica definitoria de la vida.
Pero esto presenta un problema, puesto que Maturana y Varela utilizan la jerga
de las teorías generales de sistemas, junto con modelos matemáticos para
producir una descripción abstracta y generalizada de lo que consideran el
sistema vivo más simple, la célula. A pesar de que considero importante evitar
características que son tan específicas que producen argumentos circulares
(como sucede con el «metabolismo»), Maturana y Varela utilizan la autopoiesis
de un modo tan abstracto que la definen como la característica invariable de un
sistema vivo y sin hacer referencia a cosas como la función o el propósito.
Afirman que la conducta de un sistema es algo adscrito al mismo por alguien que
observa su interacción con su entorno y que no es característica del sistema en sí.
Sin embargo, si una interacción concreta de un sistema con su entorno se
produce invariablemente, se tratará, sin lugar a dudas, de una característica de
ese sistema. Según las descripciones de Maturana y Varela, una interacción
invariable de un sistema autopoiético con su entorno es aquella que tiene como
finalidad reparar y mantener el sistema. Sin esta finalidad, u objetivo, la entidad
viva muere.
Ausencia de finalidad

La ausencia de finalidad como característica de las cosas vivas está extendida


entre los científicos; rara es la vez, si alguna, que tener una finalidad aparece en
sus listados. Hay científicos que parecen confundir teología con teleología (la
explicación de los hechos en términos de finalidad) y temen mencionar una
finalidad por miedo a que alguien los acuse de insinuar con ello la existencia de
un creador divino que diseña dicha finalidad. Ni mucho menos. Otros eluden el
término porque, normalmente, una finalidad implica una intención. De hecho,
los actos de los animales son intencionados: el lector que gira las páginas de este
libro para leer su contenido, el halcón que se abalanza en picado para cazar un
ratón. Sin embargo, los actos de las formas de vida más primitivas, como la
planta que abre sus hojas a la luz del sol para generar energía mediante
fotosíntesis o la bacteria que nada hacia una fuente de comida, se consideran en
general como respuestas a los estímulos, instintivas o internamente dirigidas, y
no actos intencionados. De ahí que probablemente sea mejor utilizar la expresión
«acto internamente dirigido» como característica de todas las formas de vida; no
existe ninguna ley física o química que diga que usted, el halcón, la bacteria o la
planta tendría que actuar de una determinada manera y no existe ningún ser no
vivo, como el agua o una piedra, que lleve a cabo actos dirigidos internamente.

La vida cuántica de McFadden

Johnjoe McFadden, profesor de Genética molecular de la Universidad de


Surrey, Inglaterra, es uno de los científicos que no elude esta característica. De
hecho, define la vida como la capacidad de realizar actos dirigidos contra fuerzas
exteriores dominantes.
En apoyo a su propuesta cita, entre otros ejemplos, un salmón que nada
contra la corriente de las aguas inanimadas de un río bajo la fuerza de la
gravedad porque el salmón tiene la finalidad de llegar a su zona de desove río
arriba.
La vida, sugiere McFadden, desafía el determinismo, el principio que es la
base de la mecánica newtoniana y que dice que el estado presente o futuro de
cualquier sistema está única y exclusivamente determinado por su pasado: si
conocemos la configuración exacta de cualquier sistema y le aplicamos al mismo
las leyes de la física y de la química, podremos calcular su conducta futura. Pero
no podemos explicar la vida solo a través de la ciencia clásica, que es incapaz de
explicar cómo las criaturas vivas pueden dirigir sus actos según los dictados de
su agenda interna, como hace el salmón.
Su solución no consiste en invocar un creador divino que infunde una
finalidad a los seres vivos, sino en proponer que lo que explica cómo es posible
que los seres vivos actúen al contrario de lo que indican las leyes clásicas de la
naturaleza es el movimiento de las partículas fundamentales, que está regido por
las leyes no deterministas de la teoría cuántica.[36]
Consideraré esta idea con mayor detalle en el próximo capítulo, puesto que
McFadden continúa en sus propuestas y presenta una teoría cuántica de la
aparición y la evolución de la vida.

Definición funcional de vida

Para comprender cómo apareció la vida a partir de los átomos y las


moléculas que constituyeron la Tierra, necesitamos tener claro qué es la vida.
Como hemos visto, llegar a una definición razonable no es ni mucho menos fácil
y ni científicos ni filósofos se ponen de acuerdo al respecto. La definición
funcional que propongo es la siguiente:

Vida: la capacidad de una entidad cerrada de responder a los cambios que


se producen dentro de sí misma y en su entorno, de extraer energía y
materia de su entorno y de convertir esa energía y esa materia en una
actividad dirigida internamente que incluya el mantenimiento de su
propia existencia.

Una forma de vida puede tener capacidad para producir descendientes, pero
no es una característica necesaria.
Conclusiones

Esta definición rechaza el argumento de que no existe distinción entre lo que


está vivo y lo que no lo está: las cosas que no están vivas no son necesariamente
cerradas y no poseen las funciones características y la actividad dirigida
internamente de las cosas vivas. El hecho de que la frontera entre una cosa y otra
sea muy difusa, como sucede en el caso un virus, no implica que esa frontera no
exista. El cambio de lo no vivo a lo vivo representa no solo una simple
diferencia de grado, sino una diferencia de tipo. Se trata de una diferencia
cualitativa, análoga a un cambio de fase, del mismo modo que el agua en estado
gaseoso es cualitativamente distinta del agua en estado líquido y no es
simplemente agua más caliente, por mucho que la superficie con burbujas del
agua hirviendo no sea una frontera clara.
Cómo y cuándo tuvo lugar este cambio es algo que examinaré en el siguiente
capítulo.
[1]Nagler (1987), p. 265.
[2]Upanishads (1987), pp. 155–172.
[3]Nagler (1987), p. 265.
[4]Moira Yip, profesora de Fonética y lingüística del University College de Londres, comunicación
personal, 28 de enero de 2008.
[5]Gottlieb (2001), pp. 13–14.
[6]Ibid, p. 311.
[7]Ibid, pp. 230–239; «Vitalism», The Oxford Dictionary of Philosophy, Oxford University Press,
Oxford, 2005
[8]Bechtel, William y Richardson, Robert C., «Vitalism», Routledge Encyclopedia of Philosophy
editada por E. Craig, Routledge, Londres, 1998.
[9]Krieger (1993), p. 7.
[10]Krieger, Dolores, «Therapeutic Touch: The Imprimatur of Nursing», The American Journal of
Nursing 75: 5, 1975, pp. 784–787.
[11]Gordon, A., et al., «The Effects of Therapeutic Touch on Patients with Osteoarthritis of the Knee»,
J Fam Pract, 47: 4, 1998, 271–277.
[12]Rosa, Linda, et al., «A Close Look at Therapeutic Touch», JAMA, 279: 13, 1998, pp. 1005–1010.
[13]Bohm (1980).
[14] Véase página 95.
[15]Laszlo (2006).
[16]Sheldrake (2009).
[17]Maddox, John, «A Book for Burning?», Nature, 293, 1981, pp. 245–246.
[18]Stenger, Victor J., «Bioenergetic Fields», The Scientific Review of Alternative Medicine, 3, 1991, p.
1
[19]Wilson (1998), p. 58.
[20] Utilizo el término «reduccionismo» en su sentido científico y no hago referencia a ninguna versión
del reduccionismo metafísico.
[21]Crick (1995). p. 11.
[22]Davies (1990), p. 61.
[23]Citado por ibíd, pp. 61–62.
[24]Citado en McFadden (2000), p. 13.
[25]Davies (1990), p. 59,
[26]Ibíd, p. 65.
[27] Véase página 248.
[28] Véase página 247.
[29] Véase página 247.
[30]Ball, Philip, «What Is Life? Can We Make It?», Prospect, agosto, 2004, pp. 50–54.
[31]Véanse, por ejemplo, las definiciones de virus que aparecen en Gale Genetics Encyclopedia, 2003;
McGraw-Hill Science and Technology Encyclopedia, 2005; Columbia Electronic Encyclopedia. Consultado
el 31 de Julio de 2008.
[32] Véase página 354 para su definición.
[33]Smolin (1998), p. 194.
[34]Capra (1997).
[35]Ibíd, p. 96.
[36]McFadden (2000), pp. 13–16.
CAPÍTULO 14. EL ORIGEN DE LA VIDA 1:
EVIDENCIAS

Observando el desarrollo de las cosas desde su origen […] se obtendrá la visión más clara.

ARISTÓTELES, SIGLO IV A. C.

Intentaré establecer cómo se originó la vida en la Tierra examinando las


evidencias de las primeras formas de vida que aparecieron en ella,
independientemente de si la vida se inició como un fenómeno único en la Tierra
—de ser este el caso, todas las formas de vida actuales serían descendientes de
un antepasado común— o si distintas formas de vida se iniciaron en distintos
lugares y en distintos momentos, y cuáles son las características de estas
primeras formas de vida. En el capítulo siguiente, evaluaré las muchas hipótesis
que se han propuesto para explicar cómo se originaron estas formas de vida a
partir de una Tierra inanimada.

Evidencias directas

A pesar de que no existe una definición aceptada por todos sobre lo qué es la
vida, la mayoría de científicos se muestra de acuerdo en que las primeras formas
de vida debieron de ser las más sencillas. La primera de ellas fue una procariota
autosuficiente, una célula cuyo material genético no está encerrado en un núcleo.
Biólogos y geólogos buscan evidencias de estas formas de vida a partir de dos
fuentes: los fósiles y los extremófilos, organismos que actualmente viven en las
condiciones extremas que se consideran semejantes a las de la Tierra primitiva.
Fósiles

Los fósiles son los restos mineralizados o conservados de distintas formas de


vida. Normalmente se encuentran en rocas sedimentarias, aunque las
temperaturas muy bajas, la desecación o un ambiente anóxico (sin oxígeno)
podría haber evitado también su descomposición.
Los científicos que intentan localizar los fósiles más antiguos se enfrentan
con dos problemas. En primer lugar, hay muy pocos organismos fosilizados: en
su mayoría han sido devorados —vivos o muertos— por otros organismos o se
han descompuesto después de su muerte. En segundo lugar, los escasos fósiles
que han llegado hasta nosotros se formaron cuando los sedimentos —arena o
barro, por ejemplo— cubrieron rápidamente el organismo después de su muerte,
es decir, lo comprimieron e integraron con la roca sedimentaria. Pero apenas
tenemos rocas sedimentarias de los primeros mil millones de años de existencia
de la Tierra y las que han llegado hasta nosotros están metamorfoseadas por
procesos que suelen destruir prácticamente por completo cualquier resto fósil.
Hasta 1993, las evidencias más tempranas eran las que se encuentran en las
capas de chert —una roca sedimentaria de grano fino—, de la cordillera de
Gunflint, en la región occidental de Ontario, Canadá. Entre 1953 y 1965, el
botánico Elso Barghoorn, de la Universidad de Harvard, y el geólogo Stanley
Tyler, de la Universidad de Wisconsin, descubrieron fósiles estructuralmente
bien conservados y con morfología bien definida de doce nuevas especies,
incluyendo entre ellas microorganismos ramificados complejos cuya antigüedad,
determinada por la datación radiométrica de las capas de chert, se estableció en
torno a los dos mil millones de años.[1] Si estas estructuras complejas son la
evolución de formas de vida más simples, se deduce que la vida empezó a existir
en un momento más temprano.
Bill Schopf, paleobiólogo de la Universidad de California, Los Angeles, se
propuso descubrir estas formas de vida más antiguas investigando las rocas
sedimentarias del cratón de Pilbara, en el oeste de Australia, que, según una
datación radiométrica uranio-plomo muy precisa, tenían 3.465 miles de millones
de años de antigüedad. Dichas rocas habían sufrido metamorfosis, pero en 1993
el científico anunció que había descubierto once microfósiles con estructuras
distintas pertenecientes a distintas especies de cianobacterias (bacterias
verdeazuladas clasificadas previamente como algas). Sustentó su afirmación con
el análisis del contenido en isótopos de carbono de los fósiles. Se trata de una
técnica similar al método de datación con radiocarbono descrito previamente.[2]
El isótopo más común, el carbono-12, es más reactivo que el carbono-13 y
participa en la fotosíntesis, proceso por el cual los organismos metabolizan el
dióxido de carbono de la atmósfera para transformarlo en carbono orgánico. En
consecuencia, la proporción entre carbono-13 y carbono-12 en el carbono
biogénico es un tres por ciento inferior que en el carbono inorgánico, y esta
proporción se conserva a lo largo de los procesos metamórficos que destruyen
los microfósiles. Schopf declaró que los ejemplares que había descubierto
mostraban esta proporción tan característica.[3]
El anuncio causó sensación en su momento. Lo que aquello implicaba era
que incluso antes de lo que se imaginaba habían existido formas de vida menos
complejas. La datación las situaba a finales del eón hádico, cuando la tierra
estaba siendo bombardeada por asteroides y otros desechos de la formación
planetaria.
Se abrió entonces la veda para buscar evidencias. Stephen Mojzsis,
estudiante de doctorado del Scripps Institution of Oceanography de la
Universidad de California, San Diego, viajó al cinturón de Isua, en el oeste de
Groenlandia, que contenía unas rocas que habían sido datadas con una
antigüedad de 3,8 miles de millones de años. Las rocas habían sufrido un
proceso de metamorfosis mayor incluso que las de Pilbara. Se estimaba que a lo
largo de mil millones de años de deposición de sedimentos, las rocas se habían
visto sujetas a temperaturas de 500º Celsius y a presiones superiores a 5.000
atmósferas, lo que en teoría tendría que haber destruido cualquier fósil. Pero
Mojzsis y su equipo anunciaron en 1996 que habían encontrado evidencias de
vida no solo en aquellas rocas, sino también en rocas 50 millones de años más
antiguas de la cercana isla de Akilia, lo que situaba las primeras evidencias de
vida hace 3,85 miles de millones de años, dentro del eón hádico.
Las trazas de carbono consistían en glóbulos increíblemente minúsculos —de
una billonésima de gramo—, pero Mojzsis decidió analizarlos mediante una
microsonda de iones y calculó su composición isotópica con un espectrómetro
de masas de sector magnético. Las pruebas delataron la característica reducción
de carbono-13. Además de esto, el equipo había encontrado estas trazas de
carbono incrustadas en granos de apatita; a pesar de ser un mineral común en
pequeñas cantidades en muchas rocas, se encuentra también en organismos, de
modo que las evidencias sugerían la presencia de vida por partida doble.[4]
A pesar de las muchas preguntas suscitadas por la edad de la roca Akilia,
durante seis años los paleobiólogos aceptaron la evidencia de que se había
detectado vida durante el eón hádico.
Pero en 2002, Christopher Fedo, del departamento de Ciencias
medioambientales y de la tierra, de la George Washington University, y Martin
Whitehouse, del laboratorio de Geología isotópica del Museo de Historia natural
de Suecia, desafiaron la afirmación de Mojzsis de que el descubrimiento de
carbono se había realizado en capas de una roca sedimentaria conocida como
formación de hierro bandeado. Su análisis de la roca llegaba a la conclusión de
que era ígnea, formada a partir de antigua actividad volcánica y, en
consecuencia, no podía contener reliquias orgánicas. El desafío daba a entender
también que no podía asumirse que la disminución de carbono-13 fuera debida
única y exclusivamente a la actividad biológica.[5] Mojzsis y sus colegas
desafiaron entonces los datos de Fedo y Whitehouse y la interpretación que
habían hecho de los mismos.[6]
Aquel mismo año, Martin Brasier y sus colegas de la Universidad de Oxford
anunciaron que habían examinado con detalle las muestras de Schopf, y que la
afirmación de Schopf de que la morfología de los ejemplares que había
descubierto indicaba indiscutiblemente que se trataba de células no era válida y
mucho menos que fueran cianobacterias. Brasier sostenía que los glóbulos de
carbono debían de haberse formado por la acción del agua hirviente sobre los
minerales del sedimento circundante.[7] Schopf defendió su posición, pero sus
argumentos quedaron debilitados por las declaraciones de la estudiante que había
colaborado en su día en la investigación, Bonnie Packer, que adujo que Schopf
había sido selectivo a la hora de presentar evidencias y que había ignorado sus
protestas al respecto.[8]
En 2006 y 2007, el equipo de Mojzsis que había trabajado en la isla de Akilia
respondió a las críticas, pero el punto de vista generalizado entre los científicos
interdisciplinarios que trabajan en este campo es que las evidencias no sostienen
hasta el momento la afirmación de que los primeros rastros de vida en la Tierra
se remonten a 3,85 miles de millones de años. Las evidencias actuales solo
sustentan la hipótesis de que los organismos conocidos como extremófilos
existían hace aproximadamente 3,5 miles de millones de años, es decir, alrededor
de mil millones de años después de la formación de la Tierra.

Extremófilos

El anuncio de Mojzsis de que había encontrado indicios de vida en el periodo


correspondiente al último bombardeo de asteroides y otros desechos debilitó el
interés por el estudio de los extremófilos. Cuatro de ellos nos ofrecen pistas
prometedoras sobre los organismos que podrían haber existido en las
condiciones extremas de aquel periodo. Se trata de los termófilos de superficie,
los termófilos sub-oceánicos, los acidófilos de cueva y los termófilos
subterráneos.

Termófilos de superficie

Los termófilos son organismos que viven en temperaturas muy elevadas. En


1967, el microbiólogo Thomas Brock, de la Universidad de Wisconsin, aisló
algas y bacterias en la capa de desechos calientes que flotaba sobre la superficie
del agua de un manantial volcánico del parque nacional de Yellowstone,
Wyoming, donde el agua de lluvia que se filtra a través de las rocas de la
superficie se combina con el magma caliente del interior y emerge al exterior en
forma de agua y vapor a temperaturas elevadísimas para formar lagunas
calientes.

Termófilos sub-oceánicos

Explorando el fondo oceánico del Pacífico a bordo de una campana de buceo


especialmente construida para este fin, el geólogo John Corliss, de la Oregon
State University, y el geoquímico marino John Edmond, del Massachusetts
Institute of Technology, descubrieron en 1979 anémonas de mar, mejillones,
almejas gigantes, langostas en miniatura y unos peces de color rosa con ojos
saltones parecidos a pequeñas serpientes viviendo en la más absoluta oscuridad y
bajo una presión inmensa en las aguas relativamente frías que rodean
emanaciones de agua calentada hasta 400º Celsius por el magma de la fosa de las
Galápagos, a unos 2.500 metros por debajo de la superficie.[9] En las paredes
calientes con lava incrustada de las chimeneas volcánicas pueden crecer
bacterias a temperaturas incluso de 121º Celsius.[10] A falta de luz de sol,
extraen la energía para subsistir del sulfuro de hidrógeno.

Acidófilos de cueva

Un acidófilo es un organismo que vive en condiciones de acidez elevada. En


la primera década del siglo XXI, Diana Northup, del departamento de Biología de
la Universidad de Nuevo México, y Penny Boston, del departamento de Ciencias
medioambientales y de la tierra del New Mexico Institute of Mining and
Technology, examinaron la cueva de Villa Luz, cerca de Tabasco, México. Había
una atmósfera nociva, con concentraciones elevadas de monóxido de carbono,
un potente olor a sulfuro de hidrógeno y las paredes empapadas con un ácido
sulfúrico tan fuerte como el ácido de una batería. Colgadas del techo de la cueva,
como si fueran estalactitas, encontraron colonias de unas bacterias conocidas
como snottites, llamadas así porque tienen la consistencia de un moco («snnot»,
en inglés). Las evidencias genéticas sugieren que estas snottites son antiguas.
Extraen su energía de la quimiosíntesis de los componentes sulfurosos
volcánicos y de las gotas de ácido sulfúrico caliente.[11]
El hecho de que las condiciones de la cueva recuerden las que se cree que
existían en la Tierra en sus orígenes, ha llevado a algunos microbiólogos a
sugerir que representan las formas de vida más primitivas.

Termófilos subterráneos

Independientemente de que se trate de termófilos sub-oceánicos, termófilos


de superficie o acidófilos de cueva, su parecido con las primeras formas de vida
de la Tierra es debatible. Por lo que a los primeros se refiere, depende de cuándo
empezaron a existir en la Tierra los océanos profundos. Tanto la propuesta de
hace 4,3 miles de millones de años que defiende Mojzsis, como la de hace 4,35
miles de millones de años que defienden Watson y Harrison ha quedado en
entredicho.[12]
James Hall, microbiólogo de la Princeton University, cree que los termófilos
de superficie y los acidófilos de cueva no podrían haber sobrevivido el último
gran bombardeo de asteroides y que representan una segunda generación de
vida. Tanto él como otros especialistas del nuevo campo científico de la
geomicrobiología (que aúna los conocimientos de la geología, la geofísica, la
hidrología, la geoquímica, la bioquímica y la microbiología) han volcado su
investigación en las profundidades subterráneas, donde la vida habría quedado
protegida de los impactos.
Obtienen sus evidencias aprovechando prospecciones petrolíferas y pozos
mineros. Estos últimos son los que les han proporcionado las fuentes mejores y
de mayor profundidad. En 2006, por ejemplo, Tullis Onstott, geocientífico de la
Universidad de Princeton, lideró un equipo multidisciplinario que acompañó a
un grupo de ingenieros de minas en la perforación de una roca de 2,7 miles de
millones de años de antigüedad hasta 2,825 metros de profundidad en la mina de
oro de Mponeng, en el West Rand sudafricano. Cuando la perforadora impactó
contra unas fisuras en las rocas, emergió agua salada con un olor muy fuerte y
que contenía microbios termofílicos que murieron al entrar en contacto con el
oxígeno. En vez de obtener su energía de la luz del sol, conservaban su
existencia gracias a la descomposición que sufría el agua como consecuencia de
la desintegración radiactiva del uranio, el torio y el potasio. Su metabolismo era
considerablemente más lento, y a buen seguro menos eficiente, que el de los
microbios de superficie. Los análisis del agua demostraron que llevaba muchos
millones de años aislada de la superficie y que los hidrocarburos del ambiente no
provienen de los organismos vivos, como es habitual.[13]
A pesar de que los análisis genéticos indican que algunos de estos
extremófilos son antiguos, esto no constituye una prueba empírica de que dichas
formas de vida existiesen en las condiciones extremas que se cree que reinaban
durante el eón hádico, que se expande durante unos 700 millones de años
después de que la Tierra se formara, hace 4,5 miles de millones de años.
También es posible que evolucionaran a partir de otras formas de vida,
adaptándose a los ambientes de elevadas temperaturas, alta acidez, fuertes
presiones y ausencia de luz solar que se desarrollaron cerca de las chimeneas de
magma a medida que los océanos ganaron profundidad y hasta donde fueron
transportados por las corrientes de agua.

Evidencias indirectas

A falta de evidencias empíricas irrefutables, volcaré mi atención a las


hipótesis sobre los inicios de la vida en la Tierra y sobre si la vida tal y como la
conocemos en la actualidad tuvo un solo antepasado o si se originaron diferentes
formas de vida.
Varios científicos han sugerido que la vida pudo empezar distintas veces y
que los bombardeos de asteroides terminaron con aquellas formas de vida. Sin el
mínimo fragmento de evidencia que apoye estas ideas, se quedan en pura
especulación; además, ninguna de ellas aborda el tema de si cualquiera de estos
múltiples inicios fue a partir de antepasados comunes idénticos o distintos.

Análisis genéticos

Carl Woese, de la Universidad de Illinois, descubrió que los genes que


codifican el ARN de los ribosomas (las unidades de la célula que fabrican las
proteínas) son antiguos y existen en todo tipo de organismos. En 1977, publicó el
análisis genético de pequeñas subunidades ribosomales de ARN de un amplio
abanico de células y las clasificó según su similitud molecular. Asumiendo que
las diferencias representaban un cambio evolutivo, declaró que el árbol
genealógico genético resultante describe los linajes evolutivos de manera más
precisa que el registro fósil incompleto o los puntos de vista subjetivos acerca
del tamaño y la forma de los organismos.[14]
La figura 14.1 muestra la versión actualizada por el biólogo molecular
Norman Pace del árbol filogenético de Woese, agrupando las células en tres
dominios.

Distintos autores utilizan nombres distintos para estos tres grupos de formas
de vida. Siguiendo el trabajo pionero de Woese, los nombres que aparecen en el
diagrama fueron adoptados para distinguir con claridad entre los dos tipos de
procariotas, los dominios Arqueas y Bacterias, y los utilizaré por el bien de la
consistencia; recientemente, sin embargo, biólogos evolutivos han retomado los
nombres originales de arqueobacterias y eubacterias teniendo en cuenta los
análisis de genomas completos que consideraré más adelante.

Bacterias: organismos unicelulares extremadamente pequeños cuya


información genética, codificada en un bucle de ADN de doble hebra, no
queda encerrada en un núcleo delimitado por una membrana (y por lo
tanto son procariotas). Además de este nucleoide, la célula puede incluir
uno o más plásmidos, hebras circulares de ADN capaces de replicarse
independientemente y que no son responsables de la reproducción del
organismo. Suelen reproducirse dividiéndose en dos y produciendo copias
idénticas de sí mismas. Presentan diversas formas, destacando entre ellas
las esferas, las barras, las espirales y las comas.

Arqueas: procariotas que se diferencian de las bacterias tanto en su


composición genética como en la de sus membranas plasmáticas y sus
paredes celulares. Incluyen la mayoría de los extremófilos. A pesar de ser
estructuralmente similares a las bacterias, su ADN cromosómico y su
maquinaria celular se parecen más a los de las eukarya.

Eucariotas: organismos cuyas células incorporan un núcleo delimitado


por una membrana y que contiene la información genética de la célula,
además de orgánulos, que son estructuras discretas que realizan funciones
concretas. Más grandes y tanto estructural como funcionalmente más
complejas que las procariotas, comprenden organismos unicelulares,
como las amebas, y todos los organismos multicelulares, como las
plantas, los animales y el ser humano.
La mayoría de células eucariotas se replica para producir copias
idénticas de sí mismas. Sin embargo, los organismos multicelulares
comprenden un tipo de célula eucariota, el gameto, capaz de fusionarse
con un gameto de otro organismo para producir un organismo hijo que
posee características genéticas de cada progenitor. Esta reproducción
sexual, pues, combina genes parentales distintos en una célula hija, a
diferencia de la reproducción asexual de las procariotas.

¿Antepasado universal común?

Prácticamente todos nuestros conocimientos de biología derivan del análisis


de las plantas, los animales y el hombre. En el árbol filogenético universal que
acabamos de mostrar, sin embargo, los hongos representados por el género
Coprinus, las plantas representadas por el género Zea, y los animales y el
hombre representados por el género Homo, no son más que tres sub-ramas
pequeñas y periféricas de unas de las doce ramas genéticamente diferenciadas de
las Eucariotas (algunas de las cuales poseen también sub-ramas), separadas de
las mucho más numerosas ramas del dominio de las Bacterias y las Arqueas.
Los organismos vivos que conocemos actualmente solo tienen en común un
centenar de genes, pero los análisis que permiten apreciar pérdidas de genes
específicos de cada linaje sugieren la existencia de un último antepasado
universal común (LUCA, del inglés «Last Universal Common Ancestor»),
indicado como «Raíz» en el diagrama, que tal vez poseyera diez veces más
genes que eso.[15]
La naturaleza de LUCA sigue siendo tema de discusión entre los biólogos
especializados en la evolución. La conclusión de Woese es que:

El antepasado no puede haber sido un organismo concreto […]. Fue una conglomeración
comunitaria, poco cohesionada y diversa, de células primitivas que evolucionó como unidad y que
acabó desarrollándose hasta alcanzar una fase en la que se disgregó en varias comunidades distintas,
que a su vez se convirtieron en las tres principales líneas de descendencia [bacterias, arqueas y
eucariotas].[16]

Desde principios del siglo XXI se han descubierto importantes transferencias


genéticas de carácter horizontal (conocidas también como transferencias
genéticas laterales) no solo entre procariotas relacionadas, sino también entre
procariotas que no están estrechamente relacionadas en los árboles filogenéticos.
[17]
En 2009, varios biólogos especializados en la evolución propusieron que no
existía un antepasado universal común, sino que la vida emergió como «una
población o poblaciones con diversos organismos. Y además es probable que
estos organismos no convivieran en el mismo periodo de tiempo».[18]
Por lo que a la aparición de la vida se refiere, el problema que presenta la
idea de una población es que si cada miembro de esa población es un organismo,
es decir, una forma de vida tal y como la entendemos y conforme con la
definición de vida propuesta en la página 333, esta teoría no nos dice a partir de
qué o cómo apareció cada uno de esos miembros; si los distintos miembros no
son formas de vida independientes, la idea de la población refuerza la conclusión
alcanzada en el capítulo 13 de que la frontera entre lo que está vivo y lo que no
lo está es difusa; y una frontera, por difusa que sea, sigue siendo una frontera.
En 2010, el bioinformático Douglas Theobald, de la Brandeis University,
realizó una comparación estadística de diversas hipótesis alternativas y llegó a la
conclusión de que

Los test de selección de modelo apoyan abrumadoramente un antepasado universal común,


independientemente de la presencia de transferencia horizontal de genes y de eventos de fusión
simbiótica.[19]

Lo cual refuerza la opinión de la ortodoxia actual en el campo de la biología


de que la vida emergió en la Tierra una sola vez y de que existe un único
antepasado común, aunque los biólogos moleculares pugnan por situar este
único antepasado común en el árbol genealógico y por comprender cómo se
relacionan con él los tres grandes grupos. El consenso actual, que no por ello es
unánime, es que la raíz se sitúa entre las Arqueas y las Bacteria.
El hecho de que algunas arqueas sean extremófilos que viven en las
condiciones que se cree que había en la Tierra hace 3,5 miles de millones de
años y que su genoma dé a entender que son muy antiguos, sugiere que la
primera forma de vida podría haber sido un arqueón o un antepasado de un
arqueón. El especialista en taxonomía de la Universidad de Oxford, Tom
Cavalier-Smith, se opone con vigor a este punto de vista y afirma que la
maquinaria celular de las Arqueas muestra que son descendientes lejanos de las
Bacterias.[20] Las evidencias no son en absoluto concluyentes y es poco
probable que lleguen a serlo algún día.

Tamaño, complejidad, estructura y funcionamiento de la célula más sencilla

Para poder evaluar las ideas sobre cómo apareció la vida en la Tierra,
debemos antes comprender, por un lado, las diferencias de tamaño, complejidad,
estructura y funcionamiento de las moléculas que evolucionaron sobre la
superficie de la Tierra primitiva, o que evolucionaron en los asteroides y cometas
que las depositaron en la superficie de la Tierra durante el bombardeo y, por el
otro, el tamaño, la complejidad, la estructura y el funcionamiento de la forma de
vida independiente más sencilla que conocemos, a saber, una procariota
unicelular.

Tamaño

Las procariotas tienen entre una milésima y una centésima de milímetro de


longitud y se presentan de diversas formas, incluyendo entre ellas esferas, barras,
espirales y comas.

Componentes y estructura

La figura 14.2 muestra los componentes y la estructura de una bacteria


simple, que son las mismas que las de un arqueón (sus diferencias bioquímicas y
estereoquímicas no tienen por qué preocuparnos aquí.)

Si examinamos las partes de esta célula y cómo interactúan entre ellas,


veremos que la clave del funcionamiento de una forma tan simple como esta es
su ADN.
ADN

ADN: ácido desoxirribonucleico, localizado en las células, contiene las


instrucciones genéticas utilizadas para el mantenimiento y la
reproducción de todos los organismos independientes conocidos y de
algunos virus.
Una molécula de ADN está formada por dos largas cadenas con
cuatro nucleótidos dispuestos en una secuencia característica; las cadenas
(denominadas comúnmente «hebras») están trenzadas en una doble hélice
y unidas mediante enlaces de hidrógeno entre las bases complementarias
de adenina (A) y timina (T) o citosina (C) y guanina (G), de tal modo que
su estructura recuerda la de una escalera de caracol.
Cuando se copia el ADN en una célula, las hebras se separan y actúan
a modo de plantilla para unir una nueva cadena complementaria a partir
de las moléculas de la célula.
Las hebras de ADN actúan también como plantillas para la síntesis de
proteínas en la célula a través de un mecanismo que utiliza otro ácido
nucleico, el ARN, como intermediario.

ARN: el ácido ribonucleico se parece al ADN porque consiste en una


cadena de cuatro nucleótidos dispuestos en una secuencia característica,
pero aquí el uracilo (U) sustituye a la timina (T) que, junto con la adenina
(A), la citosina (C) y la guanina (G) forman las bases de los nucleótidos,
y las hebras son únicas, excepto en determinados virus.

Gen: la unidad fundamental de la herencia, que normalmente comprende


segmentos de ADN (en algunos virus son segmentos de ARN, no de
ADN); la secuencia de las bases de cada gen determina las características
hereditarias individuales, codificando para la síntesis de proteínas. Los
segmentos suelen estar dispersos, de modo que algunas partes se
encuentran en regiones lejanas del cromosoma y se solapan con otros
genes.
Cromosoma: es la estructura que contiene la información genética de la
célula. En una célula eucariota, consiste en hebras filiformes de ADN
envueltas en una doble hélice alrededor de un núcleo de proteínas dentro
del núcleo de la célula; además de este cromosoma nuclear, la célula
puede contener otros cromosomas más pequeños, por ejemplo, una
mitocondria. En una célula procariota, consiste en un único bucle de
ADN estrechamente enrollado; la célula puede contener también una o
más moléculas circulares y más pequeñas de ADN, lo que se conoce
como plásmidos.

En el arqueón o bacteria más simple, el cromosoma suele adoptar la forma de


un único bucle de ADN de doble hebra que se dobla para poder ubicarse en la
célula, como muestra la figura 14.2.

El físico, químico y filósofo Michael Polany señaló que mientras que la


capacidad de establecer pares de base del ADN (A-T y C-G) está totalmente
determinada por las leyes de la química, la secuencia de base del ADN no lo
está. El ADN es capaz de formar cualquier secuencia de bases concebible, de
cualquier longitud y de cualquier composición. La información que determina
cómo funciona una célula, como se repara y como se replica está contenida en
cada secuencia concreta y es irreducible: no puede predecirse a partir del
conocimiento de sus partes constituyentes, ni a partir del comportamiento de
estas, ni a partir de las leyes de la física y la química.[21]
El hipotético antepasado común tenía probablemente entre 800 y 1.000
genes. La bacteria Mycoplasma genitalium tiene unos 470 genes, que incluyen
en torno a 580.000 pares de base de ADN. Pero se trata de un parásito que
depende de otras células para llevar a cabo la mayor parte de su trabajo de
biosíntesis. De ahí que sea razonable suponer que, para funcionar de manera
independiente, esa célula más simple que debió de ser el antepasado común
debería de haber tenido al menos 600.000 pares de base de ADN. Como que
cada base forma parte de un nucleótido que incluye la base, un azúcar, y uno o
más grupos de fosfatos, lo que hace un total de un mínimo de 30 átomos, su
cromosoma consistiría en un mínimo de 36 millones de átomos dispuestos de un
modo muy específico y complejo que cambiaría con el funcionamiento de la
célula.

Ribosoma

La célula fabrica proteínas para su propia reparación y mantenimiento


mediante una hebra de ADN que actúa a modo de plantilla para crear ARN
mensajero a partir de las moléculas de la célula. El ARN mensajero transporta
entonces la información genética del ADN, codificada en la secuencia de sus
bases, hasta un ribosoma.

Ribosoma: partícula redonda compuesta por ARN y proteínas que se


encuentra en el citoplasma de las células. Actúa a modo de lugar de
reunión de las proteínas y traduce el código genético lineal que transporta
un ARN mensajero y lo transforma en una secuencia lineal de
aminoácidos.
Proteína: molécula consistente en una cadena formada por entre 50 y
varios miles de aminoácidos que proporciona estructura a todas las
células y controla reacciones. Una proteína se caracteriza por la secuencia
formada por los hasta los 20 tipos distintos de aminoácidos que integran
la cadena, más la configuración tridimensional de dicha cadena.

La arquea más simple sintetiza proteínas de entre 50 y 300 aminoácidos de


longitud.

Aminoácido: una molécula que consiste en un átomo de carbono


enlazado con un grupo amino (-NH2), un grupo carboxilo (-COOH), un
átomo de hidrógeno y un cuarto grupo que difiere de un aminoácido a
otro y que suele denominarse grupo-R o cadena lateral. El grupo-R, que
puede variar mucho, es el responsable de las diferencias en las
propiedades químicas de la molécula.

Los aminoácidos suelen producirse en dos formatos, o isómeros ópticos, en


los que se intercambian las posiciones del grupo-R y del grupo carboxilo. Este
fenómeno se conoce como quiralidad, y una de las formas recibe el nombre de
dextrogira o D (del latín «dexter», derecha), mientras que la otra recibe el
nombre de levogira o L (del latín «laevus», zurdo). Prácticamente todos los
aminoácidos que encontramos en las células tienen formato L.

El grupo carboxilo de un aminoácido puede combinarse químicamente con el


grupo amino de otro aminoácido liberando una molécula de agua para formar lo
que se conoce como un enlace peptídico.
Péptido: cadena de dos o más aminoácidos formada por la unión química
del grupo carboxilo de un aminoácido y el grupo amino de otro
aminoácido.

Se trata de una reacción que en las células no se produce directamente, sino


mediante una secuencia, o ruta, de reacciones químicas intermedias en la que
colaboran las enzimas.

Enzima: catalizador biológico, o elemento químico, que acelera la


velocidad de una reacción química sin ser consumido por dicha reacción.
Estos catalizadores son esenciales para el funcionamiento de cualquier
organismo porque hacen posibles procesos que, de otro modo, se
producirían con una lentitud excesiva sin la entrada de energía (medida a
partir de un incremento de temperatura) necesaria para activar la reacción,
y dañarían o destruirían el organismo.
Prácticamente todas las enzimas son proteínas consistentes en una
cadena de entre 62 y aproximadamente 2.500 aminoácidos de longitud, y
todas poseen una estructura tridimensional específica y sofisticada que les
permite catalizar reacciones bioquímicas concretas.

Por norma, las cadenas que contienen unos 50 aminoácidos reciben el


nombre de proteínas, aunque la distinción entre un polipéptido y una proteína es
arbitraria. Todas las proteínas están formadas a partir de combinaciones de solo
20 aminoácidos de entre los aproximadamente 500 aminoácidos conocidos.

Citoplasma

Todas estas actividades se desarrollan dentro del citoplasma de la célula.

Citoplasma: todo lo que queda en el exterior del núcleo de la célula y


dentro de la membrana celular. Consiste en un líquido gelatinoso con base
acuosa denominado citosol, que contiene sales, moléculas orgánicas y
enzimas, y en el que flotan orgánulos, la maquinaria metabólica de la
célula.

Una procariota no tiene núcleo celular y sus orgánulos principales son el


ADN y los ribosomas.

Plásmido

Un plásmido (véase figura 14.2) es una molécula circular de ADN que se


replica en el interior de una célula independientemente del ADN cromosómico.
Los plásmidos aparecen en muchas procariotas, tienen distintas funciones, pero
no son esenciales para el crecimiento de la célula.

Cerramiento de la célula

La célula más simple queda encerrada —es decir, su citoplasma está


separado del ambiente exterior— por tres capas. La cápsula de la célula es la
capa protectora más externa, en su interior se encuentra la pared celular, que es
semirrígida y estabiliza la membrana plasmática (llamada también membrana
celular) que rodea el citoplasma.
Estas capas son semipermeables para permitir el intercambio de agua y gases
y a la vez controlar el intercambio que determinadas moléculas tienen con el
entorno exterior para que la célula pueda repararse y mantenerse, y protegen
además a la célula contra elementos químicos destructivos. Las capas están
hechas con una amplia variedad de moléculas, entre las que siempre
encontramos proteínas, que son las responsables de gran parte de la estructura de
la célula y, como hemos visto, están construidas con un complejo proceso que
empieza con el ADN.

Partes externas

La figura 14.2 muestra dos cosas en el exterior del cerramiento de la célula.


Los pili son apéndices de aspecto similar a un pelo que conectan una célula con
otra de su especie o con otra célula de una especie distinta. El pilus construye un
puente entre los citoplasmas de las células conectadas.
El flagelo es una especie de cola que se mueve como un látigo para impulsar
la célula a través de un fluido, a menudo hacia una fuente de energía o hacia las
moléculas necesarias para el mantenimiento de su existencia.

Formas cambiantes de las proteínas

Y por si la célula más simple no fuera ya bastante compleja de por sí, no


basta con que cada una de sus muchas proteínas y enzimas consista en una
combinación de hasta 20 aminoácidos distintos dispuestos en una cadena de
entre 50 y 300 de estos aminoácidos con una secuencia característica, sino que
además, para ser funcional, cada una de estas cadenas debe tener la forma
correcta. La mayoría de proteínas se dobla en estructuras únicas tridimensionales
y cambia su forma cuando toma parte de las distintas reacciones químicas.
La figura 14.6 y la figura 14.7 ilustran la complejidad de la forma de una
proteína.
Conclusiones

1. Se han identificado evidencias fósiles concluyentes de vida, en forma de


microorganismos complejos, en rocas datadas hace dos mil millones de
años, unos 2,5 miles de millones de años después de que se formara la
Tierra. Suponiendo que estos microorganismos evolucionaran a partir de
formas de vida más sencillas, la vida debió de existir antes de entonces. Se
han lanzado teorías que defienden que la vida se inició hace 3,5 miles de
millones de años, o incluso 3,8 o 3,85 miles de millones de años, lo que
situaría este inicio en el eón hádico, cuando la Tierra se vio bombardeada
por asteroides y otros desechos resultado de la formación del sistema solar,
pero tanto las evidencias como su interpretación son discutibles. La mejor
estimación actual sitúa el origen de la vida hace 3,5 miles de millones de
años.
2. El descubrimiento de extremófilos, organismos que viven actualmente en
condiciones extremas similares a las que se cree que debía de haber
durante el eón hádico, sugiere que la vida podría haber existido en
aquellos tiempos, durante los primeros 700 millones de años después de la
formación de la Tierra, pero no lo demuestra.
3. Debido a la escasez de registros fósiles en general, y debido a que
prácticamente todas las rocas sedimentarias de los primeros dos mil
millones de años de existencia de la Tierra han quedado subducidas o se
han visto metamorfoseadas, es prácticamente seguro que nunca
encontraremos evidencias claras de las primeras formas de vida que nos
ayuden a entender cuándo aparecieron en la Tierra.
4. La forma de vida más sencilla, y seguramente la más primitiva de todas
ellas, es una procariota independiente, un organismo unicelular en el que la
información genética codificada en el ADN no está encerrada en un núcleo
localizado dentro de la célula.
5. Los análisis genéticos de un amplio abanico de células sugiere con fuerza,
aunque no demuestra, que la vida apareció de forma natural en la Tierra de
una vez y en una sola ocasión y que todas las formas de vida actuales —
desde los numerosos tipos de bacterias hasta el ser humano— han
evolucionado a partir de un único antepasado común.
6. Para funcionar de manera independiente, la procariota más sencilla
necesita un cromosoma en forma de bucle de hebras de ADN de doble
hélice que esté integrado por un mínimo de 36 millones de átomos
configurados siguiendo una estructura específica. Estas hebras se
despliegan para actuar a modo de plantillas y sintetizar las hebras de ADN
idénticas necesarias para que, por un lado, la célula se replique y, por el
otro, para que sintetice las proteínas necesarias para su reparación y
mantenimiento. Esta síntesis es un proceso complejo que implica la
producción de una hebra mensajera de ARN que transporta la información
genética del ADN codificada en la secuencia de sus bases nucleotídicas
hasta un ribosoma, una especie de fábrica que, en el líquido interior de la
célula, contiene ARN y proteínas. Los ribosomas utilizan esta información
genética para producir aminoácidos a partir de las moléculas de la célula.
Los aminoácidos, que están producidos en uno de los dos estereoisómeros
posibles, el formato L, se enlazan en reacciones químicas catalizadas por
enzimas, que son proteínas complejas. Las proteínas están formadas a
partir de combinaciones de 20 aminoácidos, de entre los aproximadamente
500 aminoácidos conocidos. Las distintas cadenas de aminoácidos
constituyen las distintas proteínas necesarias para actuar como
catalizadores y reparar y mantener la célula, incluido su ADN. La
procariota más sencilla necesita proteínas constituidas por cadenas de entre
50 y 300 de estas formas limitadas de aminoácidos y siguiendo además
una secuencia característica. Y para funcionar, cada una de estas cadenas
deberá adoptar estructuras cambiantes para de este modo crear los
productos requeridos. Todo esto está encerrado en el interior de las capas
semipermeables de proteínas y otras moléculas complejas que separan la
célula del entorno exterior, protegiéndola de moléculas nocivas y
permitiendo, a la vez, que determinadas moléculas entren y salgan de la
célula según sean necesarias o desechables.
7. Cualquier hipótesis sobre la aparición de la vida en la Tierra debería
explicar cómo una célula de este tamaño y con tan elevada complejidad de
componentes, funciones y configuraciones cambiantes emergió a partir de
la interacción entre los átomos y las moléculas simples, constituidas por un
máximo de 13 átomos, que se encontraban en la superficie del recién
formado planeta.
[1]Barghoorn, Elso S. y A. Tyler Stanley, «Microorganisms from the Gunflint Chert», Science, 147:
3658, 1965, pp. 563–577.
[2] Véase página 281.
[3]Schopf, J. William, «Microfossils of the Early Archean Apex Chert: New Evidence of the Antiquity
of Life», Science, 260: 5108, 1993, pp. 640–646.
[4]Mojzsis, S. J., et al., «Evidence for Life on Earth before 3,800 Million Years Ago», Nature, 384:
6604, 1996, pp. 55–59.
[5]Fedo, Christopher M. y Whitehouse, Martin J., «Metasomatic Origin of Quartz-Pyroxene Rock,
Akilia, Greenland, and Implications for Earth’s Earliest Life», Science, 296: 5572, 2002, pp. 1448–1452.
[6]Mojzsis, S. J. y Harrison, T. M., «Origin and Significance of Archean Quartzose Rocks at Akilia,
Greenland», Science, 298: 5595, 2002, pp. 917–917.
[7]Brasier, Martin D., et al., «Questioning the Evidence for Earth’s Oldest Fossils», Nature, 416: 6876,
2002, pp. 76–81.
[8]Dalton, Rex, «Microfossils: Squaring up over Ancient Life», Nature 417: 6891, 2002, pp. 782–784.
[9]McFadden (2000), pp. 26–27.
[10]Kashefi, Kazem y Lovley, Derek, R., «Extending the Upper Temperature Limit for Life», Science,
301: 5635, 2003, p. 934.
[11]Henbest, Nigel, «The Day the Earth Was Born», Origins, Channel 4, Reino Unido, 21 de febrero de
2004.
[12] Véase página 292.
[13]Lin, Li-Hung, et al., «Long-Term Sustainability of a High-Energy, Low-Diversity Crustal Biome»,
Science, 314: 5798, 2006, pp. 479–482.
[14] La bióloga Lynn Margullis, por aquel entonces profesora distinguida de la Universidad de
Massachusetts, y otros criticaron la utilización de una única característica para el estudio. Consideraré el
asunto con mayor detalle cuando examine las evidencias de la evolución biológica.
[15]Véase, por ejemplo, Ouzounis, Christos A., et al., «A Minimal Estimate for the Gene Content of the
Last Universal Common Ancestor: Exobiology from a Terrestrial Perspective», Research in Microbiology,
157: 1, 2006, pp. 57–68.
[16]Citado en Doolittle (2000).
[17]Ragan, et al. (2009).
[18]Ibíd.
[19]Theobald, Douglas L., «A Formal Test of the Theory of Universal Common Ancestry», Nature,
465: 7295, 2010, pp. 219–222.
[20]Cavalier-Smith, Thomas, «Deep Phylogeny, Ancestral Groups and the Four Ages of Life»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 365: 1537, 2009, pp. 111–132.
[21]Polanyi, Michael, «Life’s Irreducible Structure», Science, 160: 3834, 1968, pp. 308–1312.
CAPÍTULO 15. EL ORIGEN DE LA VIDA 2:
HIPÓTESIS

Cualquiera que te diga que sabe cómo empezó la vida en la Tierra hace aproximadamente 3,45 miles de
millones de años es un imbécil o un tunante.

Stuart Kauffman, 1995

Si intentar averiguar cómo apareció la vida en la Tierra me convierte en un


imbécil o un tunante, quiere decir que estoy en la buena compañía de aquellos
que creen saberlo.
Cualquier hipótesis científica sobre la aparición de la vida en la Tierra
debería explicar cómo las moléculas complejas de hasta trece átomos que
encontramos en el espacio interestelar y en los asteroides —y, por implicación,
que se encontraban o fueron depositadas en la Tierra primitiva—, evolucionaron
hasta alcanzar el tamaño, la complejidad, la estructura y la funcionalidad de la
forma de vida más sencilla descrita en el anterior capítulo. Es decir, cómo la
materia inanimada acabó convirtiéndose en vida.

La «sopa primigenia» de Oparin y Haldane

La explicación ortodoxa básica es la que presentaron de forma totalmente


independiente el bioquímico ruso, Alexander Oparin, en 1924 y el genetista
inglés, J. B. S. Haldane, en 1929.
Según la versión de Oparin, la atmósfera de la Tierra primitiva estaba
formada por hidrógeno, metano, amoniaco y vapor de agua. La energía de la luz
del sol y de los rayos llevó a estas moléculas a combinarse para formar una
mezcla de componentes orgánicos simples. Con el curso de los milenios, estos
componentes se fueron acumulando en los océanos y formaron un caldo
primigenio caliente y diluido que acabó produciendo un nuevo tipo de molécula,
capaz de replicarse a sí misma.
Esta replicación era ineficiente y produjo variaciones. De entre todas estas
variaciones, un mecanismo ultra-darwiniano seleccionó las más eficientes en
cuanto a su capacidad para replicarse a sí mismas. (Utilizo el término «ultra-
darwiniano» cuando la selección natural se aplica más allá, o fuera de, la
evolución darwiniana de las especies.) Estas moléculas auto-replicantes
reclutaron proteínas para hacer su replicación más eficiente, lo que acabó
produciendo una membrana de cierre y la primera célula.
En 1953, Stanley Miller, un joven investigador que trabajaba en el
laboratorio de la Universidad de Chicago dirigido por Harold Urey, intentó
someter esta hipótesis a un test experimental. Para ello, hirvió agua en el fondo
de un matraz que había llenado previamente con hidrógeno, metano y amoniaco.
Para simular la energía de los rayos y del sol, sometió la mezcla a descargas
eléctricas. Transcurrida una semana, en el matraz había depósitos similares al
alquitrán y trazas de al menos tres aminoacidos.[1] Los bioquímicos aclamaron
el experimento considerándolo la prueba experimental de la hipótesis de Oparin
y Haldane: si era posible producir aminoácidos en un matraz en solo una
semana, en un océano, y con el transcurso de miles de años, estos aminoácidos
se habrían polimerizado para formar péptidos y proteínas complejas, lo que
habría dado lugar, con el tiempo, a la primera célula.
Sin embargo, más de sesenta años de experimentos con distintas recetas de
sopa primigenia y condiciones distintas, no han conseguido producir nada que se
parezca remotamente a una molécula auto-replicante, y mucho menos una célula.
Los bioquímicos suelen explicarlo por la incapacidad de los experimentos de
laboratorio de replicar las inmensas escalas de tiempo que se consideran
necesarias, pero Johnjoe McFadden nos ofrece cinco razones por las que
considera que nunca se podrá generar vida de esta manera y, en consecuencia,
por las que la hipótesis está equivocada.[2] En primer lugar, el supuesto de
Miller sobre la composición de la atmósfera primitiva de la Tierra se considera
erróneo en la actualidad, y lo que hoy en día se considera que fue la atmósfera
primigenia es mucho menos favorable a estas reacciones.
En segundo lugar, el producto principal de estas reacciones es porquería, una
masa con aspecto de alquitrán compuesta básicamente por hidrocarbonos, que es
el resultado inevitable cuando los ingredientes pueden tomar parte en un amplio
rango de reacciones posibles.
En tercer lugar, los aminoácidos producidos en las condiciones simuladas de
la Tierra primitiva son una mezcla de formas levógiras y dextrógiras, o isómeros
ópticos. Enlazar aminoácidos para producir péptidos y proteínas no funciona
cuando ambos formatos están presentes. Además, en las células solo se producen
aminoácidos de formato levógiro, y nadie ha sugerido hasta la fecha un
mecanismo por el cual la sopa primigenia se enriquezca para dar lugar a
aminoácidos levógiros.
En cuarto lugar, las reacciones tienen lugar en una solución acuosa, lo que
hace muy difícil que los aminoácidos polimericen, o se enlacen, para producir
proteínas. La unión química de dos aminoácidos mediante un enlace peptídico
implica la pérdida de una molécula de agua, tal y como muestra la figura 14.5.
Con tantas moléculas de agua en la solución, la tendencia natural es que las
moléculas de agua rompan los enlaces peptídicos en una reacción conocida
como hidrólisis, que es justo lo contrario de lo que muestra la figura 14.5; por
este motivo, en soluciones acuosas los polímeros biológicos tienden a romperse,
aunque lentamente. La hidrólisis no se produce en las células porque el enlace de
aminoácidos no se produce directamente, sino a través de una serie de reacciones
que las enzimas catalizan. Pero ya que estas enzimas son proteínas, no son
válidas para crear las primeras proteínas.
En quinto lugar, la selección natural darwiniana depende del gradualismo:
cada pequeño paso en la escalera evolutiva debe surgir por mutación aleatoria,
debe ser viable para producir descendientes y debe representar una mínima
mejora, en cuanto a adaptación al entorno, con respecto a su progenitor. La
célula más simple examinada en el capítulo anterior, una procariota unicelular
(véase figura 14.2), no pudo surgir por pura casualidad. ¿De dónde salieron las
proto-células? Si las proto-células surgieron por selección natural, cualquier
antepasado podría haber sido viable, pero no existe ningún registro fósil de
ninguna proto-célula.
Me gustaría añadir que si los actuales intentos de Craig Venter y sus colegas
del J. Craig Venter Institute de producir una célula viva uniendo sus distintos
componentes alcanza el éxito, no solo demostrará experimentalmente la
hipótesis de Oparin y Haldane, sino que además demostrará que es posible
producir vida por deseo inteligente, la inteligencia de Venter, en este caso.

ARN auto-replicante

Puesto que la probabilidad de que la primera célula independiente auto-


replicante sea resultado de las reacciones aleatorias de las moléculas simples de
la sopa primigenia es virtualmente nula, los bioquímicos buscaron un replicador
primigenio plausible. El candidato favorito es la molécula de ARN auto-
replicante, que no necesita enzimas para funcionar.
En este caso, una molécula auto-replicante de ARN produce ineficientemente
copias de sí misma. La selección natural ultra-darwiniana favorece aquellos
productos que demuestran mayor eficiencia a la hora de producir descendientes.
Al final, estas versiones más eficientes catalizan el enlace de aminoácidos para
producir proteínas que ayuden a su replicación y formen una membrana
protectora, que las hace más eficientes si cabe. Finalmente, generan ADN, que
resulta ser un repositorio de la información genética más estable, produciendo de
este modo la primera célula.
Esta hipótesis, conocida comúnmente como el Mundo de ARN, es en la
actualidad la explicación ortodoxa del origen de la vida en la Tierra. La base
experimental la aporta el descubrimiento de que las ribozimas, fragmentos cortos
de ARN, pueden actuar a modo de enzimas para catalizar muchas reacciones
bioquímicas: pueden unir dos moléculas de ARN y polimerizar hasta seis bases
de ARN en una plantilla de ARN. Además, muchos virus, como el virus de la
gripe, tienen un ARN no un genoma ADN, lo que sugiere que una molécula de
ARN enzimático catalizó su propia replicación y que ese ARN que encontramos
en las células modernas es el residuo evolutivo del ARN auto-replicante original.
Según McFadden, sin embargo, esta hipótesis presenta los mismos problemas
que la hipótesis de la sopa primigenia: la polimerización del ARN excluye el
agua y no se produce naturalmente en una solución acuosa; la polimerización del
ARN catalizado con ribozimas no funciona con una combinación de bases
nucleotídicas levógiras y dextrógiras, y nadie ha sugerido un mecanismo
prebiótico que enriqueciera una forma quiral de bases de ARN por encima de la
otra.
Experimentalmente, nadie ha diseñado, y mucho menos descubierto, una
molécula de ARN auto-replicante. Una molécula de ARN consta de tres partes:
las bases A, U, C y G, un monosacárido llamado ribosa y un grupo fosfato.
Comprende cerca de 50 átomos que tienen que estructurarse de una forma muy
concreta. Una hebra de la figura 14.3, en la que U sería el sustituto de T, nos da
una indicación. A pesar de que los científicos han alcanzado cierto éxito en la
síntesis de las bases y los grupos fosfatos a partir de moléculas más sencillas, lo
han conseguido tan solo a través de una serie de reacciones meticulosamente
controladas para evitar la basura que se genera al simular las condiciones
naturales. Por otro lado, han sido incapaces de producir una solución enriquecida
con ribosa.
Graham Cairns-Smith, químico orgánico y biólogo molecular de la
Universidad de Glasgow, sostiene que no existen posibilidades razonables de
que de una sopa primigenia emergiera un ARN auto-replicante. Estima que en la
síntesis de una base de ARN a partir de componentes prebióticos simples hay
alrededor de 140 pasos. En cada uno de estos pasos podrían producirse un
mínimo de seis reacciones distintas a la reacción deseada. La probabilidad de
que el resultado deseado se produjera por casualidad es de 6140 o 10109.[3]

Péptido auto-replicante

Todo esto llevó a un grupo de bioquímicos a tratar de encontrar un replicador


primigenio más sencillo que el ARN. En 1996, David Lee y sus colegas del
Scripps Research Institute de California, diseñaron un péptido corto, de 32
aminoácidos de longitud, capaz de actuar como una enzima para unir los
distintos fragmentos de sí mismo y replicarse.[4]
McFadden rechaza el péptido auto-replicante como candidato a replicador
primigenio porque argumenta que Lee y sus colegas utilizaron fragmentos de
péptido activados para minimizar las reacciones colaterales productoras de
alquitrán y no ofrecieron una explicación plausible a cómo estos aminoácidos
activados podrían emerger por casualidad a partir de la sopa primigenia.
Sustrato bidimensional

La abrumadora improbabilidad de que el ARN auto-replicante de la


bioquímica ortodoxa, e incluso el péptido auto-replicante, surgiera por
casualidad a partir de las moléculas presentes en la sopa primigenia, suscitó
ideas sobre la probabilidad muy superior de que se formaran auto-replicantes
mucho más sencillos a partir de una superficie bidimensional, y no de una
solución acuosa.

Replicador de arcilla

Cairns-Smith empezó a investigar esta idea a mediados de los años 60 del


siglo pasado y en 1985 publicó un libro en el que planteaba su hipótesis.[5]
Al hablar de la reproducción como una de las características propuestas para
la definición de vida, vimos que un cristal de sal común puede reproducirse a sí
mismo en una solución saturada de esa sal.[6] Cairns-Smith propone que el
replicador primigenio fue un cristal tan sencillo como ese, con toda su
información codificada en su propia estructura: en efecto, la estructura del cristal
es un precursor del gen orgánico.
La arcilla es un sedimento denso formado por minerales y silicatos,
principalmente aluminio, y seguramente sería muy común en la Tierra primitiva.
Estos cristales de silicato se reprodujeron y la selección natural favoreció
cristales mutantes que modificaron su entorno y mejoraron su replicación. Sus
superficies eléctricamente cargadas atrajeron moléculas orgánicas dipolares,
como aminoácidos y nucleótidos, catalizando de forma efectiva su
polimerización de proteínas y de los componentes del ARN y el ADN. Al final,
se produjo un relevo genético en el que los productos más estables de estas
reacciones en superficie, polímeros orgánicos como el ARN y el ADN,
heredaron la información de los cristales y fueron desplazándola gradualmente
para ocupar su lugar como principal material genético, mientras que otros
polímeros orgánicos, como las proteínas, formaron una membrana protectora: el
cristal auto-replicante primitivo muda la piel de su cerramiento de arcilla y
emerge del mismo como célula.
En 1996, el químico James Ferris, del Rensselaer Polytechnic Institute, Troy,
Nueva York, junto con varios colegas biólogos, ofrecieron aparentemente la
prueba experimental de la hipótesis al incubar soluciones independientes de
aminoácidos y nucleótidos en presencia de superficies minerales. Obtuvieron
polímeros de aminoácidos y de nucleótidos de hasta 55 monómeros de longitud;
sin las superficies minerales, era imposible obtener polímeros de longitud
superior a 10 monómeros porque la hidrólisis impedía que las cadenas creciesen.
[7] Esto, sin embargo, no constituye la confirmación experimental de la hipótesis
porque tanto los aminoácidos como los nucleótidos no se produjeron de forma
natural, sino que se activaron artificialmente.
Además, la afirmación de que el primer replicador en la ruta de reacciones
hasta llegar a la célula fue un replicador de arcilla tampoco tiene base empírica.
En los depósitos actuales de arcilla, ni en ningún registro fósil, existen
replicadores de arcilla semejantes a los que pudiera haber en la Tierra primitiva.
Teniendo en cuenta los problemas que plantea la identificación de células fósiles
con antigüedad superior a dos mil millones de años, creo que es imposible que
lleguemos a identificar algún día fósiles de cualquier precursor de arcilla de las
células.
A falta de evidencias, la idea del replicador de arcilla sigue siendo una
conjetura intrigante. Carece, sin embargo, de una explicación convincente que la
convierta en un paso clave. El orden y la simetría de un cristal es una disposición
periódica y repetitiva con escaso contenido informativo. Por el contrario, una
célula es una entidad compleja, aperiódica e interactiva con elevado contenido
informativo, y lo mismo sucede con sus componentes, el ARN, el ADN y las
proteínas. La conjetura no consigue explicar cómo es posible que un contenido
informativo tan elevado como este fuera la herencia de un cristal carente casi de
información.

Replicador de pirita de hierro

Gunter Waschtershauser, un químico convertido en abogado especializado en


patentes, propuso en 1988 una versión posterior de la idea bidimensional.
Sugiere que la formación de cristales de pirita de hierro a partir del hierro y el
sulfuro de hidrógeno de las aguas sulfurosas próximas a las fumarolas
submarinas generaría los electrones que podrían haber reducido químicamente el
dióxido de carbono a componentes orgánicos. La superficie cargada de los
cristales podría haber enlazado los componentes orgánicos y fomentado diversas
reacciones, hasta llegar a la formación de aminoácidos y nucleótidos,
replicadores y, finalmente, la vida.[8]
Wachtershauser y sus colegas del Regensburg Institute for Microbiology
demostraron que la formación de pirita de hierro puede emparejarse con la
polimerización de aminoácidos. Sin embargo, tienen que aportar todavía una
base experimental que sustente el primer paso, es decir, la conversión de dióxido
de carbono a componentes carbónicos a través de la formación de pirita de
hierro, razón por la cual la idea sigue siendo también una conjetura.

Origen extraterrestre

Los problemas que conlleva explicar cómo pudo emerger la célula


independiente más sencilla de una sopa primigenia, llevó a algunos científicos a
investigar una idea que ha sido recurrente a lo largo de los siglos y que la ciencia
ficción ha popularizado. Según la versión de panspermia propuesta en 1903 por
el químico sueco y ganador de un Premio Nobel, Svante Arrhenius, los
microbios expelidos de planetas con vida viajaron por el espacio y aterrizaron en
la Tierra.[9]
Otro científico galardonado con un Premio Nobel, Francis Crick,
codescubridor de la estructura de doble hélice del ADN junto con Leslie Orgel,
entonces profesor del Salk Institute for Biological Studies y destacado
investigador de la NASA, llegaron a la conclusión de que era altamente
improbable que esto se hubiera producido por casualidad. Por ello, en 1973
propusieron una panspermia dirigida, por la cual una civilización avanzada de la
galaxia habría enviado microorganismos a planetas como la Tierra de forma
deliberada.[10]
Por mucho que la idea dejara tremendamente satisfechos a los fans de la
ciencia ficción, la falta de evidencias no convenció a la comunidad científica.
Pero en 1978, Fred Hoyle y el que había sido su alumno, Chandra
Wickramasinghe, entonces jefe del departamento de Matemáticas aplicadas y
astronomía de la University College Cardiff, afirmaron tener evidencias de la
panspermia. Muchos astrónomos llevaban años intentando explicar ciertas líneas
espectrales de polvo interestelar, que se creían compuestas principalmente por
cristales de hielo. Hoyle y Wickramasinghe anunciaron que aquellas líneas
espectrales eran consistentes con bacterias.[11]
Esto los llevó a proponer que los brotes repentinos de enfermedades a las que
tenemos escasa resistencia y que a menudo tienen un origen localizado, como la
sífilis en el siglo XV y el SIDA en el siglo XX, fueron causados por bacterias y
virus depositados en la Tierra por cometas. La propuesta es consistente con la
opinión de Beda, historiador y monje inglés del siglo VIII, que declaró que los
cometas presagiaban «un cambio de soberano o la peste». En 2003,
Wickramasinghe y sus colegas escribieron en la revista médica, The Lancet, que
el SRAG (Síndrome Respiratorio Agudo Grave) estaba provocado por los
microbios de un cometa.[12] Para apoyar esta afirmación, Wickramasinghe citó
la evidencia de que las muestras de aire recogidas de la estratosfera en 2001 por
la Indian Space Research Organization contenían células vivas y argumentó que
es imposible que el aire de capas inferiores pueda ser transportado hasta una
altura de 41 kilómetros.
Más recientemente, y de un modo más sofisticado, análisis espectrales han
identificado moléculas orgánicas en el polvo interestelar. Pero, como vimos,[13]
las moléculas mayores están integradas por 13 átomos y están muy lejos de ser
algo parecido a una bacteria. Las muestras estratosféricas incluyen dos bacterias
conocidas en la Tierra. Pero si aplicamos el test de la razón, veremos que una
explicación más sencilla, y muchísimo más probable, es que sucesos
meteorológicos transportaran estas bacterias a 41 kilómetros de la Tierra y no
que viajaran miles de millones de kilómetros a través del espacio interestelar.
Los investigadores médicos han rechazado la idea del origen extraterrestre de las
enfermedades ofreciendo evidencias más convincentes que Wickramasinghe no
tiene en cuenta.[14]
En cualquier caso, las ideas de una panspermia simplemente posponen la
cuestión del origen de la vida en la Tierra, de un modo similar a como las
diversas especulaciones de multiverso y universo progenitor posponen la
cuestión del origen de la materia.
En su versión de 2007, sin embargo, Wickramasinghe, su hija y otro colega
del Centro de Astrobiología de la Universidad de Cardiff (el centro no oficial de
la investigación de la panspermia), propusieron otro desafío. Afirmaron que la
vida se originó en el interior de los cometas.[15]
La afirmación presenta problemas. Depende, básicamente, de tres supuestos:

1. Los desechos de las supernovas que incorporan los cometas contienen


elementos radiactivos cuya desintegración mantiene el agua en estado
líquido en el interior de los cometas. No existen evidencias que sustenten
este supuesto.
2. Los cometas contienen además arcilla, a partir de la cual evolucionan las
células vivas, según propuso Cairns-Smith. A pesar de que la misión de la
sonda espacial Deep Impact demostró en 2005 que el Cometa 9P/Tempel
contiene arcillas y carbonatos, que suelen requerir agua en estado líquido
para su formación, no existen evidencias que sustenten la conjetura de
Cairns-Smith, y mucho menos de que esto se produzca en el interior de los
cometas.
3. El tiempo de vida de los entornos favorables a los prebióticos en el interior
de los cometas excede al de las regiones terrestres del mismo estilo en
cuatro o cinco contra diez. No existen evidencias que sustenten este
supuesto.

Basándose en estos supuestos defienden que, ya que la masa de todos los


cometas de la galaxia supera la de los entornos favorables terrestres por un
abrumador veinte contra diez, la totalidad de cometas que orbita alrededor de
estrellas enanas tipo G similares al sol ofrece un escenario incomparablemente
más probable para el origen de la vida que cualquiera que pudiera estar
disponible en la Tierra primitiva.
Sin embargo, es ilógico deducir esta probabilidad comparando la masa de
todos los cometas con la masa de la Tierra, puesto que lo que se defiende no es
que la vida se originara en el interior de algo cuya masa equivale a todos los
cometas de la galaxia sino que se originó en el interior de un determinado
cometa, y la masa media de un cometa es 6 x 1010, o 60 miles de millones veces
inferior a la de la Tierra. Lo que debería compararse es la idoneidad para la
formación de vida del interior de un único cometa —y la mayoría de científicos
cometarios deducen que el interior de los cometas está constituido
principalmente por hielo en estado sólido— con la idoneidad para formar vida de
la superficie de la Tierra primitiva.
La página web que realizó el anuncio defiende que la vida se originó en un
cometa y que «la vida emergente se diseminó rápidamente, como una infección,
de un cometa a otro cometa, de un sistema estelar a otro sistema estelar,
abarcando volúmenes cada vez mayores del universo».[16] Lo que no queda
explicado es cómo la vida en el interior de un cometa que orbita una estrella se
diseminó hacia otros cometas, sobre todo hacia aquellos que orbitan otras
estrellas.

Diseño inteligente

El problema del término «diseño inteligente» es que, desde mediados de los


años noventa del siglo pasado, ha quedado indisolublemente asociado con el
Diseño Inteligente, una teoría científica cuyos proponentes están subvencionados
por el Discovery Institute, o son incluso miembros del mismo, un laboratorio de
ideas norteamericano fundado y financiado por cristianos con el objetivo de
demostrar que Dios creó la vida.
Me temo que divorciar ideas de creencias es imposible, independientemente
de si estas creencias son en Dios o en el materialismo, sobre todo cuando, como
en este caso, las evidencias son tremendamente escasas y están por ello tan
abiertas a interpretaciones de todo tipo. En consecuencia, considero instructivo
considerar las ideas de diseño inteligente que no plantean un Dios judeo-
cristiano o que no contradicen las creencias de sus proponentes.

Simulación por ordenador

Nick Bostrom, filósofo de la Universidad de Oxford, dice que, ya que en la


actualidad somos capaces de crear simulaciones por ordenador de otros mundos
y otra gente, una civilización «post-humana» mucho más avanzada
tecnológicamente que la nuestra, podrá simular personas plenamente
conscientes, y que lo que ahora percibimos como vida podría ser una simulación
por ordenador de este tipo.[17] Para que todo esto no se considere el simple
capricho fantasioso de un científico, Bostrom ofrece una ecuación para
demostrar que existe una elevada probabilidad de que su idea sea cierta.
Sin embargo, como sucede con la Ecuación de Drake, que calcula la
probabilidad de que existan civilizaciones inteligentes en nuestra galaxia,[18] la
Ecuación de Bostrom es un múltiplo de probabilidades independientes, cada una
de las cuales se basa en supuestos o suposiciones cuestionables. Además,
después de extrapolar el crecimiento del poder de los ordenadores en el
transcurso de los últimos sesenta años hacia un futuro no especificado y
desconocido, su siguiente frase empieza con «Basándonos en este hecho
empírico…». Una proyección, por muy razonable que sea —y esta es más que
cuestionable—, nunca es un hecho empírico.
Tal vez no sea un capricho, pero no es más que una especulación que no
puede falsarse mediante un test empírico. Y, como sucede con la panspermia
dirigida de Crick y Orgel, no nos cuenta el origen de estos diseñadores post-
humanos y, por lo tanto, del origen de la vida en la Tierra tal y como la
percibimos.

Complejidad irreducible

Michael Behe, profesor de Bioquímica de la Lehigh University,


Pennsylvania, cree que todas las formas de vida de la Tierra han evolucionado a
partir de un antepasado común, pero que la hipótesis darwiniana no explica las
diferencias entre especies. Sin embargo, tanto los componentes de la primera
célula como las sofisticadas e interconectadas rutas bioquímicas de su
producción, son irreduciblemente complejos: si falta cualquiera de sus partes no
pueden funcionar. Por ello no pueden haber evolucionado a través de un
mecanismo [ultra]darwiniano, puesto que depende de la selección natural y de
una diversidad de mutantes en cada paso de la ruta, y todos estos pasos tienen
que ser viables. Entre las evidencias que cita están los sistemas que dirigen
proteínas hacia lugares específicos de la célula y el flagelo bacteriano.[19] Este
último, por ejemplo, está constituido por una docena o más de proteínas; no
existe ninguna etapa intermedia que sea viable como unidad funcional.
Argumenta que se ha visto obligado a llegar a la conclusión de que la primera
forma de vida, la célula antepasado común, solo pudo ser resultado del diseño
inteligente. Para reconciliar esto con la evolución biológica sugiere que esta
primera célula contenía todo el ADN necesario para la posterior evolución. No
identifica el diseñador, pero asevera que la ciencia ortodoxa ha rechazado esta
conclusión debido a sus posibles implicaciones teológicas.[20]
Los evolucionistas ortodoxos se apresuraron a censurar el libro que Behe
publicó en 1996, La caja negra de Darwin: el reto de la bioquímica a la
evolución.[21] En una crítica publicada en Nature, el biólogo evolutivo de la
Universidad de Chicago, Jerry Coyne, encontraba una pista para seguir el
razonamiento de Behe al identificarlo como católico romano. La mayoría de
científicos, sin embargo, no rechaza el trabajo de Newton en el campo de la
mecánica porque creyera en la alquimia o el trabajo de Kepler en el campo de la
astronomía porque creyera en la astrología. Una crítica más sustanciosa es la que
aduce que Behe no tiene en cuenta otros mecanismos que no sean los pasos
secuenciales para la producción de los componentes de la célula, como podrían
ser la cooptación de componentes que evolucionaron con otros fines, los genes
duplicados y las primeras enzimas multifuncionales.
En el caso del flagelo bacteriano, por ejemplo, el microbiólogo Mark Pallen
y el biólogo evolutivo Nicholas Matzke señalan que hoy en día no existe un
único flagelo bacteriano, sino miles, o tal vez millones, de flagelos distintos; de
ahí que «no hubo miles o incluso millones de actos de creación individuales» y
«la totalidad de los muy variados sistemas flagelares actuales ha evolucionado a
partir de un antepasado común». Las evidencias de la evolución del flagelo
bacteriano incluyen la existencia de flagelos vestigiales, de formas intermedias
de flagelos y el patrón de similitudes entre las secuencias de proteínas de los
flagelos: prácticamente todas las proteínas flagelares poseen analogías conocidas
con proteínas no flagelares, lo que sugiere que los flagelos evolucionaron a partir
de combinaciones de componentes celulares existentes.[22]
Tanto Coyne como Keneth Miller, biólogo de la Brown University, apuntan
que Behe reconoce que algunos de los componentes de la primera célula podrían
haber evolucionado mediante un mecanismo [ultra]darwiniano, pero que antes
de descartar el diseño inteligente, sería necesario que todas las características
bioquímicas quedaran explicadas por efectos naturales. Debido a las dificultades
que conlleva obtener evidencias, es imposible demostrarlo. De ahí que defiendan
que las ideas de Behe no cumplen el criterio de falsabilidad y, por lo tanto, no
son científicas.

La incapacidad de la ciencia para explicar ciertos fenómenos

La idea de Behe es un ejemplo particular que surge de un problema más


general, la incapacidad de la ciencia para explicar determinados fenómenos. Así
lo expresó Fred Hoyle, un ateo convencido. Fue el ateísmo lo que llevó a Hoyle
a iniciar la búsqueda de una alternativa a la teoría del Big Bang, pero cuando
llegó el momento de considerar cómo había surgido la vida en la Tierra, comparó
la aparición casual de una célula, por simple que esta fuera, a la probabilidad de
que «un tornado arrase un depósito de chatarra y pueda montar un Boeing 747 a
partir de los materiales que allí se encuentran».[23]
Cuando en 1982 ofreció una conferencia en la Royal Institution, anunció la
siguiente conclusión:

«Si en este asunto se actúa de forma directa y franca, sin dejar que te bloquee el miedo a provocar la
ira de la comunidad científica, llegas a la conclusión de que los biomateriales, con su asombroso
nivel de orden, tienen que ser el resultado de un diseño inteligente […]. Los problemas de orden,
como el de las secuencias de aminoácidos en las cadenas [que constituyen las células proteínas] […]
son precisamente los problemas que se vuelven sencillos cuando la inteligencia dirigida entra en el
juego».[24]

No estoy al corriente de si Hoyle se convirtió a alguna religión, pero sus


últimos escritos sugieren que consideraba que los fenómenos que la ciencia se
muestra incapaz de explicar insinúan la existencia de algún tipo de inteligencia
superior que gobierna el universo. Y ahí está el problema. Que la ciencia se
muestre incapaz de explicar un fenómeno ahora, no significa que la ciencia
nunca será capaz de explicar ese fenómeno. De un modo similar, tampoco
implica que la ciencia será capaz de explicar ese fenómeno en un futuro, como
aseveran algunos materialistas, como Richard Dawkins.
Puesto que las evidencias no permiten aprobar o rechazar el diseño
inteligente como el origen de la vida en la Tierra, el test de la racionalidad se
aplica examinando la consistencia con otra evidencia, que en este caso es el
patrón de la comprensión humana de los fenómenos naturales. Históricamente,
siempre que los humanos no han entendido un fenómeno, lo han achacado a
causas sobrenaturales. Así por ejemplo, los griegos de las ciudades-estado
guerreras de entre los siglos X y V a. C. no comprendían la causa de los
relámpagos y los truenos, y atribuían esos hechos poderosos y amedrentadores al
dios más poderoso de un panteón de súper-humanos que era un reflejo de la
jerarquía de su propia sociedad.
Cuando la ciencia se desarrolló en una sociedad occidental
predominantemente cristiana, su razonamiento empírico llenó los vacíos de
nuestra comprensión de los fenómenos naturales y fue eliminando poco a poco la
necesidad de explicaciones sobrenaturales. Así pues, la Tierra dejó de ser algo
creado por Dios como el centro del universo y el sol dejó de ser algo creado por
Dios para iluminar la Tierra entre periodos de oscuridad.
Los vacíos —y, en consecuencia, el reino del creador trascendente, Dios—
siguieron disminuyendo a medida que el poder explicativo de la ciencia
aumentaba y Dios se vio relegado a ser la causa en última instancia, más que
directa, de los fenómenos naturales. (Utilizo aquí el concepto de Dios
convencional, puesto que, a partir del siglo XVI, la ciencia se desarrolló
principalmente en el occidente cristiano. Otras religiones y culturas tiene
visiones distintas de Dios o los dioses, y algunas de ellas sostienen que un
espíritu cósmico creativo es tanto inmanente como trascendente, y no inmanente
durante solo treinta y tres años en la persona de un Dios trinitario trascendente.)
A pesar de que nada garantiza que este patrón de actuación continuará, la
forma más razonable de abordar la aparición de la vida en la Tierra tendría que
basarse en, sin dejar en ningún momento de mantener una mentalidad abierta,
buscar una explicación natural más que invocar una causa sobrenatural como
Dios o un diseño inteligente.

Principio antrópico
Conocimos el concepto del principio antrópico en la primera parte, cuando
descubrimos que si no estuviesen operando leyes físicas muy precisas de origen
desconocido, y si varios parámetros cósmicos y constantes sin dimensiones no
tuviesen unos valores ajustadísimos que ninguna ley es capaz de explicar, el
universo que permitió la evolución del ser humano nunca habría existido. De
aquí que invoquemos el principio antrópico para explicar la sorprendente
aparición de la vida a partir de las moléculas simples que llenaban la sopa
primigenia que reinaba en la Tierra.
El concepto del principio antrópico se atribuye al físico teórico Brandon
Carter, que lo planteó en 1974, cuando trabajaba en la Universidad de
Cambridge.[25] El trabajo más extenso sobre el tema fue el elaborado por los
cosmólogos John Barrow y Frank Tipler, cuyo libro, publicado en 1986, incluye
todas las leyes, parámetros y constantes relevantes, así como las distintas formas
de abordar la idea.[26] Consideraré a continuación las definiciones que estos
científicos aplican a tres versiones distintas del principio antrópico.

Principio antrópico débil (PAD)

Los valores observados de todas las cantidades físicas y cosmológicas no son igualmente probables,
sino que están restringidos por el hecho de que existen lugares del universo donde se ha podido
desarrollar la vida basada en el carbono y por el hecho de que el universo sea lo bastante antiguo
como para que esto haya ocurrido.

Barrow y Tipler desarrollan una discusión científica y filosófica de temas


como el enfoque bayesiano a la edad y el tamaño del universo que serían
necesarios para la evolución de formas de vida basadas en carbono como
nosotros, que somos capaces de observar el universo. Para simplificar, las
características del universo que podemos observar son tales, que nos permiten
observarlo. Se trata de una tautología que no acaba explicando nada.

Principio antrópico fuerte (PAF)

El universo debe tener propiedades que permitan el desarrollo de la vida


en algún momento de su historia.

Lo que distingue este principio del PAD es la palabra «debe». Según Barrow
y Tipler, esto tendría tres interpretaciones:

a. El universo diseñado inteligentemente

Existe un universo posible diseñado con el objetivo de generar y


mantener observadores.

Esto extiende los argumentos a favor del diseño inteligente de la primera


célula a todo el universo y, en consecuencia, se ve contraatacado con
objeciones similares. No voy a repetirlas aquí, sino simplemente reiterar
mi conclusión de que queda fuera del campo empírico de la ciencia y de
que, manteniendo siempre una mentalidad abierta, deberíamos seguir
buscando una explicación natural antes que invocar una causa
sobrenatural como Dios o cualquier otro diseñador inteligente
desconocido o incognoscible.

b. El universo participativo

Para que exista el universo son necesarios observadores.

Esto se basa en la interpretación de la mecánica cuántica dependiente de


la conciencia de John Wheeler que consideré en las páginas 159 y 160.
Recurre a la conjetura filosófica de la causalidad invertida, que sostiene
que un efecto puede preceder en el tiempo a su causa. La idea tiene
defensores y opositores entre los filósofos. Nadie ha propuesto como
falsarla mediante experimento u observación y, en consecuencia, queda
fuera del territorio de la ciencia.
La idea del universo participativo implica que el universo no existía
antes de que nuestros antepasados paleolíticos observaran la función de
onda del universo y la colapsaran en una realidad observable. Es decir,
que nuestros antepasados paleolíticos crearon el universo observado.
Aplicando el test de racionalidad a esta conjetura, considero que
Antony Flew y otros filósofos aciertan cuando defienden que la
causalidad invertida es una contradicción lógica y que, por lo tanto, el
universo participativo es internamente inconsistente. También es
inconsistente con la interpretación generalmente aceptada de
observaciones que muestran que el universo tiene como mínimo diez mil
millones de años de antigüedad.

c. El multiverso

Para que nuestro universo exista es necesario un conjunto de otros


universos.

La aplicación de esta interpretación del PAF significa que, por muy


improbable que sea que la primera célula emergiera a partir de las
interacciones de las moléculas simples de la sopa primigenia, el suceso se
produjo en un planeta de uno de los infinitos universos existentes;
casualmente, estamos en ese planeta y en ese universo.
He examinado las cuatro categorías principales de propuestas de
multiverso al considerar por qué el universo empezó a existir con un
formato determinado, habiendo tantos otros formatos lógicamente
posibles, y he llegado a la conclusión de que ninguna de ellas puede
someterse a test y, por lo tanto, ninguna de ellas es científica.[27] En
consecuencia, los que argumentan que la célula diseñada inteligentemente
no es falsable y, por lo tanto, no es científica, no pueden, con toda lógica,
argumentar que la idea del multiverso sea científica a menos que puedan
demostrar que es posible someterla a test.

Barrow y Tipler proponen una tercera versión no considerada por Carter.


Principio antrópico final

En el universo tiene que surgir un proceso de la información inteligente


que, una vez haya surgido, nunca desaparecerá.

Más que un principio físico, estamos ante una especulación metafísica sobre
el futuro.
Un argumento más contra el principio antrópico en general es el que aporta
Roger Penrose, que dice que «suelen invocarlo los teóricos cuando no tienen una
teoría lo bastante buena para explicar los hechos observados».[28]

Emergencia cuántica

He citado los desafíos de McFadden a muchas de las propuestas expuestas


arriba. Considera que ninguna de las hipótesis de la sopa primigenia es válida
porque, entre otras cosas, la primera entidad auto-replicante esencial surge como
resultado de la termodinámica. Pero el movimiento aleatorio de las moléculas
acabará produciendo tal multiplicidad de reacciones, que las probabilidades
contrarias a la construcción de una entidad auto-replicante son increíblemente
elevadas.
Por ejemplo, incluso después de asumir una serie de supuestos favorables,
calcula que la probabilidad de que de la sopa molecular primigenia emergiera la
forma más simple conocida de péptido auto-replicante como resultado de
reacciones aleatorias es de una entre 1041, es decir, prácticamente nula.
McFadden cree que la producción de un péptido así tendría que estar dirigida. Lo
cual no quiere decir que tuviera que haber un diseñador inteligente; en las
condiciones idóneas, podría conseguirse a través de un mecanismo de mecánica
cuántica, no a través de la termodinámica.[29]
Como vimos en el capítulo 6 al considerar la realidad del mundo cuántico,
[30] la teoría cuántica afirma que una partícula subatómica es tanto una partícula
como una onda de información no-local: es infinita en extensión y contiene
todos los estados de existencia posibles de esa entidad cuántica; es lo que se
conoce como un estado de superposición cuántica.
McFadden no está a favor de la interpretación del multiverso de Everett[31]
porque viola de forma horrenda el test de la parsimonia y coincide con el punto
de vista de que solo cuando la función de onda se mide, colapsa en la
probabilidad de una partícula física que tiene posición, momento y energía y, por
lo tanto, entra en el mundo clásico que percibimos.
Pero tampoco se muestra a favor de la interpretación de Copenhague[32] ni
de la interpretación del observador consciente de Wheeler[33] para explicar la
medición y el colapso de la onda cuántica. Rechaza asimismo la interpretación
de la onda piloto de Bohm (los detalles de la cual no nos interesan en este
momento).
Pero sí coincide con la interpretación de la decoherencia de Zurek, según la
cual las entidades permanecen en estado cuántico siempre y cuando sus
funciones de onda sean coherentes; en cuanto se produce una interferencia, se
decohesionan y colapsan en la realidad clásica. El mundo aparece como una
realidad clásica porque todo sistema abierto sufre un bombardeo constante de
fotones, electrones y otras partículas, y el entrelazamiento cuántico con tantas
entidades produce la decoherencia y el colapso en estados de superposición. Por
lo tanto, es el entrelazamiento con el entorno, y no un observador, lo que mide el
sistema cuántico y provoca su colapso.
Para que el concepto de la decoherencia cuántica funcione para la aparición
de un péptido auto-replicante a partir de una sopa primigenia, McFadden parte
de tres supuestos clave:

1. La sopa molecular primigenia es microscópicamente pequeña y está


atrapada en el interior de una estructura minúscula, como el poro de una
roca o una gota de aceite, que actúa a modo de proto-célula protegiendo la
coherencia de los estados cuánticos de su interior.
2. Las nuevas moléculas, incluyendo aminoácidos recién creados, se
dispersan dentro y fuera de esta proto-célula.
3. El sistema permanece en estado cuántico y así, en vez de la incorporación
clásica de un único aminoácido para crear un único péptido, cada
incorporación de un aminoácido produce una superposición cuántica de
todos los péptidos resultantes posibles.
En el proceso de incorporación del aminoácido, cada péptido se empareja
con su entorno y decohesiona su estado cuántico en un estado clásico. A partir de
ahí

«Tendría libertad para dejarse arrastrar una vez más hacia el ámbito de la superposición cuántica y
esperar a la siguiente medición […]. Este proceso de dejarse ir hacia el ámbito cuántico, esperar a la
siguiente medición, colapsar en un estado clásico [una partícula] y dejarse ir de nuevo hacia el
ámbito cuántico habría seguido […] prolongando la superposición cuántica de posibles péptidos
hasta el momento en que el sistema habría colapsado de forma irreversible en un estado clásico».

Sin embargo, todo este mecanismo depende de la afirmación de McFadden


de que:

«y lo que es más importante, mientras el péptido siguiera manteniéndose como una única molécula,
siempre podría, después de la medición, entrar de nuevo en el ámbito cuántico.» [la cursiva es de
McFadden]

Este dejarse ir repetitivo hacia el ámbito cuántico es cuestionable. La que lo


hace no es la misma molécula. Contradiciendo su afirmación de que este
hipotético péptido «habría emergido indemne del proceso de medición», el
péptido incorpora en cada etapa un aminoácido, lo que altera su composición
molecular.
Según McFadden, el proceso acaba colapsando de manera irreversible en el
estado clásico cuando en el estado de superposición se genera un péptido auto-
replicante. Y reconoce que la probabilidad de que este péptido, y no otro, colapse
en la realidad clásica es idéntica a la probabilidad de que se genere en las
condiciones termodinámicas de la sopa primigenia, una probabilidad de una
entre 1041 en el ejemplo elegido.
Sugiere que una explicación radica en invocar el multiverso cuántico de
Everett, que previamente había rechazado por «absurdo»: todos los colapsos de
las superposiciones cuánticas se producen en universos distintos, y casualmente
estamos en el universo donde el péptido clásico generado es el péptido auto-
replicante. Sin embargo, la probabilidad de que esto suceda en otro lugar de este
mismo universo es de una entre 1041 menos uno. De ahí que, si se encuentra
vida en otro lugar de nuestro universo (y muchos astrobiólogos creen que podría
encontrarse en un lugar tan cercano como Europa, una de las lunas de Júpiter), la
hipótesis quedaría desaprobada.
Como explicación alternativa, McFadden recurre al efecto anti-Zenón
cuántico, por el cual una serie densa de mediciones cuánticas de un sistema a lo
largo de una ruta en particular puede llevar el sistema a lo largo de esa ruta y no
por el inmenso número de rutas posibles que existirían sin esas mediciones.
Para que esto funcione, McFadden realiza dos supuestos adicionales:

4. Las secuencias de movimientos de electrones y protones dentro y entre las


moléculas, que generan las reacciones químicas que dan como resultado el
primer auto-replicador no son, a nivel cuántico, diferentes a las de los
electrones y protones que se mueven en el espacio vacío.
5. Las mediciones cuánticas llevadas a cabo por las proto-enzimas sobre los
péptidos en el estado de superposición no se diferencian de las mediciones
cuánticas realizadas por lentes polarizadas sobre fotones.

En consecuencia, estas mediciones guían el sistema químico a lo largo de la


ruta que cambia la probabilidad de una entre 1041 de que se produzca el primer
péptido auto-replicante. A continuación, el péptido auto-replicante ineficiente
produce mutantes que, por selección natural ultra-darwiniana, conducen hacia un
incremento gradual de la idoneidad auto-replicante. Se vuelven más eficientes
reclutando membranas de lípidos que los protegen del exterior y evolucionan
hacia proteínas enzimáticas más eficientes hasta que acaba emergiendo la célula
eficiente.
Los últimos dos supuestos son razonables porque son consistentes entre sí,
tienen base empírica, principios científicos. Pero, en general, la hipótesis carece
de base empírica. Más bien al contrario, siempre que los investigadores han
intentado replicar este proceso en el laboratorio utilizando enzimas para copiar
moléculas de ADN o ARN, han acabado evolucionando, después de muchos
centenares de ciclos, en replicadores más eficientes pero en forma de moléculas
más pequeñas y más simples. El sistema nunca ha evolucionado en dirección
contraria, hacia una complejidad mayor, que es lo que se necesita para producir
una célula y que es la dirección que sigue la evolución biológica. Lo mismo
sucede a nivel de simulaciones por ordenador.
McFadden, sin embargo, se muestra impertérrito. Cree que el problema
estriba en la dificultad de poder aislar los reactantes del entorno para mantener la
coherencia cuántica. Especula que la primera vida celular fue un auto-replicador
sencillo que protegía en su interior microesferas nanométricas, no muy distinto
de las nanobacterias encontradas en las rocas subterráneas.
De ahí que los experimentos de laboratorio necesitan imitar las condiciones
que conservan la coherencia cuántica, utilizando instrumentos como un nanotubo
de carbono, una hoja de carbono de un átomo de grosor enrollada en un cilindro
cuyo diámetro es aproximadamente 50.000 veces inferior al de un pelo humano.
Por otro lado, las simulaciones por ordenador solo funcionarán en
ordenadores cuánticos, que utilicen fenómenos mecánicos cuánticos, como la
superposición y el entrelazamiento, para realizar operaciones con los datos en
vez de la tecnología digital actual.
Ambas tecnologías están justo en su infancia.

Complejidad auto-organizada

Cuando Smolin y Capra desarrollaron sus definiciones de vida, se inspiraron


en la teoría de la complejidad elaborada por Stuart Kauffman, un doctor en
medicina convertido en bioquímico asociado al Santa Fe Institute, una
institución interdisciplinaria dedicada al estudio de sistemas complejos.
En 1995, Kauffman planteó la propuesta de que la vida se desarrolló,
mediante un proceso de complejidad auto-organizada, a partir de una sopa
primigenia que contenía miles de millones de moléculas distintas.[34] Asumió
que en esta sopa, una molécula A cataliza la producción de otra molécula, B, que
gracias a ello se vuelve más abundante en la sopa. A su vez, B cataliza la
producción de C, que cataliza la producción de D y así sucesivamente,
generándose la serie A → B → C → D → E → F → G, etc. Asume además que
una molécula de esta serie, por ejemplo F, cataliza también la producción de A,
dando con ello una clausura catalítica al ciclo A → B → C → D → E → F → A,
al que denomina conjunto auto-catalítico. Se perpetúa continuamente
alimentándose de la materia prima de la sopa primigenia y con la ayuda de
energía del sol o de los conductos volcánicos, incrementando con ello la
concentración de estas moléculas en la sopa.
Asume luego que una molécula de este conjunto, por ejemplo D, cataliza
también la producción de otra molécula, por ejemplo A, y también la de E, y así
sucesivamente. De esta manera se crea una red de conjuntos auto-catalíticos
autosuficientes.
Ilustra lo que sostiene que es el patrón de crecimiento característico de estas
redes mediante una analogía con botones e hilos. Elijamos al azar un par de
botones y unámoslos mediante un hilo. Si seguimos uniendo pares de botones al
azar con hilos distintos, acabaremos inevitablemente uniendo algunos botones a
otros que ya están unidos a otros botones.
El número de botones en el cúmulo más grande de botones unidos entre sí es
una medida de lo complejo que se ha vuelto el sistema, según ilustra la figura
15.1, donde Kauffman generaliza el fenómeno denominando «nodo» a cada
botón y «unión» a cada hilo.

El tamaño del cúmulo más grande crece lentamente al principio porque los
botones no tienen muchas uniones. Pero cuando el número de hilos se acerca y
acaba superando la mitad de la cantidad de botones, el tamaño del cúmulo más
grande aumenta a gran velocidad porque, con la mayoría de los botones unidos
ahora en cúmulos, existe una elevada probabilidad de que cada nuevo cúmulo
una un cúmulo pequeño al cúmulo más grande. Muy rápidamente, un único
súper-cúmulo forma una red en la que la inmensa mayoría de los botones están
unidos. Después de esto, el tamaño de esta red grande crecerá lentamente porque
quedarán muy pocos botones que no formen aún parte de esta red.
La figura 15.2 ilustra lo que Kauffman denomina «transición de fase» de la
red por analogía con transición de fase entre, por ejemplo, el agua y el hielo. Un
sistema altamente complejo, como la red de partes interrelacionadas de una
célula, emerge de repente a partir de las redes que componen la célula, que han
crecido a través de los enlaces de redes auto-catalíticas y autosuficientes de
moléculas. El sistema altamente complejo es estable porque hay poco espacio
para que se produzcan más cambios.

Según Kauffman, cuando este mecanismo opera en una sopa primigenia,


elimina la necesidad de construir una cadena larga de sucesos químicos poco
probables. La vida, como conjunto auto-catalítico súper-complejo y
autosuficiente, emerge de repente como una transición de fase. «La vida
cristaliza en una diversidad molecular crítica porque la clausura catalítica
también cristaliza».
Esta hipótesis es consistente con el concepto de evolución en red, y no en
árbol genealógico, discutido anteriormente. Sin embargo, Kauffman reconoce
que «Hay todavía escasas evidencias experimentales que sustenten este punto de
vista».
Aplicando los test de racionalidad, la propuesta de complejidad auto-
organizada es internamente consistente y ofrece consistencia externa en cuando a
que es consistente con modelos obtenidos por ordenador. Por desgracia, eso es
todo.
El modelo no explica cómo aparecen las moléculas catalíticas, A, B, C, etc.
Como hemos visto, incluso con supuestos favorables, la probabilidad de que el
péptido auto-replicante más simple conocido emergiera como resultado de
reacciones aleatorias en la sopa molecular es de una entre 1041.
Edward O. Wilson llega a la conclusión de que, por mucho que es posible
que las teorías de la complejidad vayan por buen camino, su problema es que en
este contexto quedan excesivamente divorciadas de los detalles biológicos.

La dificultad básica, por decirlo claramente, es la insuficiencia de hechos. Los teóricos de la


complejidad no disponen aún de información suficiente para poder llevar con ellos al ciberespacio.
Los postulados con los que empiezan necesitan a todas luces más detalle. Sus conclusiones hasta el
momento son demasiado vagas y generales como para ser algo más que metáforas reivindicatorias y
sus conclusiones abstractas nos cuentan pocas novedades.[35]

En opinión de McFadden:

La aparición espontánea de conjuntos auto-catalíticos es factible solamente en ordenadores, donde


cada conjunto puede aislarse del revoltijo de reacciones que los rodea. En las sopas químicas reales,
cada componente está inmerso en un millar de reacciones secundarias que inevitablemente diluye y
disipa cualquier conjunto auto-catalítico emergente.

Continúa presentando una objeción teórica, que considera de suma


importancia, a la teoría de la complejidad como hipótesis para explicar la
aparición de la vida. La auto-organización demostrada por los ciclones y otros
ejemplos

Está generada por la interacción aleatoria de miles de millones de moléculas. Son fenómenos que
implican cantidades enormes de partículas y que tienen una estructura solo a escala macroscópica; a
nivel molecular, no hay más que caos y movimiento aleatorio. Pero las células poseen estructuras
ordenadas a todos los niveles, hasta llegar a las partículas fundamentales. Las estructuras
macroscópicas de células vivas no son resultado de un movimiento incoherente y aleatorio.[36]
Creo que Wilson tiene razón cuando dice que, tal y como está desarrollada en
la actualidad, la teoría de la complejidad auto-organizada es demasiado abstracta
y confía excesivamente en modelos por ordenador como para poder proporcionar
una hipótesis con base empírica. La esperanza es que cuando se refinen estos
modelos con la incorporación de datos empíricos se pueda llegar a nuevas leyes
de carácter más profundo que ayuden a comprender la aparición de la vida a
partir de materia inanimada.

Teoría de la emergencia

Smolin y Capra se inspiran también en la teoría de la emergencia articulada


por Harold Morowitz, profesor de biología y filosofía natural de la George
Manson University, que considera que leyes de carácter más profundo explicarán
la complejidad emergente de los procesos bioquímicos igual que el nivel
cuántico del principio de exclusión de Pauli selecciona de entre un abanico
increíblemente inmenso de posibilidades un pequeño conjunto de estados de
energía de electrones en un átomo que explica la emergencia de 118 elementos.
[37]
Durante muchos años, Morowitz ha buscado características que unifiquen las
principales reacciones químicas que llevan a cabo los organismos vivos en sus
células porque considera que las reacciones de carácter metabólico son la
principal característica de la vida y, por lo tanto, la más antigua, a pesar de que
en su trascendental libro[38] no defina en ningún momento ni el metabolismo ni
la vida.
Si lo entiendo correctamente, Morowitz especula que el proceso de
emergencia de la vida empezó cuando el flujo de energía de una red de conjuntos
auto-catalíticos de moléculas primordiales produjo la aparición del metabolismo
(presuntamente, es lo que los teóricos de la complejidad denominan conjuntos
auto-catalíticos autosuficientes).
Morowitz identifica varios problemas. En primer lugar, «empezando con los
20 aminoácidos de producción natural, una cadena de 100 aminoácidos sería una
cadena de 20100 posibilidades […], lo cual es superior a 10101 […]. Muchas de
estas secuencias serán catalíticas para un amplio rango de reacciones». Tienen
que ser seleccionadas.
Luego, los problemas de las estructuras constructivas, como las células
procariotas con funciones específicas, son arquitectónicos (estructuras
tridimensionales que determinan donde tienen lugar las reacciones químicas),
químicos (qué moléculas y cómo reaccionan entre ellas) e informativos (un
conjunto de procesos por los que «secuencias de aminoácidos pueden codificarse
en secuencias de nucleótidos», a saber, ADN y ARN). Todas estas funciones
deben ser seleccionadas de entre un rango increíblemente grande de
posibilidades.
La emergencia de la vida implica, pues, «muchas, muchas emergencias» que
tienen lugar dentro de un periodo de tiempo que, desde el punto de vista
geológico, es casi instantáneo.
Morowitz reconoce que comprender las emergencias intermedia es algo que
«está sujeto a estudio experimental y teórico en el mundo de las redes químicas,
a estudio físico de las macromoléculas y a una comprensión mejor de las
propiedades del sistema». Es decir, que no existe aún ni una base empírica ni una
teoría adecuada que respalden la propuesta.
Que uno o más equivalentes bioquímicos al principio de exclusión de Pauli
puedan acabar explicando el camino que siguen moléculas simples elegidas al
azar hasta la emergencia de una forma de vida independiente, es una idea
increíblemente atractiva, pero ni Morowitz ni nadie más ha sugerido qué ley, o
leyes, de carácter más profundo podrían conseguirlo. Hasta el momento, la teoría
de la emergencia no aporta nada nuevo excepto una descripción alternativa, y tal
vez más sofisticada, de los problemas, expresada en términos de la necesidad de
uno o más principios de selección para explicar el fenómeno.

Conclusiones

1. El relato ortodoxo de la bioquímica sobre cómo apareció la vida en la


Tierra a partir de las moléculas complejas compuestas por hasta 13 átomos
encontradas o depositadas en la Tierra recién formada, es que la energía
del sol y los rayos hizo que estás moléculas, que se encontraban en la
atmósfera de la incipiente Tierra, produjeran los 20 aminoácidos de
producción natural, que se disolvieron en los océanos. En el transcurso de
centenares de miles, o de millones de años, reacciones aleatorias
produjeron el primer auto-replicador, una molécula de ARN capaz de
actuar a modo de catalizador para reproducirse y también para producir
proteínas. La selección natural ultra-darwiniana favoreció descendientes
mutantes con auto-replicación más eficiente, lo que los llevó a reclutar
proteínas para formar una membrana protectora y, finalmente, moléculas
de ADN, que eran depósitos de información genética más estable y, por lo
tanto, constituir la primera célula. Sin embargo, esta hipótesis, y también la
que propone que el replicador primigenio era un péptido auto-replicante,
no están basadas en evidencias empíricas. Más de 60 años de intentos de
generar vida a partir de estas moléculas primordiales en las condiciones
que se cree que existían en la Tierra primitiva, no han conseguido producir
nada ni remotamente parecido a un auto-replicador, y mucho menos una
célula viva.
2. Además, estas hipótesis no son válidas porque, entre otras razones, existe
una improbabilidad abrumadora de que reacciones aleatorias en una
solución acuosa pudieran haber producido una molécula de ARN auto-
replicante o un péptido auto-replicante, y mucho menos que tuvieran solo
los isómeros aminoácidos con formas levógiras que encontramos en las
células.
3. La propuesta de que la primera célula evolucionó como consecuencia de
un proceso de complejidad auto-organizadora tampoco consigue explicar
cómo las moléculas catalíticas en las que se basa la propuesta emergieron
en una sopa primigenia a partir de una cantidad abrumadoramente
improbable de reacciones de moléculas. El relato resulta actualmente
excesivamente abstracto y está tan divorciado del detalle biológico que no
ofrece una explicación convincente de la aparición de la vida.
4. La propuesta de que la ruta hacia la primera célula empezó con cristales de
arcilla auto-replicantes que estaban presentes en la Tierra primitiva, y que
el avance por este camino fue catalizado por reacciones que tuvieron lugar
en la superficie bidimensional y electrónicamente cargada de dichos
cristales de arcilla, es una conjetura intrigante que carece tanto de
explicaciones adecuadas para sus pasos clave, como de base experimental;
además, es prácticamente imposible obtener evidencias fósiles. Lo mismo
sucede con la propuesta de que la ruta hacia la vida fue facilitada por el
efecto catalítico bidimensional generado con la formación de pirita de
hierro cerca de los manantiales termales sub-oceánicos; su primer paso
exige la conversión del dióxido de carbono en componentes carbónicos,
algo para lo que no existe actualmente base empírica.
5. La propuesta de que la vida llegó a la Tierra desde el espacio exterior, bien
en forma de esporas bacterianas bien con bacterias en el interior de
cometas o asteroides, no logra explicarnos cómo se originó esa vida.
Además, evidencias en conflicto han demostrado que varias de estas
hipótesis son falsas, mientras que otras se basan en supuestos muy
cuestionables para los que no hay evidencias. Lo mismo aplica a la
afirmación de que la vida se originó en el interior de los cometas.
6. La propuesta de que la primera célula es irreduciblemente compleja y que
solo podría ser resultado del diseño inteligente carece de evidencias que la
sustenten; no es falsable y, por lo tanto, no se considera una explicación
científica.
7. Invocar el principio antrópico tampoco ofrece una explicación científica.
Su versión débil no explica nada. Las tres interpretaciones de la versión
fuerte no pueden ser sometidas a test, son poco convincentes y tan
razonables como muchas de las creencias y puntos de vista no científicos.
8. La propuesta de que el primer auto-replicador orgánico emergió a partir de
moléculas primigenias en un recinto natural microscópicamente pequeño
por medio de la mecánica cuántica, y no por la termodinámica, depende de
una interpretación particular, aunque razonable, de la teoría cuántica. Sin
embargo, tal y como está hoy en día desarrollada la propuesta, presenta
inconsistencias internas y no está sustentada aún por ninguna evidencia
experimental.
9. La idea de que los equivalentes bioquímicos del principio de exclusión de
Pauli expliquen las emergencias de pasos intermedios en la ruta desde
moléculas simples aleatorias hasta la emergencia de una célula viva,
resulta atractiva, pero nadie ha sugerido aún cuál podría ser esta ley, o
leyes, de carácter más profundo o cómo surgieron.
10. Igual que sucede con la aparición de la materia, es muy probable que la
explicación de la aparición de la vida quedé más allá de la capacidad de la
ciencia para hacerlo.

Y si la ciencia no puede explicar ahora, y muy probablemente nunca, cómo


apareció la vida, ¿puede contarnos cómo evolucionó?
[1]Miller, S. L., «A Production of Amino Acids under Possible Primitive Earth Conditions», Science,
117: 3046, 1953, pp. 528–529.
[2]McFadden (2000), pp. 85–88.
[3]Ibíd, pp. 95–98.
[4]Lee, David H., et al., «A Self-Replicating Peptide», Nature, 382: 6591, 1996, pp. 525–528.
[5]Cairns-Smith (1990).
[6] Véase página 330.
[7]Ferris, James P., et al., «Synthesis of Long Prebiotic Oligomers on Mineral Surfaces», Nature, 381:
6577, 1996, pp. 59–61.
[8]Wachtershauser, G., «Before Enzymes and Templates: Theory of Surface Metabolism», Microbiol
Rev, 52, 1988, pp. 452–484.
[9]McFadden (2000), pp. 91–92.
[10]Crick, F. H. C. y Orgel, L. E., «Directed Panspermia», Icarus, 19, 1973, pp. 341–346.
[11]Hoyle y Wickramasinghe (1978).
[12]Wickramasinghe, Chandra, et al., «SARS—a Clue to Its Origins?», The Lancet, 361: 9371, 2003,
pp. 1832–1832.
[13] Véase página 237.
[14]Véase, por ejemplo, de Leon, Samuel Ponce y Antonio Lazcano, «Panspermia—True or False?»,
The Lancet, 362: 9381, 2003, pp. 406–407.
[15]Napier, W M, et al., «The Origin of Life in Comets», International Journal of Astrobiology, 6: 04,
2007, pp. 321–323.
[16]http://www.astrobiology.cf.ac.uk/News3.html. Consultado el 12 de Agosto de 2008.
[17]Bostrom, N., «Are You Living in a Computer Simulation?», Philosophical Quarterly, 53: 211,
2003, pp. 243–255.
[18] Véase página 302.
[19] Véase página 361.
[20]Behe (1996).
[21] Editado en español por Editorial Andrés Bello, Barcelona, 2000.
[22]Pallen, Mark J. y Matzke, Nicholas J., «From the Origin of Species to the Origin of Bacterial
Flagella», Nat Rev Micro, 4: 10, 2006, pp. 784–790.
[23]News «Hoyle on Evolution», Nature 294, 1981, p. 105.
[24]Hoyle, Fred, Evolution from Space: The Omni Lecture Delivered at the Royal Institution, London
on 12 January 1982, Cardiff: University College of Cardiff Press.
[25]Carter, B., «Large Number Coincidences and the Anthropic Principle in Cosmology», pp. 291-298
en Confrontation of Cosmological Theories with Observational Data editado por M. S. Longair, Springer,
1974.
[26]Barrow y Tipler (1996).
[27] Véase de página 177 a página 182.
[28]Penrose (1989), p. 561.
[29]McFadden (2000), pp. 219–240.
[30] Véase de página 159 a página 160.
[31] Véase página 177.
[32] Véase página 159.
[33] Véase página 159.
[34]Kauffman (1996).
[35]Wilson (1998), p. 97.
[36]McFadden (2000), p. 94.
[37] Véase página 232.
[38]Morowitz (2004).
CAPÍTULO 16. EL DESARROLLO DE LAS IDEAS
CIENTÍFICAS SOBRE LA EVOLUCIÓN BIOLÓGICA

Si tuviera que dar un premio a la mejor idea que haya tenido alguien jamás, se la daría a Darwin, por
delante de Newton, Einstein y todos los demás.

DANIEL C. DENNETT, 1995

En la ciencia, el crédito se lo lleva aquel capaz de convencer al mundo, no aquel a quien se le ocurre la
idea.

SIR FRANCIS DARWIN, 1914

Antes de evaluar el relato actual de la ciencia sobre la evolución de la vida,


considero necesario reafirmar lo que entiendo por evolución, puesto que muchos
científicos equiparan el término con la evolución biológica y, de entre esos
muchos, los hay que mezclan el fenómeno de la evolución biológica con solo
uno de sus varios mecanismos posibles, la selección natural. La palabra tiene un
significado amplio, como hemos visto al considerar la evolución de la materia en
la primera parte.

Evolución: proceso de cambio que afecta a alguna cosa, especialmente


de un estado sencillo a otro más complejo.

Empezaré resumiendo cómo las principales ideas sobre la ida acabaron


desarrollando la explicación ortodoxa actual de la evolución biológica. En los
dos capítulos siguientes examinaré lo que muestran las evidencias actuales, y en
los que vienen a continuación evaluaré la explicación ortodoxa actual de las
evidencias y las hipótesis que pretenden modificar o desafiar esa explicación.
Ideas pre-evolucionistas

Aristóteles

En el siglo III y IV, Occidente redescubrió los relatos de los pensamientos de


Aristóteles, que databan del siglo IV a. C., y descubrieron que el filósofo había
llevado a cabo una clasificación exhaustiva de los seres vivos. A partir de una
división básica entre plantas y animales, había dividido los animales en los que
tenían sangre roja y los que no (una división que se corresponde con la
diferenciación moderna entre vertebrados e invertebrados). Había agrupado
además por géneros a los animales con caracteres similares y luego había
dividido esta clasificación es especies.

Creacionismo

Cuando, a partir de la filosofía natural, se empezó a desarrollar la ciencia en


Occidente, prácticamente todos sus practicantes fueron cristianos. La mayoría de
los científicos[1] del siglo XVIII creía en la verdad de la Biblia judeo-cristiana,
según la cual Dios había creado las especies, que habían permanecido
inalterables desde entonces. A partir de 1701, la versión autorizada de la Biblia
(la del rey Jacobo) incluyó en sus márgenes el cálculo ampliamente aceptado y
realizado por el arzobispo Ussher que situaba el acto de la creación 8.000 años
atrás.[2]

Linneo

La clasificación de las especies, o taxonomía, de Aristóteles, sufrió escasas


modificaciones hasta 1735, cuando el doctor en medicina y botánico sueco Carl
Linneo —conocido también por su nombre latinizado, Carolus Linnaeus— (hay
que recordar que prácticamente todos los escritos científicos estaban en latín),
publicó Systema Naturae (El sistema natural), donde agrupó a las especies según
sus caracteres físicos. A lo largo de ediciones posteriores y ampliadas, clasificó
el mundo natural en una jerarquía que empezaba con tres reinos (animales,
plantas y minerales) y progresaba hasta alcanzar la especie de mayor rango, el
hombre. La tabla 16.1 muestra la ubicación del hombre en su clasificación.

Su obra causó controversia, puesto que implicaba que no éramos más que
una parte cualquiera de la naturaleza y próxima, además, al mono.
Linneo, sin embargo, consideraba que su papel consistía en clasificar las
distintas especies que Dios había creado, a pesar de que en un momento
avanzado de su vida su mayor preocupación fuera que el cruce de distintas
especies de plantas producía híbridos que no habían existido previamente.
Estuvo a punto de proponer la evolución, pero llegó a la conclusión de que los
híbridos eran productos de especies que Dios había creado en los inicios del
mundo.[3]
El sistema taxonómico de Linneo sigue utilizándose hoy en día, aunque
biólogos, zoólogos, paleontólogos, antropólogos, genetistas y biólogos
moleculares han expandido la jerarquía y desarrollado la base de la clasificación
a partir solo de la morfología.

El desarrollo de las ideas evolucionistas

De Maillet

En el siglo XVIII, unos pocos intelectuales, influidos por los geólogos que
sugerían que la Tierra era considerablemente más antigua de lo que insinuaba la
Biblia, especularon que las especies cambiaban. Probablemente, el primer
defensor moderno de la evolución biológica y de un antepasado común para
animales radicalmente distintos fue el diplomático francés e historiador
especializado en ciencias naturales, Benoit de Maillet. Su datación de la edad de
la Tierra en 2,4 miles de millones de años y su idea de que toda la vida empezó
en aguas poco profundas quedan expuestas en su obra Telliamed, publicada de
forma póstuma en 1748.[4]

Buffon

El historiador especializado en ciencias naturales francés, Georges Louis


Leclerc, conde de Buffon, compiló una obra impresionante en cuarenta y cuatro
volúmenes, Histoire Naturelle [Historia natural], entre 1749 y su fallecimiento,
en 1788, quedando la redacción de los últimos ocho volúmenes en manos de un
colega que acabó publicándolos en 1804. Producto de la Ilustración francesa,
Buffon se inspiró en las ideas de Isaac Newton y en las observaciones detalladas
de muchos científicos para proponer que todo el mundo natural, desde la
formación de la Tierra hasta la producción de las distintas especies, comprendía
fenómenos naturales que podían explicarse a partir de fuerzas naturales que
obedecían leyes naturales.
Prefiguró la ciencia de la biogeografía observando las diferencias entre las
especies en distintas localizaciones. Sus ideas sobre la transformación de las
especies quedan ejemplificadas por su observación, basada en evidencias más
que cuestionables, de que los animales del Nuevo Mundo eran más pequeños y
más débiles que sus homólogos en el Viejo Mundo. Atribuía esta
«degeneración» a los agentes transformadores del clima, la alimentación y la
domesticación. Este transformismo biológico, sin embargo, no daba lugar a
nuevas especies.[5]

Erasmus Darwin

Erasmus Darwin, el abuelo de Charles Darwin, fue un físico, poeta,


abolicionista y librepensador radical que realizó importantes contribuciones en el
campo de la medicina, la física, la meteorología, la horticultura y la botánica.
Reconoció la influencia de numerosas fuentes, incluyendo entre ellas al
«ingenioso señor Buffon», cuando expuso sus opiniones sobre la evolución
biológica en el primer volumen, publicado en 1794, de su Zoonomia, or, the
Laws of Organic Life [Zoonomía, o las leyes de la vida orgánica], que tuvo la
distinción de ser prohibida por el papa. Fue más allá de Buffon al especular que
todos los animales de sangre caliente provenían de un «filamento vivo […]
dotado de animalidad, con la capacidad de poder adquirir nuevas partes […] y
con la facultad de continuar mejorando gracias a su actividad inherente» y que
estás mejoras pasaban de una generación a la siguiente.[6]
En Temple of Nature; or, The Origin of Society [El templo de la naturaleza; o,
el origen de la sociedad], un poema compuesto por 1.928 versos
complementando con notas muy extensas publicado póstumamente en 1803,
describe la gloria de la humanidad, incluyendo sus poderes mentales y su sentido
ético, y atribuye sus orígenes a la primera vida microscópica bajo el mar. A partir
de ahí, evoluciona en distintas especies como respuesta a una lucha por alcanzar
la perfección en distintos entornos. La última anotación especula incluso con que
el universo terminará con un Big Crunch y emergerá para evolucionar de nuevo,
como un ciclo en un universo eterno que opera bajo «leyes inmutables impresas
en la materia por la Gran Causa de las Causas».[7]

Hutton
James Hutton es conocido por su revolucionaria explicación sobre cómo los
procesos geológicos se producen lentamente a lo largo de extensos periodos de
tiempo, una postura contraria al relato sobre la edad de la Tierra, extraído de la
Biblia y dominante en aquel momento. Fue seguramente el primero en proponer
la supervivencia de los más fuertes como causa del cambio evolutivo. En 1794,
65 años antes de El origen de las especies de Charles Darwin, publicó en
Edimburgo An Investigation of the Principles of Knowledge [Una investigación
de los principios del conocimiento], un tratado filosófico en tres volúmenes con
una extensión total de 2.138 páginas. Basándose en sus experimentos con
cultivos de plantas y crianza de animales, en el capítulo 3 de la Sección 3,
Volumen 2, describe lo que posteriormente Darwin denominaría «selección
natural»:

Al imaginar una variedad indefinida entre los individuos de esa especie, podemos estar seguros de
que, por un lado, los que más se alejen de la constitución mejor adaptada, presentarán mayor
tendencia a perecer, mientras que, por otro lado, los cuerpos organizados, los que más se acerquen a
la mejor constitución para las circunstancias actuales, estarán mejor adaptados para continuar,
mantenerse y multiplicar los individuos de su raza.

Como ejemplo, Hutton explica que entre los perros que basan su
supervivencia en la velocidad de sus patas y en su agudeza visual, los que sean
más débiles en esas cualidades perecerán, mientras que los mejor equipados con
estas cualidades, estarán mejor adaptados para la supervivencia y se
multiplicarán engendrando individuos similares de su raza. Pero si la
supervivencia dependiera de un sentido del olfato afinado, aplicando este mismo
«principio trascendental de variación», la tendencia natural «sería cambiar las
cualidades del animal, y producir una raza de sabuesos con buen olfato, en vez
de aquellos que capturan su presa gracias a su velocidad».[8]

Lamarck

El zoólogo especializado en invertebrados y paleontólogo francés, Jean-


Baptiste Lamarck, tenía ideas muy similares a las de Erasmus Darwin, pero
ninguna evidencia sugiere que fueran mutuamente conscientes de sus trabajos.
Como resultado de sus investigaciones, escribió su libro más importante,
Philosophie zoologique [Filosofía zoológica], que presentó ante el Institut
National des Sciences et Arts en 1809. Sus repetitivas y con frecuencia oscuras
903 páginas, contienen conceptos básicos ara el pensamiento evolutivo moderno.
A partir de su estudio de los animales, llegó a las siguientes conclusiones:

1. Con el paso del tiempo deben de haberse sustituido muchas formas de


vida, puesto que aparecen como fósiles pero ya no son visibles hoy en día,
mientras que formas de vida existentes en la actualidad no aparecen como
fósiles.
2. Los animales pueden clasificarse según su incremento de complejidad.
3. Los animales vivos exhiben una amplia diversidad de formas.
4. Los animales vivos están especialmente bien adaptados a su entorno.

Explicó estos fenómenos proponiendo que la acción del calor, la luz y la


humedad sobre la materia inorgánica generan pequeños gránulos de materia
viva, una teoría que hoy se conoce como abiogénesis, el origen de la vida a partir
de materia inanimada. Esta materia inanimada posee el poder inherente de
adquirir una organización cada vez más compleja. La abiogénesis no fue un
suceso único en la historia de la Tierra, tal y como se considera en general hoy
en día, sino que se produce continuamente, y las distintas especies que vemos
son resultado de los linajes que inician en momentos distintos su proceso de
incremento de la complejidad en busca de la perfección. El Homo sapiens es el
linaje más antiguo porque ha alcanzado la etapa más elevada de complejidad.
Lanzó la hipótesis de que la adaptación a las distintas condiciones
medioambientales interrumpe este avance en complejidad para producir la gran
diversidad de especies que encontramos dentro de cada género. De ahí que este
transformismo, o evolución, avance desde árboles genealógicos sencillos a otros
cada vez más complejos, en los cuales el hombre ocupa la cúspide.
Estas propuestas materialistas desafiaron las creencias básicas cristianas que
defendían que Dios había creado todas las formas vivas y que el hombre
ocupaba un lugar único en la creación de Dios.
Para apoyar su teoría evolucionista, Lamarck ofreció cuatro categorías de
evidencias que Charles Darwin utilizaría en El origen de las especies cincuenta
años más tarde: el registro fósil, la gran variedad de animales y plantas
producidas mediante cultivo humano (Lamarck se anticipó incluso a Darwin
mencionando la paloma colipava), la presencia de vestigios de estructuras no
funcionales en muchos animales y la presencia de estructuras embrionarias que
no tienen equivalente en el ejemplar adulto.
Posteriormente, sin embargo, el lamarquismo acabó asociado no con el
fenómeno de la evolución biológica, sino a la causa que proponía, que quedó
establecida en dos leyes en Philosophie zoologique. La primera ley dice que los
organismos cambian en respuesta a los cambios de su entorno: el cambio
medioambiental provoca cambios en las necesidades fisiológicas de los
organismos, que a su vez provocan cambios en su conducta, que a su vez
provocan un incremento de la utilización o no utilización de determinadas partes
de su cuerpo, lo que a su vez provoca el aumento o disminución de tamaño de
esas partes. La segunda ley dice que estos cambios son hereditarios. Como
consecuencia de ello, los cambios en la morfología, aun siendo muy pequeños,
acaban acumulándose a lo largo de generaciones para producir grandes
transformaciones. Como ejemplo, Lamarck explicaba que las jirafas empezaron
a estirar el cuello para alcanzar el único sustento que estaba en su día disponible,
las hojas de las copas de los árboles; este alargamiento gradual del cuello era
hereditario y aumentó en cada generación hasta generar la especie que vemos
hoy en día.
La idea de que el entorno provoca cambios hereditarios en los organismos no
ha encontrado base empírica hasta muy recientemente, gracias a la epigenética,
de la que hablaré en otro capítulo.
Las ideas de Lamarck fueron ignoradas y ridiculizadas durante toda su vida,
y el estudioso murió en la pobreza en 1829.[9]

Geoffroy

El naturalista francés Etienne Geoffroy Saint-Hilaire fue un deísta que creía


que Dios había creado el universo y lo había dejado funcionando bajo leyes
naturales sin más intervención por su parte. Amigo y colega de Lamarck,
defendió y amplió sus teorías. Recopilando evidencias a partir de la anatomía
comparativa, la paleontología y la embriología, defendió la unidad subyacente
del diseño de todos los órganos. Por analogía con el desarrollo del embrión
simple hasta el adulto complejo, utilizó el término «evolución» para aplicarlo a
la transmutación de especies en el tiempo geológico.[10]

Wells

En 1813, William Wells, medico e impresor escocés-americano, presentó un


artículo en la Royal Society. Según su biografía, escrita por J. H. S. Green y
publicada en Nature, Wells «no solo presentó una teoría sobre la variación, la
selección, la descendencia con modificación y el origen de las razas del hombre;
sino que además se dio cuenta de la importancia de la enfermedad en la
selección, un factor no mencionado por Darwin en El origen de las especies».
[11] El documento de Wells fue publicado de forma póstuma en 1818.

Grant

Robert Edmond Grant, un biólogo viajado y radical, amigo de Geoffroy, fue


miembro destacado de la Plinian Society de Edimburgo. Charles Darwin se
incorporó a la misma en 1826, cuando inició su segundo año de estudios de
Medicina en la Universidad de Edimburgo y se convirtió en el alumno más
aplicado de Grant. Grant era un defensor entusiasta de las ideas transformistas de
Lamarck y Geoffroy y especuló que la «transformación» podía afectar a todos
los organismos que evolucionaban desde un modelo primitivo, lo que sugería un
origen común para plantas y animales.[12]

Matthew

En 1831, Patrick Matthew, terrateniente escocés y fruticultor, publicó un


libro titulado On Naval Timber and Arboriculture [Sobre madera para
construcción naval y arboricultura]. En el apéndice, Matthew amplió su idea
sobre cómo la selección artificial podía mejorar árboles cultivados hasta
convertirla en una ley universal de selección natural en la que la «progenie de los
mismos padres, bajo grandes diferencias de circunstancias, podría, en el
transcurso de varias generaciones, convertirse incluso en especies distintas,
incapaces de co-reproducirse».[13]

Wallace[14]

Las dificultades financieras de la familia interrumpieron en seco la formación


de Alfred Russel Wallace en la escuela de enseñanza secundaria de Hertford, en
el sudeste de Inglaterra, cuando él tenía 14 años de edad. Consiguió, de todos
modos, trabajo como topógrafo e ingeniero y fue entonces cuando empezó a
sentir fascinación por el mundo natural. Inspirado por las crónicas de los
naturalistas, incluyendo entre ellas el diario que había publicado en 1839 Charles
Darwin en el que relataba su viaje a bordo del Beagle, en 1848 decidió
emprender también un viaje a América del Sur para recoger ejemplares de
plantas, insectos y animales.
Le había impresionado asimismo la obra Principles of Geology [Principios
de Geología], de sir Charles Lyell, donde el autor proponía que los procesos
lentos y continuados podían aportar grandes cambios, y Vestiges of the Natural
History of Creation [Vestigios de la historia natural de la Creación], una obra
muy controvertida de ciencia popular publicada de manera anónima en 1844[15]
y que defendía un origen evolutivo del sistema solar, la Tierra y todos los seres
vivos. Al parecer, estas obras le convencieron de la transmutación de las especies
y se empeñó en investigar sus causas. Decidió financiar su viaje vendiendo los
ejemplares recogidos a coleccionistas cuando regresara al Reino Unido.
En 1854 inició una expedición de ocho años al archipiélago malayo (Malasia
e Indonesia actuales), durante la cual inició una correspondencia con Darwin. En
1858 envió a Darwin un ensayo titulado «On the Tendency of Varieties to Depart
Indefinitely From the Original Type» (Sobre la tendencia de las variedades de
alejarse indefinidamente de la tipología original), solicitándole que lo revisara y
se lo pasara a Lyell si lo consideraba merecedor de ello.
Darwin estaba desolado. Dos años antes había escrito a su amigo Lyell
reconociendo que «Odio la idea de escribir por prioridades, pero me enojaría que
alguien publicara mis doctrinas antes que yo».[16] El 18 de junio de 1858,
Darwin envió el ensayo a Lyell con una carta de acompañamiento en la que
decía: «Jamás vi una coincidencia más sorprendente; de haber tenido Wallace el
manuscrito de mi borrador escrito en 1842, ¡no podría haber hecho un mejor
resumen! […]. De este modo mi originalidad […] va a quedar destruida».[17]
Una semana más tarde, Darwin le escribió otra carta a Lyell en la que le
decía:

Nada hay en el borrador de Wallace que no esté escrito, mucho más completo, en mi borrador,
redactado en 1844, y leído por Hooker hace una docena de años. Hará cuestión de un año, remití un
breve resumen, del cual conservo copia, de mis teorías […] a Asa Gray, con lo cual podría con toda
exactitud decir y demostrar que no he tomado nada de Wallace […]. Me resultaría duro verme
forzado a perder la prioridad de mi postura desde hace tantos años.

Entre protestas por su falta de méritos, rogaba a Lyell que le diera su opinión
sobre si consideraría deshonroso por su parte publicar en aquel momento y le
solicitaba que remitiera el material a otro de sus confidentes, el botánico Joseph
Hooker. Escribió luego, en un tono similarmente auto-despectivo a Hooker,
ofreciéndose a escribir una versión más detallada de su borrador de 1844 para
que fuese publicada en el Linnean Journal.[18]
Lyell y Hooker le respondieron ofreciéndole a Darwin la solución que este
les había solicitado de manera implícita. El 1 de julio de 1858, realizaron ambos
una presentación conjunta en la Linnean Society a la que pusieron por título «On
the Tendency of Species to form Varieties; and on the Perpetuation of Varieties
and Species by Natural Means of Selection» [Sobre la tendencia de las especies
a formar variedades; y sobre la perpetuación de las variedades y las especies por
medio de la selección natural]. La presentación incluía extractos del borrador de
1844 que Darwin había enviado a Hooker más parte de la carta que Darwin
había escrito a Asa Gray en 1857, seguido todo ello por el ensayo de veinte
páginas de Wallace. Los comentarios introductorios de Lyell y Hooker dejaban
claro que no solo querían dejar constancia de las reivindicaciones de prioridad de
Darwin y Wallace, sino que además estaban presentando el material por el
interés de la ciencia en general.[19] Sin Darwin presentándose personalmente
para reclamar su prioridad, obtuvo el resultado deseado de registrar
públicamente que él había sido el primero en tener la idea de la selección natural
y reconocer que Wallace, de un modo independiente aunque también posterior,
había llegado a la misma conclusión.
Wallace no fue consultado al respecto, pero se quedó aparentemente
satisfecho cuando fue informado sobre el acto. Otorgaba a un profesional carente
de formación universitaria, que se ganaba la vida recogiendo y vendiendo
ejemplares, el reconocimiento de los miembros de la clase científica y el acceso
a ellos. En la Inglaterra victoriana, esta clase estaba integrada por caballeros de
clase alta con medios económicos, como Lyell y Darwin.
Darwin ofreció su amistad al joven y Wallace respondió convirtiéndose en
uno de los defensores más acérrimos de Darwin, apoyando On the Origin of
Species by Means of Natural Selection, or The Preservation of Favoured Races
in the Struggle for Life [Del origen de las especies por medio de la selección
natural, o la preservación de las razas favorecidas en la lucha por la existencia],
el libro que Darwin publicaría el año después de la presentación en la Linnean
Society.
Esta amistad no impidió que Wallace no coincidiera con Darwin en diversos
aspectos, incluyendo el grado hasta el cual la selección natural podía explicar el
desarrollo del sentido ético y las facultades intelectuales del hombre, el grado
hasta el cual la selección sexual podía explicar el dimorfismo sexual, la creencia
de Darwin en la herencia de caracteres adquiridos y su concepto de la pangénesis
(véase más adelante).
En 1864, Wallace publicó un documento titulado «The Origin of Human
Races and the Antiquity of Man Deduced from the Theory of “Natural
Selection”» [El origen de las razas humanas y la antigüedad del hombre
deducidos a partir de la teoría de la «selección natural»], con temas que Darwin
no había abordado públicamente, y en 1889 un libro Darwinism [Darwinismo],
en el que explicaba y defendía la selección natural. En él proponía que la
selección natural podía llevar al aislamiento reproductivo de dos variedades
animando el desarrollo de barreras contra la hibridación, ayudando con ello a
generar nuevas especies.

Charles Darwin

¿Un pensador original?

Tal y como demostraron las celebraciones del doscientos aniversario de su


muerte y el ciento cincuenta aniversario de la publicación de El origen de las
especies, Charles Darwin se presenta en general como la primera persona que
desarrolló la teoría de la evolución biológica y que propuso la selección natural
como su causa.
Darwin finalizó su viaje de cinco años alrededor del mundo a bordo del HMS
Beagle en 1836, y pasó los veintitrés años siguientes intentando dar sentido a los
ejemplares que había recogido y a todo lo que había visto, buscando más
ejemplares de especímenes y relatos de otros naturalistas, llevando a cabo
experimentos y leyendo con avidez. Los cuadernos de trabajo que llenó durante
este periodo hacen repetidas referencias a «mi teoría» y no dan pistas de que se
inspirara en ideas de otros. Pero aun así, Paul Pearson, profesor de la
Universidad de Cardiff, señala que es posible que no fuera una coincidencia que
Wells, Matthew y Darwin hubieran estudiado en Edimburgo, la ciudad de
Hutton, famosa por sus sociedades intelectuales y sus pensadores radicales, y
«parece posible que un concepto medio olvidado de sus tiempos de estudiante
resurgiera de nuevo en su cabeza [la de Darwin] al intentar explicar las
observaciones de especies y las variedades que había recogido durante el viaje
del Beagle».[20] Además, su gran amigo y confidente, el geólogo sir Charles
Lyell, era el principal defensor de la teoría geológica anti-bíblica de Hutton, el
uniformismo.[21] Grant, el mentor de Darwin en Edimburgo, era, por otro lado,
«un transmutacionista lamarquiano entusiasta e introdujo al joven Darwin en las
enseñanzas tanto del transformismo de Lamarck como de su zoología de
invertebrados».[22] Cuatro años después de marchar de Edimburgo, Darwin se
reunió con Grant, entonces profesor de Anatomía comparativa en la recién
fundada Universidad de Londres,[23] antes de zarpar a bordo del Beagle.
Aparte de reconocer que se había visto inducido a publicar al enterarse de
que Wallace había llegado de forma independiente a sus mismas conclusiones,
en las dos primeras ediciones de El origen de las especies, Darwin no hace
mención alguna de las ideas evolucionistas de nadie más. La tercera edición, que
vio la luz en 1861, incluía un breve prefacio para esbozar los «Recientes avances
de opinión sobre el origen de las especies». Allí declara no conocer los escritos
de Buffon, ofrece un breve resumen de los de Lamarck (solo después de que
Lyell le instara a hacerlo para reconocer de este modo el trabajo de Lamarck[24])
y ofrece un sutil resumen de las ideas de Geoffroy aportadas por su hijo,
diciendo que Geoffroy era cauteloso a la hora de extraer conclusiones y que no
creía que las especies contemporáneas estuvieran experimentando modificación.
No hace ninguna referencia a Hutton. Menciona a su abuelo en una única
ocasión y en una nota a pie de página diciendo que «anticipó los fundamentos
erróneos de la opinión y los puntos de vista de Lamarck».
Entre otras referencias en el esbozo histórico que realiza, menciona un
párrafo del documento que publicó Grant en 1826 en el Edinburgh Philosophical
Journal donde «declara con claridad su creencia de que las especies descienden
de otras especies y que mejoran en el transcurso de la modificación».[25]
Darwin reconoce los méritos de Matthew por tener, en 1831,

Precisamente el mismo punto de vista sobre el origen de las especies que […] el propuesto por el
señor Wallace y por mí mismo en el Linnean Journal, y que se amplía en el presente volumen. Por
desgracia, el señor Matthew presentó su propuesta muy brevemente en párrafos diseminados en un
Apéndice a un trabajo sobre un tema distinto.

Continúa citando una carta de Matthew, en la que su autor dice:

En mi caso, el concepto de esta ley de la Naturaleza llegó de forma intuitiva como un hecho obvio,
casi sin esfuerzo de reflexión y concentración. El señor Darwin merita más el descubrimiento que
yo […]. Lo ha trabajado a partir del razonamiento inductivo, lentamente y con la precaución que
conlleva ir abriéndose sintéticamente camino de hecho en hecho.[26]

En la cuarta edición, publicada en 1866, Darwin admite que Wells fue el


primero en reconocer, en 1813, el principio de selección natural, «pero lo aplica
únicamente a las razas del hombre, y solo a determinados caracteres».
Comparando los textos escritos por sus predecesores con lo que Darwin
explica sobre ellos, resulta difícil no llegar a la conclusión de que Darwin entra
en un juego característico del siglo XIX: minimizar las contribuciones de los
demás[27] para reivindicar las ideas de la evolución biológica, o la descendencia
con modificación, como él la denominaba, y de la selección natural como su
causa.

La contribución de Darwin

La contribución de Darwin a la teoría de la evolución biológica consta de


cuatro partes. En primer lugar, recopiló una cantidad importante de evidencias
que socavaron el punto de vista ortodoxo de que Dios había creado todas las
especies por separado y argumentó de forma persuasiva, aunque en absoluto
concluyente, que todas las especies de todos los géneros habían evolucionado
gradualmente a partir de un antepasado común. En segundo lugar, planteó la
hipótesis de que la selección natural era la causa principal, aunque no única, de
la evolución. En tercer lugar, propuso que la selección sexual era otra causa. Y
en cuarto lugar, la promoción que hizo del fenómeno de la evolución biológica y
de la hipótesis de la selección natural como su causa, fue crucial para la
aceptación de estas ideas en el seno de la comunidad científica.
Después de regresar de su periplo a bordo del Beagle, Darwin dedicó más de
cuarenta años a estudiar y experimentar con plantas y animales, publicando
durante este periodo diecinueve libros y centenares de documentos científicos.
De su prolífica producción, que sirvió para establecer su reputación como
naturalista, destacan On the Origin of Species by Means of Natural Selection, or
the Preservation of Favoured Races in the Struggle for Life [Del origen de las
especies por medio de la selección natural, o la preservación de las razas
favorecidas en la lucha por la existencia], abreviado comúnmente como El
origen de las especies, publicado por primera vez en 1859 y seguido por otras
cinco ediciones, y The Descent of Man, and Selection in Relation to Sex [El
origen del hombre y la selección en relación con el sexo], publicado por primera
vez en 1871 con una edición revisada en 1874 y una edición final que
incorporaba el artículo que había publicado en 1876 en Nature, titulado «Sexual
Selection in Relation to Monkeys» [Selección sexual con relación a los monos].

Evidencias

Las evidencias de la descendencia con modificación (no es hasta 1872, con la


edición final de El origen de las especies, que Darwin utiliza el término
«evolución») presentadas en El origen de las especies pueden agruparse en
nueve categorías:

1. Variaciones de plantas y animales domésticos, especialmente mediante


crianza selectiva.
La rápida alteración en los caracteres de las plantas y los animales
domésticos, en especial cuando se crían o cultivan selectivamente en busca
de caracteres concretos, demuestra el cambio evolutivo; entre las
variaciones heredadas está la conducta, ejemplificada por los instintos de
ejemplares jóvenes de retriever y perro pastor sin entrenamiento.
Darwin crio selectivamente palomas y determinó de que las distintas
variedades descienden de la paloma bravía (Columba livia). Sin embargo,
llegó a la conclusión de que la gran variedad de razas del perro doméstico
da a entender que descienden de antepasados salvajes distintos.
Todos sus ejemplos demuestran más bien las variaciones dentro de una
misma especie que el origen de las distintas especies.
2. Variaciones en la naturaleza.
Después de presentar las distintas definiciones y clasificaciones de
especies propuestas por botánicos, zoólogos y naturalistas, Darwin
reflexiona sobre «lo completamente vago y arbitrario de la distinción entre
especies y variedades».[28] En los grandes géneros, las especies
estrechamente relacionadas suelen formar pequeños grupos alrededor de
otras especies y tienen categorías restrictivas. Esto, defiende Darwin, es
consistente con aquellas especies que se originan a partir de variedades
primitivas, pero el patrón no funciona si cada especie es una creación
independiente.
3. Registro fósil.
Darwin defiende que la aparición repentina de fósiles y la ausencia de
formar intermedias no es un argumento en contra de la evolución. Aporta
varias razones, incluyendo la imperfección del registro fósil (ya que los
fósiles solo se forman durante la subsidencia) y la extinción de las especies
intermedias en manos de aquellos sucesores mejor modificados que
ganaron la batalla por la vida. Cita ejemplos de fósiles cuyas formas
muestran relación con especies vivas, como los fósiles de mamíferos
encontrados en Australia y los marsupiales actuales de ese continente, y
defiende que la mayor variedad de especies vivas a partir de tipologías
fósiles ancestrales corrobora la descendencia con modificación.
4. Clasificación de las especies.
La clasificación de las especies en grupos relacionados «funciona si
reconocemos el parentesco común de formas afines, junto con su
modificación a través de la variación y la selección natural, teniendo en
cuenta las contingencias de la extinción y la divergencia de caracteres».
5. Similitud entre órganos que realizan funciones distintas en especies de la
misma clase.
Estos órganos —como la mano de un hombre, la mano de un topo, la
pata de un caballo, la aleta de una marsopa y el ala de un murciélago—
están construidos siguiendo el mismo patrón e incluyen huesos similares
en localizaciones relativamente similares. Todo ello sugiere que
descienden del órgano de un antepasado común y que fueron
modificándose para adaptarse a distintos entornos.
6. Similitud de embriones.
Los embriones de mamíferos, aves, lagartos y serpientes son
sorprendentemente similares, tanto en su aspecto general como en el modo
de desarrollo de sus partes; carecen de las variaciones que aparecen en un
momento posterior de su vida. Estos embriones, defiende Darwin, son
similares en estructura a los progenitores adultos del grupo, menos
modificados, más antiguos y normalmente extintos. Se trata, sin embargo,
de una especulación, puesto que no existen evidencias para sustentarlo.
7. Cambios en el desarrollo.
Darwin extiende este argumento al desarrollo de los ejemplares
jóvenes, sobre todo en sus etapas de transición. Destaca, por ejemplo, que
durante el tiempo en que los jóvenes confían en sus padres para conseguir
el alimento, no suelen mostrar las variaciones adaptativas que adquieren en
la edad adulta. Por ejemplo, los plumajes de las aves jóvenes de géneros
relacionados son muy similares. Su línea de argumentación incorpora la
metamorfosis, como en el caso de la transición de la oruga a mariposa o de
la larva a mosca.
8. Órganos rudimentarios, atrofiados y abortados.
Detalles como los dientes en los fetos de ballenas, mamíferos cuyos
ejemplares macho poseen glándulas mamarias rudimentarias, las alas del
avestruz y otros ejemplos, apuntan hacia caracteres que debían de tener los
antepasados a partir de los cuales evolucionaron. La teoría de la creación,
por el contrario, tiene dificultades para explicar tales caracteres.
9. Distribución geográfica de las especies.
Darwin consideró que las evidencias más convincentes de la
descendencia con modificación y su causa principal la aportaban las
variaciones de especies halladas en localizaciones geográficas separadas
por barreras de migración y halladas también en distintos entornos.
El ejemplo icónico de lo que hoy en día se conoce como biogeografía
es el pinzón de Darwin. La edición de 2008 del Encarta World English
Dictionary los define como:

Pinzones de las islas Galápagos: las aves de las islas Galápagos en las que Charles Darwin basó su
teoría de la selección natural a partir de la observación de sus hábitos alimenticios y las diferencias
en la estructura de su pico. Subfamilia Geospizinae.

Así se amplía y se enseña en muchas escuelas y universidades. Por ejemplo,


un tutorial del Palomar College de California dice lo siguiente:

Darwin identificó trece especies de pinzones en las islas Galápagos. Lo cual le resultó sorprendente,
puesto que él conocía tan solo una especie de esta ave en el continente sudamericano, a
prácticamente 600 millas al este, donde presuntamente se originaron todas […].
Cada isla tenía su propia especie de pinzón y se diferenciaban entre ellas de diferentes maneras,
en particular por la forma del pico. Darwin planteó la idea de que todos los pinzones descendían de
un único pinzón ancestral y que los diferentes entornos de las distintas islas habían favorecido
caracteres distintos en su población de pinzones. Si en una isla había abundancia de insectos para
alimentarse, por ejemplo, pero las semillas y los frutos secos eran relativamente escasos, aquellos
pinzones que hubieran nacido con un pico fino que les facilitara el acceso a los insectos escondidos
en las grietas habrían sobrevivido mejor que las aves con pico más voluminoso y duro. Las aves de
pico fino habrían criado con éxito más camadas que los pinzones con el pico voluminoso y, teniendo
en cuenta de que la descendencia suele heredar los caracteres de sus progenitores, esa forma de pico
se habría ido extendiendo gradualmente entre la población de pinzones de la isla. Y lo contrario
habría sucedido en aquellas islas donde hubiera más semillas que insectos, donde prosperarían las
aves con el pico mejor adaptado para triturar semillas. Al final, las poblaciones se habrían
diferenciado hasta tal punto que les habría resultado imposible cruzarse entre ellas y se habrían
convertido en especies distintas.[29]

Esto, por desgracia, es otro mito darwinista.


Cuando Darwin realizó su viaje en el Beagle, no consideró que todos los
ejemplares de aves que había capturado fueran pinzones; a algunos los etiquetó
como mirlos, a otros como «pico grueso» y a otros como chochines; además,
cometió el fallo de no etiquetar qué ave había sido capturada en qué isla. A su
llegada, donó las aves a la Zoological Society de Londres, que a su vez las donó
a John Gould, un ornitólogo, para que se encargara de su identificación. Fue
Gould quien identificó los ejemplares como especies distintas de pinzón (la
figura 16.1 reproduce sus dibujos). Posteriormente, Darwin examinó las
colecciones de tres compañeros de a bordo del Beagle, entre ellos la del capitán
FitzRoy.[30]
El mito fue promulgado por el ornitólogo británico David Lack en un libro
publicado en 1947 titulado Darwin’s Finches [Los pinzones de Darwin].[31] Sin
embargo, Frank Sulloway, de la Universidad de Harvard, examinó las fuentes
originales. En 1982 demostró, entre otras cosas, que Lack había asumido
erróneamente que el detallado etiquetado de los ejemplares que había llevado a
cabo FitzRoy era obra de Darwin y había confundido además la localización de
diversos ejemplares.
Cuando Darwin visitó las islas Galápagos no solo no se dio cuenta de que en
distintas islas había pinzones distintos, sino que además tampoco emparejó las
distintas formas de pico con tipos distintos de alimentación. Según sus biógrafos,
Adrian Desmond y James Moore, a su regreso a Inglaterra, Darwin

Siguió confuso con los pinzones de las Galápagos […] sin ser consciente de la importancia de los
distintos tipos de pico […]. No percibió que un se especializara y adaptara a diferentes nichos
medioambientales.[32]

A pesar de que las imágenes de estos pinzones fueran utilizadas como


símbolo en muchas de las celebraciones del 150 aniversario de la primera
publicación de El origen de las especies, Darwin nunca los mencionó en ninguna
edición del libro.
Dos capítulos de El origen de las especies, no obstante, ofrecen ejemplos de
biogeografía, la principal fuente de evidencias de Wallace para sustentar la
evolución biológica. En ellos, Darwin destaca las similitudes entre especies que
viven en un amplio rango de condiciones climáticas distintas del continente
americano y lo diferentes que son estas especies de las que viven en condiciones
comparables en África y Australia. Atribuye las diferencias a las barreras
naturales a la migración.
Y por lo que a las islas Galápagos se refiere, Darwin observa que
prácticamente todas las especies terrestres y acuáticas muestran una afinidad
muy próxima a las especies del continente sudamericano, que se encuentra entre
500 y 600 millas de distancia de las islas, a pesar de las importantes diferencias
geológicas, topográficas y climáticas que existen. En lugares con condiciones
similares, como el archipiélago volcánico de Cabo Verde, en la remota costa
africana occidental, las especies son muy distintas.
Una explicación creacionista exige que Dios creara de manera independiente
innumerables variaciones de especies para situarlas en lugares distintos. Una
explicación más razonable es que las especies del continente sudamericano
migraran hacia el archipiélago de las Galápagos y una vez allí desarrollaran sus
relativamente leves variaciones en comparación con las variaciones más
destacadas que presentan con respecto a especies de localizaciones mucho más
remotas.

Selección natural

Darwin defendía que la causa principal, aunque no única, de estas


variaciones era la selección natural, un principio según el cual los mejores
competidores de cualquier población de organismos presentan mejores
probabilidades de sobrevivir y criar, transmitiendo de este modo sus caracteres a
las generaciones posteriores.
Este punto de vista estuvo muy influenciado por la sexta edición revisada del
Ensayo sobre el principio de la población, de Thomas Malthus, clérigo y
economista inglés, que se publicó en 1826. Básicamente, Malthus sostiene que
mientras que las reservas de alimento se incrementan en proporción aritmética,
la población se incrementa naturalmente en proporción geométrica; de ahí que si
no se ejerce ningún tipo de control, cualquier población acabará superando su
reserva de alimento y se producirán hambrunas.
Todas las ediciones de El origen de la especies ofrecen una ilustración
imaginativa del funcionamiento de la selección natural. En una manada de lobos,
los más rápidos y los más agiles serán los predadores de venados más efectivos y
tendrán mayores probabilidades de supervivencia.[33] Se trata de una ilustración
sorprendentemente similar a la que acompañaba a la explicación de la
supervivencia del mejor adaptado de Hutton, mencionada anteriormente, que
argumentaba que si la supervivencia de unos perros se basaba en la velocidad de
sus patas y en su agudeza visual, los que estuvieran mejor equipados con estas
cualidades serían los mejor adaptados para la supervivencia y se multiplicarían,
mientras que aquellos que carecieran de ellas, perecerían.
En la edición final de El origen de las especies, Darwin definió la selección
natural como sigue:

Gracias a esta lucha [por la supervivencia], las variaciones, por pequeñas que sean, y cualquiera que
sea la causa de la que procedan, si son útiles en cualquier grado a los individuos de una especie […]
tenderán a preservar a dichos individuos y serán, en general, heredadas por su descendencia. Estos
descendientes tendrán, a su vez, en virtud de este hecho, una mayor probabilidad de sobrevivir, ya
que, entre los muchos individuos de una especie cualquiera, nacidos periódicamente, solo un
pequeño número llega a sobrevivir. He dado a este principio, en virtud del cual una variación, por
insignificante que sea, se conserva y perpetúa si es útil, el nombre de Selección Natural, para indicar
su relación con el poder de selección del hombre.[34]

Darwin desconocía las causas de estas variaciones pero, a diferencia de la


ortodoxia actual, consideraba que no eran al azar.

Hasta el momento, he hablado a veces como si las variaciones —tan comunes y multiformes con los
seres orgánicos en estado de domesticación y en menor grado en aquellos que están en la naturaleza
— fueran debidas al azar. Pero esto, por supuesto, es una expresión completamente incorrecta.[35]

La selección natural actúa sobre estas variaciones.

Hemos visto que el hombre, por selección, puede producir ciertamente grandes resultados y puede
adaptar seres orgánicos a sus propias aplicaciones, mediante la acumulación de variaciones leves
pero útiles, dada a él por la mano de la Naturaleza. Pero la Selección Natural, como veremos de aquí
en adelante, es un poder incesantemente listo para la acción, e inmensamente superior a los débiles
esfuerzos del hombre, como las obras de la Naturaleza lo son con respecto a las obras de Arte.[36]

Darwin reivindica que la selección natural no solo es un poder


inmensurablemente superior a la selección artificial (a diferencia de la postura de
la biología ortodoxa actual), sino que además es la causa de la mejora evolutiva.

Conduce a la mejora de todas las criaturas en relación con sus condiciones de vida orgánicas e
inorgánicas; y en consecuencia, en la mayoría de los casos, a lo que debemos considerar como un
avance en organización.[37]

Especiación

A pesar de su título, podría decirse que el libro más famoso de Darwin no


aborda el tema del origen de las especies. Y ello se debe principalmente a que
Darwin considera que la selección natural es lenta y gradual y que, por lo tanto,
existe poca distinción entre variedades y especies.[38] No llega a definir qué es
lo que distingue las variaciones entre especies del mismo género y únicamente
observa que las especias están «tolerablemente bien definidas» cuando las
variedades intermedias han sido «suplantadas y exterminadas» durante el
proceso de selección natural.[39]

Supervivencia del mejor adaptado

Darwin se muestra ambiguo cuando comenta lo que entiende por


supervivencia del mejor adaptado. Dice por un lado que habla en sentido
metafórico.

Utilizo este termino en un sentido amplio y metafórico, que incluye la dependencia de un ser
respecto a otro y, lo que es más importante, no solo la vida del individuo sino su éxito en cuanto a
dejar descendencia.[40]

Esto se repite en una sección de El origen del hombre donde, después de dar
ejemplos de sociabilidad y cooperación en especies animales y entre los
humanos, comenta que:

Las comunidades que incluyeran el mayor número de miembros empáticos, serían sin duda las que
más prosperarían y, por lo tanto, criarían la descendencia más abundante.[41]

Pero, con diferencia, la mayor parte de estos libros es una compilación de


«hechos» que muestran que la lucha es real, no metafórica. Efectivamente, solo
nueve páginas después de la cita anterior de El origen de las especies, dice
Darwin:

Ya que las especies del mismo género suelen presentar, aunque no


obligatoriamente, mucha semejanza en costumbres y constitución, y
siempre en estructura, la lucha será normalmente más severa entre ellas,
en el caso de que entren en competición, que entre las especies de distinto
género.[42]

La realidad de esta lucha competitiva para la supervivencia queda clara en


The Variation of Animals and Plants under Domestication [La variación de los
animales y las plantas bajo domesticación], que escribió como un capítulo de un
gran libro sobre evolución del que El origen de las especies no era más que un
esbozo.

Ciertamente se ha dicho que todo en la naturaleza está en guerra; los más fuertes prevalecen al final,
los más débiles fracasan; y sabemos bien que miríadas de formas han desaparecido de la faz de la
tierra. Y si los seres vivos en estado natural varían ni que sea en un grado mínimo […] entonces, la
dura y a menudo recurrente lucha por la existencia determinará que las variaciones favorables, por
sutiles que sean, sean conservadas o seleccionadas, y las desfavorables sean eliminadas.[43]

Y:

A esta preservación, durante la batalla por la vida, de aquellas variedades que poseen alguna ventaja
en estructura, constitución o instinto, la he llamado Selección Natural; y el señor Herbert Spencer ha
expresado muy bien esta misma idea como la «Supervivencia del mejor adaptado».[44]

Esta interpretación en el sentido más literal fue ampliamente aceptada.

Selección sexual

Como respuesta a las críticas de que cosas como las plumas de la cola del
pavo real eran más una desventaja que una ventaja en la lucha por unos recursos
limitados, Darwin propuso que la selección sexual también era una causa de la
evolución biológica, sobre todo para los machos de las especies.
Según esta hipótesis, las plumas de la cola cada vez más grandes y coloridas
atraen a las hembras y permiten que los machos mejor dotados produzcan más
descendencia que los pavos menos espléndidos.
En el caso de los humanos,

Llego a la conclusión de que de entre todas las causas que han conducido a diferencias en el aspecto
externo de las razas humanas, y hasta cierto punto entre el hombre y los animales inferiores, la más
eficiente es la selección sexual.[45]

El uso y el desuso del lamarquismo

Cuando Lyell le instó a reconocer el trabajo de Lamarck, Darwin accedió a


regañadientes y respondió a Lyell diciéndole:

Alude usted a menudo al trabajo de Lamarck; no sé qué piensa usted al respecto, pero a mí me
parece extremadamente pobre; no consigo obtener del mismo ni un hecho ni una idea.[46]

Pero eso no le impidió emplear las cuatro categorías de evidencias de la


evolución biológica que Lamarck había utilizado. Y más aún, en la primera
edición de El origen de las especies, comenta, sin mencionar atribución alguna,
los «Efectos del uso y el desuso» cuando escribe

Creo que no hay duda de que, en nuestros animales domésticos, el uso refuerza y agranda
determinadas partes, y de que las disminuye el desuso; y que estas modificaciones son hereditarias.
En los animales que gozan de la completa libertad de la Naturaleza […] muchos presentan
estructuras que pueden explicarse por los efectos del desuso.[47]

Se trata de un lúcido resumen de la ley por la que es más conocido Lamarck.


En el prefación de la edición de 1882 de El origen del hombre y la selección en
relación con el sexo, dice Darwin:

Aprovecharé esta oportunidad para remarcar que mis críticos suelen dar por sentado que atribuyo
todos los cambios de estructura corporal y poder mental única y exclusivamente a la selección
natural […] cuando, incluso en la primera edición de El origen de las especies, expuse con claridad
que debemos atribuir un gran peso a los efectos heredados del uso y el desuso.[48]
Promoción

A diferencia de la Philosophie zoologique de Lamarck, El Origen de las


especies es breve y más legible. Además, aun socavando el modelo creacionista,
igual que hizo Lamarck, Darwin evitó en todo momento ofender a la jerarquía
cristiana sirviéndose de estratagemas como incluir una cita de Bacon debajo del
título:

Que nadie […] piense o sostenga, que un hombre puede indagar en exceso o aprender demasiado en
el libro de la palabra de Dios, o en el libro de las obras de Dios; en la teología o en la filosofía.

Y concluye la obra con una alusión a uno de los relatos de la creación del
Génesis:

Hay grandeza en esta concepción de que la vida, con sus diversas fuerzas, fue originariamente
alentada por el Creador en unas pocas formas o en una sola.[49]

Aunque en la autobiografía publicada con carácter póstumo, recuperadas las


referencias religiosas que su esposa había eliminado, afirma:

Poco a poco llegué a la conclusión en aquel momento [enero de 1839, treinta y tres años antes de la
edición final de El origen de las especies] de que no había que dar más crédito al Antiguo
Testamento, con su manifiestamente falsa historia del mundo […], que a los libros sagrados de los
hindúes o las creencias de cualquier barbaro.[50]

Darwin utilizó su condición de miembros de la Royal Society, la Linnean


Society y la Geological Society para cultivar la amistad con miembros
influyentes de la clase científica. Sus muchas cartas solicitando apoyo para El
origen de las especies son un modelo para los lobistas: adulación hasta rozar casi
el servilismo, afecto, menosprecio a sí mismo, ansiedad y críticas hacia su
propio trabajo con la excusa frecuente de problemas de salud.[51] Pero las cartas
fueron tremendamente efectivas, puesto que uno de sus oponentes, John Grey, el
conservador de la colección de zoología del Museo Británico, se lamenta:

Ha reproducido simplemente la doctrina de Lamarck, y nada más, y Lyell y otros llevan atacándolo
veinte años, y por el simple hecho de que usted (con una mueca de desdén y una risotada) diga
exactamente lo mismo, todos cambian de opinión; es una inconsistencia de lo más ridículo.[52]

La aversión de Darwin a la controversia, junto con su terca determinación, le


fueron de gran provecho. Convenciendo a personajes como Lyell, Hooker y al
combativo y joven anatomista Thomas Henry Huxley para que defendieran su
causa entre la clase científica mientras él se mantenía alejado de la refriega en su
retiro rural de Down House, en Kent, Darwin promocionó sus ideas sin caer en
el desgracia de su antiguo mentor. Robert Grant fue expulsado de su puesto en la
Zoological Society por su postura materialista y por negar las verdades del
cristianismo, y fue dejado de lado por la comunidad científica, dominada por la
mentalidad cristiana, durante la mayor parte del tiempo que estuvo ejerciendo
como profesor mal remunerado en el University College de Londres.[53]
Tal y como sugiere la cita de su hijo que aparece debajo del título del
capítulo, Darwin se merece sin duda ser reconocido por iniciar el proceso que
llevó a que la evaluación biológica y su causa, la selección natural, fueran
adoptadas por la clase científica como la nueva ortodoxia.

Los problemas de la hipótesis de Darwin

El origen de las especies se convirtió en un libro popular y, en cuestión de


veinte años, la comunidad científica internacional aceptó el fenómeno de la
evolución biológica (la descendencia con modificación). Sin embargo, la
aceptación de la causa principal del fenómeno que había propuesto Darwin, la
selección natural, no se hizo realidad hasta pasados sesenta años. Fue así por dos
razones. En primer lugar, a pesar de que Darwin había sugerido la razón por la
cual el registro fósil no sustentaba el enfoque gradualista que formaba parte
esencial de su hipótesis, destacados paleontólogos, como su antiguo mentor
Adam Sedgwick, y Louis Agassiz, fundador y director del Museo de zoología
comparativa de Harvard, declararon que la evolución gradualista carecía por
completo de evidencias fósiles. Incluso T. H. Huxley se mostró escéptico con
respecto al enfoque gradualista de Darwin.[54] Los paleontólogos de finales del
siglo XIX y principios del XX defendían la saltación: el registro geológico muestra
la aparición de nuevas formas fósiles que permanecen básicamente invariables
hasta que desaparecen y son sustituidas por nuevas formas fósiles; por lo tanto,
concluían, la evolución biológica avanzaba a saltos, no de forma gradual.
En segundo lugar, la postura ortodoxa de aquel momento era que la herencia
era un proceso de fusión, es decir, que la descendencia mostraba una
combinación de los caracteres de los progenitores. Así, la descendencia de un
padre alto y una madre baja tendría una altura intermedia. Lo cual suponía que, a
menos que ambos progenitores estuvieran en posesión de la variación favorable,
la descendencia solo recibiría la mitad de dicha variación, y esa descendencia
transmitiría luego la mitad de su mitad de la variación. En consecuencia, la
variación quedaría diluida a lo largo de las generaciones y nunca llegaría a
dominar la especie.
Para superar esta objeción, Darwin propuso la pangénesis, una idea originaria
de los filósofos de la antigua Grecia y desarrollada posteriormente por Buffon.
En la versión de Darwin, las gémulas —o gérmenes invisibles— que contienen
la información hereditaria de todas las partes del cuerpo, se fusionan en los
órganos reproductivos y transmiten los atributos hereditarios. Pero Galton no
localizó estas gémulas en la sangre del conejo y la comunidad científica rechazó,
en consecuencia, la idea. Del mismo modo que Lamarck estaba equivocado en
cuanto a la generación continua de vida a partir de la materia inanimada y en que
la adaptación interrumpe el proceso de aumento de la complejidad, Darwin se
equivocó en su hipótesis de cómo se heredaban los caracteres favorables y
conseguían cambiar una población en un entorno determinado.

El darwinismo

Darwin se ha convertido en un santo secular e, igual que sus homólogos


religiosos, se ha convertido en un mito. Los muchísimos libros publicados y
programas de televisión emitidos en 2009 con motivo del ciento cincuenta
aniversario de la primera publicación de El origen de las especies transmitieron
la impresión de que el darwinismo o, lo que es lo mismo, la teoría de la
evolución de Darwin, es una teoría sin ambigüedades como, por ejemplo, la
teoría de la gravedad de Newton. Pero en realidad, darwinismo y darwiniano
significan cosas distintas para gente distinta. Considero de utilidad diferenciarlo
de posteriores modificaciones y extensiones, como el neodarwinismo y el
ultradarwinismo.

Darwinismo: la hipótesis de que todas las especies del mismo género han
evolucionado a partir de un antepasado común. La causa principal de esta
evolución biológica es la selección natural, o la supervivencia del mejor
adaptado, por la cual los descendientes cuyas variaciones los hagan mejor
adaptados para competir con los demás miembros de su especie para la
supervivencia en un determinado entorno, vivirán más tiempo y
producirán más descendientes que los peor adaptados. Estas variaciones
favorables son hereditarias y, en el transcurso de sucesivas generaciones,
acabarán gradualmente dominando la población de ese entorno, mientras
que las variantes peor adaptadas perecerán en manos de los demás,
morirán de hambre o se extinguirán. La selección sexual de caracteres
favorables al apareamiento, y el uso y desuso de órganos, son también
hereditarios y causa de la evolución biológica.

Ortogénesis

La ortogénesis es también un término que significa cosas distintas para


distintas personas. Se define básicamente como sigue:

Ortogénesis: la hipótesis de que la evolución biológica posee una


dirección causada por fuerzas intrínsecas; su versiones van desde aquellas
que sostienen que la adaptación juega también un papel destacado en la
evolución de las especies, hasta la postura de que la adaptación solo
influye las variaciones dentro de una misma especie, pasando por la que
defiende que esa dirección demuestra la existencia de un fin o propósito
en la evolución biológica.

Como hemos visto, Erasmus Darwin y Jean-Baptiste Lamarck propusieron


que la evolución biológica se produce debido a una tendencia intrínseca de
incremento de la complejidad.
El zoólogo y anatomista alemán, Theodor Eimer, utilizó el término
«ortogénesis» en 1895 para explicar por qué en distintos linajes se producen
secuencias evolutivas similares. Eimer creía que la evolución no adaptativa de
formas similares era algo generalizado y que la evolución biológica seguía
direcciones predecibles ordenadas por leyes naturales no especificadas similares
a las que rigen el desarrollo de los organismos desde el estado embrionario
simple hasta el de adulto complejo.
Esta degradación de la selección natural darwinista fue adoptada por muchos
paleontólogos, como los norteamericanos Edwan Cope y Alpheus Hyatt,
basándose en las evidencias fósiles que mostraban que miembros sucesivos de
una serie evolutiva se habían ido modificando progresivamente en una única
dirección constante y con caracteres que tenían escaso valor, si alguno, y que a
menudo llevaban a la extinción. Varios de ellos aceptaron la explicación
lamarquiana de una tendencia intrínseca, así como la herencia de caracteres
adquiridos, como causal.[55]

Kropotkin y el apoyo mutuo

Peter Kropotkin es conocido en Occidente como el hijo de un príncipe ruso


que se hizo anarquista y revolucionario. Era también científico, y en 1871 fue
propuesto para el prestigioso puesto de secretario de la Sociedad geográfica
imperial de San Petersburgo. Pero él declinó la oferta, renunció a sus privilegios
y se consagró a aplicar las lecciones que había extraído de sus observaciones
científicas para aliviar la explotación y las penurias que sufría el pueblo ruso
bajo el gobierno zarista. Sus armas no fueron las bombas, sino la pluma.
Observaciones fundamentales

Nueve años antes, con veinte años de edad, había viajado a Siberia y al norte
de Manchuria, ansioso por ser testigo directo de la lucha por la vida planteada en
El origen de las especies, que había sido publicado tres años antes y le había
dejado tremendamente impresionado. Lo que descubrió, sin embargo, lo llevó a
la conclusión de que la hipótesis evolucionista de Darwin había sido
distorsionada por los seguidores del mismo Darwin.
Las detalladas observaciones que realizó Kropotkin de la vida humana y
animal le revelaron pocos casos de competencia despiadada entre miembros de
la misma especie. Entre las poblaciones rebosantes de vida de zonas aisladas
sujetas a condiciones muy duras, donde la competencia por los escasos recursos
tendría que haber sido salvaje, descubrió en cambio apoyo mutuo «llevado hasta
el extremo que me hace sospechar que se trata de un carácter de enorme
importancia para mantenerse con vida, conservar las especies y procurar por su
evolucion».[56]
Observó asimismo apoyo mutuo entre los campesinos siberianos que vivían
en comunidades independientes, lo que lo llevó a la creencia de que un sistema
de gobierno de aquel estilo debería sustituir el estado centralizado, represivo y
brutal.

Apoyo mutuo

En 1883, durante una de sus estancias en la cárcel, leyó una conferencia


ofrecida por el profesor Karl Kessler, respetado zoólogo y más importante que la
competencia en la evolución de las especies. Aquello corroboraba sus
descubrimientos y en cuanto salió de la cárcel, Kropotkin se instaló en Inglaterra
para seguir con su trabajo e inspirarse tanto en sus propias observaciones como
en las de otros naturalistas de campo y antropólogos, de un modo similar a lo
que había hecho Darwin en su día.
En 1888, Thomas Huxley, el principal defensor de Darwin, publicó un
ensayo muy influente titulado «The Struggle for Existence» [La lucha por la
existencia] en el que argumentaba que la vida era una «continua lucha libre» y
que la competencia entre individuos de la misma especie no era simplemente una
ley de la naturaleza, sino la fuerza que impulsaba el progreso.

El mundo animal está prácticamente al mismo nivel que un espectáculo de gladiadores. Las
criaturas están preparadas y listas para luchar; razón por la cual el más fuerte, el más rápido y el más
astuto vivirá para luchar un día más. El espectador no necesita mover el pulgar hacia abajo, puesto
que la compasión no existe.[57]

Kropotkin consideró que las opiniones de Huxley, cuya experiencia se basaba


en la anatomía comparativa y la paleontología, no estaban respaldadas por las
evidencias de los naturalistas de campo y los zoólogos. Replicó a Huxley en una
serie de artículos que formarían la base de un libro. Mutual Aid: A Factor of
Evolution[58] fue publicado en 1902, con una edición revisada en 1904 y una
edición final en 1914, que es la que utilizo aquí.
En ella, dice Kropotkin:

Si nos referimos al parágrafo [de El origen de las especies] titulado “Lucha por la vida es
rigurosísima entre individuos y variedades de la misma especie”, no encontramos en él la riqueza de
pruebas e ilustraciones que estamos acostumbrados a encontrar en todo lo que Darwin escribió. La
lucha entre individuos que se explica bajo ese encabezamiento no queda ilustrada ni con siquiera un
ejemplo.[59]

Koprotkin no discrepa de la selección natural ni niega que la lucha por la


vida juegue un papel importante en la evolución de las especies. Declara de
manera inequívoca que «la vida es una lucha; y en esa lucha sobrevivirá el mejor
adaptado».[60] Pero no se trata de una lucha competitiva entre miembros de la
misma especie. Apoyo mutuo acumula una gran riqueza de evidencias obtenidas
a partir de estudios de campo de insectos, aves y mamíferos criando y
entrenando a su descendencia, protegiendo a los individuos de los elementos
dañinos y obteniendo comida para apoyar la conclusión de que «los animales
que adquieren los hábitos del apoyo mutuo son, sin duda alguna, los mejor
adaptados [para sobrevivir y evolucionar].»[61], [62]

Base empírica
Entre los muchos ejemplos de insectos, Kropotkin describe la conducta de las
hormigas y las termitas, que colaboran siguiendo un modelo de división de
trabajo para buscar comida y construir sofisticados nidos comunitarios con
graneros y guarderías para las crías. A pesar de que las hormigas de distintas
especies libran terribles guerras entre ellas, en el seno de la comunidad, el apoyo
mutuo, e incluso el sacrificio de la vida por el bien común, son la regla. Si una
hormiga con el cuerpo lleno de comida a medio digerir se niega a regurgitarla
para compartirla con una hormiga hambrienta, es tratada como una enemiga. La
colaboración permite que las colonias superen a insectos más poderosos, como
los escarabajos e incluso las avispas.
Las abejas colaboran de un modo similar. Kropotkin observa que en
condiciones de escasez o de abundancia, hay abejas que prefieren robar antes
que trabajar por el bien común, pero que a largo plazo la colaboración es más
ventajosa para las especies.
Esta colaboración suele extenderse solo a la colmena, el nido o la colonia de
insectos, sin abarcar toda la especie, pero Kropotkin destaca haber observado
colonias de hormigas integradas por más de doscientos nidos y pobladas con dos
especies distintas, mientras que en algunas sabanas de América del Sur hay
nidos de termitas que incluyen dos y hasta tres especies distintas, conectados
mediante túneles o galerías.
Muchas especies de aves exhiben conducta social no solo para cazar y
migrar, proceso en el cual las bandadas pueden incluir distintas especies, sino
también por placer. Los milanos colaboran en tareas de caza y gracias a ello
pueden robar la presa de aves más fuertes que ellos, como el águila marcial.
Cuando se acerca el invierno, las aves que han vivido durante meses en
pequeños grupos repartidos por un territorio extenso, se reúnen en un lugar
concreto durante varios días para esperar a las aves que puedan llegar con
retraso. Luego, las bandadas emigran siguiendo «una dirección perfectamente
elegida» hacia climas más cálidos y con comida abundante. Los más fuertes se
turnan para liderar el grupo. En primavera, regresan al mismo lugar y se
dispersan, normalmente hacia los mismos nidos que antes abandonaron.
Y en cuanto a las actividades placenteras, varias especies de aves cantan en
concierto. Kropotkin habla de un observador que informó de que numerosos
grupos de unos quinientos ejemplares de perdices chucar cada uno, se instalaron
alrededor de un lago. El primer grupo empezó a cantar durante tres o cuatro
minutos y se calló cuando el siguiente empezó a cantar, y así sucesivamente,
turnándose hasta que el canto dio la vuelta completa al lago y el primer grupo
empezó otra vez a cantar.
Kropotkin explica que los loros son las aves más sociables e inteligentes. Por
ejemplo, las cacatúas blancas de Australia envían exploradores en busca de
maizales. A su regreso, el grupo vuela hasta el mejor maizal y aposta centinelas
para alertar a los campesinos mientras el resto se alimenta con el maíz. Atribuye
la longevidad de los loros a su vida social.
La compasión no es una característica esperada en la lucha despiadada por la
vida que podría librarse entre miembros de la misma especie, pero Kropotkin
ofrece varios ejemplos de ella, incluyendo el de un grupo de pelícanos que
recorre 50 kilómetros para alimentar a un pelícano ciego.
Kropotkin apunta ejemplos de cooperación similar, aunque más avanzada,
entre mamíferos, la mayoría de los cuales viven en sociedad, desde los nidos de
roedores hasta las manadas de elefantes y ballenas pasando por las tropas de
monos y chimpancés.
Las ardillas son más individualistas, y encuentran y almacenan su propia
comida en sus nidos, pero mantienen contacto con otras ardillas y cuando el
alimento escasea, emigran en grupo. La rata almizclera de Canadá vive
pacíficamente y juega en comunidades, habita poblados con construcciones
hechas con barro mascado entretejido con juncos que disponen de rincones
separados para los desechos orgánicos. La vizcacha, un roedor parecido al
conejo, vive pacíficamente en madrigueras que comparten entre diez y cien
individuos. Las colonias se visitan mutuamente durante la noche. Si un granjero
destruye una madriguera de vizcachas, sus compañeras se desplazan desde lejos
para sacar del interior a las que puedan haber quedado enterradas vivas.
Los mamíferos colaboran para obtener comida, protegerse mutuamente y
proteger a los miembros más débiles de los predadores. Los lobos cazan en
manada mientras que muchas especies de caballos salvajes, como los mustangos
y las cebras, forman un círculo de sementales alrededor del grupo para impedir
los ataques de lobos, osos y leones. Cuando la comida escasea, las manadas de
rumiantes que suelen vivir dispersas se reúnen para formar una manada grande
que emigra hacia otra región en busca de sustento.
Este patrón es típico de todas las especies: la colaboración es más fuerte en el
seno de la familia, después en el seno del grupo y luego con la asociación de
grupos dispersos que se unen para hacer frente a una necesidad común.
Kropotkin apunta que los darwinistas consideran que la inteligencia es la
característica más poderosa del individuo que lucha por su existencia. Destaca
que la inteligencia se fomenta mediante la sociabilidad, la comunicación, la
imitación y la experiencia, hábitos que el animal insociable no puede disfrutar.
Kropotkin describe esta evolución como progresiva. Dentro de cada clase,
los más evolucionados combinan elevada sociabilidad con mayor inteligencia:
las hormigas entre los insectos, los loros entre las aves y los monos entre los
mamíferos.
Para Kropotkin, la principal lucha por la vida no es la representada por la
competencia entre individuos de la misma especie por hacerse con los recursos,
que escasean como consecuencia de un incremento malthusiano de la población.
Sino la lucha contra sus circunstancias: un entorno cambiante, recursos
alimenticios limitados, condiciones climáticas duras y presencia de
depredadores. Las especies favorecidas por la selección natural —aquellas cuyos
miembros sobreviven más tiempo y engendran mayor descendencia— adoptan
estrategias para evitar la competencia: hacen su propia comida, como en el caso
de las hormigas; la almacenan, como las ardillas; hibernan, como muchos
roedores; agrandan su hábitat; emigran temporal o permanentemente a un nuevo
hábitat; o cambian su dieta y sus costumbres y, en el transcurso de las
generaciones, evolucionan hacia una nueva especie mejor adaptada al nuevo
entorno. Los que no adoptan estas estrategias, fracasan en la lucha por la
supervivencia y desaparecen con el tiempo de forma natural sin que nadie los
haya matado y sin que los competidores malthusianos los maten de hambre,
como proponía Darwin.
Kropotkin desafía pues la idea de que la competencia entre miembros de una
misma especie es la única causal, o la causa principal, de la evolución y defiende
que el apoyo mutuo juega un papel más relevante.

Simbiogénesis
Mientras el naturalista ruso Kropotkin estudiaba la conducta de los animales
y desarrollaba luego sus ideas en Inglaterra, el botánico ruso Konstantin
Mereschkosky estudiaba los líquenes y desarrollaba en su país natal una
hipótesis a la que puso el nombre de simbiogénesis, un proceso evolutivo que se
inicia con la simbiosis.
Según el historiador especializado en biología Jan Sapp,[63] la simbiosis es
un medio de innovación evolutiva que se lleva discutiendo desde finales del
siglo XIX. La naturaleza dual de líquenes como los hongos y las algas, las
bacterias que fijan el nitrógeno en los nódulos de las raíces de las legumbres, los
hongos que se asientan en las raíces de los árboles de los bosques y de las
orquídeas, y las algas que viven en el cuerpo de los protistas, muestran lo íntimas
que pueden llegar a ser las relaciones fisiológicas entre organismos apenas
emparentados y que a veces conducen, como en el caso de los líquenes, a la
evolución de organismos completamente nuevos.
La simbiosis quedó definida en 1878 por el alemán Anton de Bary, que
estudió los hongos y las algas como «los organismos de nombre distinto que
viven juntos», lo cual podía conducir a un cambio evolutivo tipo saltación. El
botánico francés Andreas Schimper acuñó el término «cloroplasto» en 1884 y
sugirió que las plantas verdes tenían su origen en la simbiosis. En 1893, el
biólogo celular japonés Shosaburo Watase, que trabajaba en los Estados Unidos,
utilizó el concepto para explicar el origen de las células con núcleo. Según él, se
habían formado a partir de un grupo de pequeños organismos vivos de origen
distinto que, en su lucha por la supervivencia, habían realizado un intercambio
recíproco de sus productos metabólicos; la profunda interdependencia fisiológica
entre el núcleo de la célula y el citoplasma era muestra de ello.
En 1909, Mereschkovsky propuso una teoría detallada para el origen del
núcleo de la célula y del citoplasma a partir de dos tipos de organismo y dos
tipos de protoplasma que habían sido las primeras formas de vida de la Tierra.
Afirmaba asimismo que los cloroplastos de las células se habían originado como
algas azuladas y acuñó el término «simbiogénesis» para describir el proceso
mediante el cual dos tipos distintos de organismos simbióticos se fusionan para
formar un nuevo organismo más complejo. Mereschkosky sostenía que la
simbiogénesis explicaba mejor la evolución biológica que la teoría de Darwin.
La idea de que las mitocondrias de las células tuvieran un origen
simbiogenético similar, se remonta al trabajo realizado por el histólogo alemán
Richard Altmann en 1890. En 1918, y en el libro titulado Les Symbionts [Los
simbiontes], Paul Portier desarrolló el concepto de las mitocondrias como
antiguos simbiontes. En 1927, el biólogo norteamericano Ivan Wallin presentó
una perspectiva similar en Symbiotism and the Origen of Species [Simbiotismo y
el origen de las especies], donde proponía que las mitocondrias adquiridas eran
el origen de nuevos genes. Para Wallin, la evolución biológica estaba gobernada
por tres principios: las especies originadas mediante simbiosis; la selección
natural que regía su supervivencia y extinción; y un principio desconocido que
era el responsable del patrón de incremento de complejidad.
La mayoría de biólogos rechazó o ignoró estas ideas, siguió favoreciendo la
competencia darwinista por encima de la colaboración y consideró que la
simbiogénesis carecía de base empírica.

Mendel y la herencia

La herencia, uno de los problemas que perjudicaba la hipótesis de Darwin,


quedó solucionada en 1865 por un monje agustino, Gregor Mendel. Su
trascendental documento, «Experiments in Plant Hybridization» [Experimentos
sobre hibridación de plantas], fue publicado al año siguiente en Proceedings of
the Natural History Society of Brunn, Bohemia (hoy en día Brno, en la república
checa) y sentó las bases de la genética moderna.

Experimentos

Mendel no era simplemente un monje, como a menudo se le describe, sino


que, siguiendo la tradición de la abadía de Brunn, era también profesor y
científico. Entre 1856 y 1863, se dedicó a verificar el relato ortodoxo de la
herencia que afirmaba que la descendencia combinaba los caracteres de los dos
progenitores. Eligió el guisante, una planta que posee diversos caracteres
sencillos como la altura de la planta, el color del guisante y la textura lisa o
rugosa del guisante.
Empezó cultivando ejemplares de pura raza, plantas que siempre producían
guisantes amarillos y plantas que siempre producían guisantes verdes. Luego,
cruzó ambos tipos de plantas de pura raza y descubrió que, en este ejemplo, la
primera generación de plantas solo producía guisantes amarillos. Cuando cruzó
las plantas de esta primera generación entre ellas, obtuvo una segunda
generación con plantas con guisantes amarillos y plantas con guisantes verdes en
una proporción de tres a uno.

Los experimentos con guisantes con caracteres distintos ofrecieron el mismo


tipo de resultados. Con ello, Mendel llegó a la conclusión de que los caracteres
no se mezclaban, sino que cada uno de ellos estaba representado por un factor
(posteriormente denominado «gen») que se presenta en formas alternadas
(posteriormente denominadas «alelos»); en este ejemplo, un alelo produce el
color amarillo del guisante y otro alelo produce el color verde. Los alelos se
presentan en parejas; cuando los dos alelos de la pareja son distintos, uno es el
«dominante» (en este caso, el alelo que produce el color amarillo) y enmascara
el efecto del otro alelo, el alelo «recesivo» (en este caso, el alelo que produce el
color verde). Solo cuando se transmiten dos alelos recesivos, aparece en la planta
el caracter correspondiente.
Las leyes de Mendel

A partir de sus experimentos, Mendel dedujo unas leyes de la herencia que


podrían resumirse como sigue:

1. Los caracteres de un individuo están determinados por factores


hereditarios (genes) que se presentan por parejas.
2. Cada pareja de genes se separa durante la reproducción y cada progenitor
transmite al descendiente un solo gen de esa pareja de genes.
3. Hay genes dominantes capaces de enmascarar los efectos de los genes
recesivos.
4. Para determinados caracteres no existe gen dominante.

La transmisión del gen funciona al azar. Como consecuencia de las leyes de


Mendel, cabe la posibilidad de que nuevas combinaciones de genes den lugar a
nuevas combinaciones de caracteres que no están presentes en ninguno de los
dos progenitores. Además, un individuo puede no mostrar un determinado
caracter que sí aparecerá en una generación posterior porque se habrá
transmitido inalterado.
Esto solucionó el problema de la hipótesis de Darwin porque permite que los
genes responsables de los caracteres favorables de un individuo se hereden
inalterables y sean seleccionados en una población que compite por sobrevivir.
Darwin y la mayoría de naturalistas nunca leyeron el documento de Mendel,
aunque sí fue incorporado a la Enciclopedia Británica y apareció citado varias
veces en una publicación de 1881 sobre el cultivo de plantas escrita por el
botánico Wilhelm Olbers Focke, una copia de la cual, al parecer, Darwin sí tenía.

Neodarwinismo

El documento de Mendel fue redescubierto en 1900 por tres botánicos cuya


investigación los llevó a alcanzar de forma independiente las mismas
conclusiones.
En la década de 1920 y 1930, el estadístico y genetista Ronald Fisher, el
genetista inglés J. B. S. Haldane, y el genetista norteamericano Sewall Wright
desarrollaron de manera independiente, y aplicando técnicas estadísticas, una
base matemática para la teoría biológica; esta nueva especialidad de la biología
acabó conociéndose como «genética de poblaciones». Su marco teórico
integraba la genética mendeliana en las hipótesis de Darwin, demostrando
matemáticamente que la selección natural, actuando de manera acumulativa en
pequeñas variaciones, podía producir gradualmente grandes cambios de forma y
de funcionalidad.
Wright introdujo además el concepto de deriva genética.

Deriva genética: la variación en la frecuencia de alelos (juegos de genes)


en una población pequeña que tiene lugar como consecuencia del azar y
no a través de la selección natural. Puede dar como resultado la pérdida
de rasgos genéticos en una población, o la difusión de otros,
independientemente del valor de supervivencia o el valor reproductivo de
dichos rasgos genéticos.

Sin embargo, su trabajo tuvo poco impacto en los biólogos porque era teórico
y se expresaba principalmente con fórmulas matemáticas; además, únicamente
mostraba cómo podían producirse los cambios dentro de una especie y no cómo
podía evolucionar una nueva especie.
Lo que acabó conociéndose como «síntesis moderna», o Neodarwinismo,[64]
fue desarrollado a finales de la década de 1930 e inicios de la de 1940 por el
genetista norteamericano de origen ruso y zoólogo experimental Theodosius
Dobzhansky, en el libro que publicó en 1937 y que tituló Genetics and the
Origin of Species [Genética y el origen de las especies], el zoólogo inglés y
defensor del enfoque matemático a la genética, Julian Huxley en Evolution: The
Modern Synthesis [Evolución: La síntesis moderna], publicado también en 1942,
y el norteamericano que aplicó las técnicas estadísticas de genética de
poblaciones a la paleontología, George Gaylord, en Tempo and Mode in
Evolution [Tempo y moda en la evolución], publicado en 1944.
El objetivo era integrar la selección natural darwinista, surgida a partir de la
competencia, con los descubrimientos de la genética teórica y experimental, la
zoología y la paleontología, bajo el paraguas de una teoría de la evolución
biológica. Cambió el protagonista de la evolución, que pasó de los organismos
individuales a las poblaciones. Según lo expresó Dobzhansky, «La evolución es
un cambio en la composición genética de las poblaciones. El estudio de los
mecanismos de la evolución cae dentro del campo de la genética de
poblaciones».

Neodarwinismo: la síntesis de la selección natural darwinista con las


teorías mendelianas y la genética de poblaciones, en la que variaciones
genéticas aleatorias son las responsables de los caracteres que hacen que
los individuos de la población de una especie estén mejor adaptados para
competir por los recursos de su entorno, sobrevivir más tiempo y producir
más descendencia. Estos genes favorables se heredan en cantidades cada
vez mayores, haciendo que el acervo génico —el total de genes de la
población— varíe gradualmente en el transcurso de muchísimas
generaciones hasta que se produce la emergencia de una nueva especie.
Los miembros de la población que carecen de las variaciones genéticas
responsables de estos caracteres adaptativos acaban pereciendo en manos
de los demás, mueren de hambre o se extinguen gradualmente en ese
entorno.

Biología molecular

En paralelo a los avances en macrobiología que siguieron el


redescubrimiento del trabajo de Mendel, los microbiólogos intentaron identificar
qué genes son los responsables de los caracteres hereditarios y cómo funcionan
como agentes de estos caracteres.
La investigación de la Drosophila melanogaster, la mosca de la fruta o del
vinagre, un insecto de rápida reproducción, que llevaron a cabo el zoólogo
experimental de la Universidad de Columbia, Thomas H. Morgan y sus colegas,
demostró en 1914 que los genes están dispuestos en los cromosomas siguiendo
un orden lineal; además, los genes experimentan a veces cambios espontáneos y
permanentes (mutaciones) que dan como resultado un cambio en los caracteres
hereditarios, por ejemplo, de ojos blancos a ojos rojos.
Este trabajo le valió a Morgan el Premio Nobel en 1933.[65] Los biólogos
adoptaron la idea de que la mutación genética era la principal causa de las
variaciones en los caracteres de los individuos.
Teniendo en cuenta que estaba demostrado que los cromosomas de los
eucariotas estaban compuestos por proteínas y ácidos nucleicos, habitualmente
ADN, se planteaban tres posibilidades: que los genes estuvieran compuestos por
ADN, por proteínas, o por una combinación de ambas cosas. Para averiguar cuál
de las tres posibilidades era la correcta, los científicos tenían que demostrar
cómo transmitían los genes la información que determina los caracteres de la
descendencia y también cómo construían las células que dan lugar a la
descendencia.
Para la primera función, el físico Erwin Schrodinger especuló en 1943 que
los genes transportan su información hereditaria en un código que consiste en un
pequeño número de entidades repetitivas, de un modo similar al modo en que los
puntos y las rayas del código Morse transportan una cantidad inmensa de
informacion.[66]
Al año siguiente, Oswal Avery, del Rockefeller Institute Hospital de Nueva
York, junto con sus colegas Colin MacLeod y Maclyn McCarty, demostraron
que el agente que causaba en cambio en las bacterias para que fuese transmitido
a generaciones sucesivas era el ADN; lo cual implicaba que los genes estaban
compuestos por ADN.
La mayoría de biólogos se mostraron escépticos, puesto que consideraban
que la secuencia de nucleótidos de la molécula de ADN carecía de la variedad
suficiente como para transmitir toda la información genética y, por lo tanto,
defendían que los genes tenían que estar compuestos por proteínas. Sin embargo,
en 1952, Alfred D. Hershey y Martha Chase, de la Unidad de investigación
genética del Carnegie Institute de Washington, demostraron que el material
hereditario responsable de los caracteres fundamentales de los virus que atacan y
matan las células bacterianas es el ADN. Esto dio pie a la idea de que la
secuencia de las bases de la cadena de polinucleótidos de una molécula de ADN
podía formar el código de Schrodinger.
A aquellas alturas ya había quedado claro que, para demostrar cómo se
replica el ADN para transmitir genes a la descendencia y cómo determina las
reacciones bioquímicas que sintetizan esa descendencia, era necesario conocer
no solo la composición química del ADN, sino también su estructura
tridimensional. «Biología molecular» fue el nombre que recibió esta ciencia
emergente, que recurrió a la técnica de la cristalografía de rayos X para descubrir
la arquitectura molecular en la dura carrera para demostrar cómo funcionaba el
ADN de los genes.
Y la dura carrera fue ganada en 1953 por un joven genetista norteamericano
llamado James Watson, que acababa de obtener su doctorado, y por un físico
inglés algo mayor que él, Francis Crick, que aún no había obtenido el suyo.
Formando equipo en el Cavendish Laboratory de Cambridge, Inglaterra,
utilizaron los resultados de la difracción de rayos X obtenidos por dos físicos del
King’s College de Londres, Maurice Wilkins y Rosalind Franklin, que habían
querido trabajar como equipo y no lo habían conseguido. A partir de estos
resultados, construyeron un modelo tridimensional que mostraba el ADN como
dos cadenas helicoidales complementarias enrolladas sobre sí mismas y
especularon que las cadenas podían desplegarse para actuar a modo de plantillas
y producir réplicas dos cadenas helicoidales complementarias de sí mismas.[67],
[68]
El breve artículo que publicaron en el número de abril de 1953 de la revista
Nature, junto con otros documentos de Wilkins y de Franklin, seguidos por
artículos más detallados en los que ampliaban sus ideas, abrieron una nueva era
en la biología molecular. En este campo, los veinticinco años siguientes
estuvieron dominados por trabajos consagrados a comprender en detalle los
mecanismos y proporcionar base experimental al descubrimiento de Watson y
Crick sobre el carácter fisicoquímico de los genes.
Las mutaciones genéticas espontáneas observadas por Morgan quedaron
explicadas por los excepcionales errores de copia de la plantilla de ADN.
Comprender con detalle cómo las distintas secuencias de los cuatro nucleótidos
del ADN funcionan a modo de código de Schrodinger para transmitir la
información genética llevó más tiempo. Y más tiempo aún se necesitó para
determinar los detalles de la segunda función del ADN, es decir, para entender
cómo su secuencia de nucleótidos acaba constituyendo, a través de moléculas
intermediarias de ARN mensajero, las proteínas y otros elementos bioquímicos
que integran las células de las que están compuestos todos los organismos.[69]
Pero las conjeturas de Watson y Crick acabaron justificándose. Fue un triunfo
espectacular para el método reduccionista y su foco en los genes, que pasó a
dominar la biología.
En 1958, Crick articuló un supuesto clave, que reafirmó en 1970 como «el
dogma central de la biología molecular», a saber, que los genes de la molécula
de ADN transportan toda la información necesaria para construir una proteína
que, actuando a modo de enzima, controla una reacción química en la célula y
que se trata, además, de un proceso unidireccional: la información no puede
volver a transmitirse desde esa proteína a la proteína o al ácido nucléico.[70]
Hoy en día esto se entiende como que la información no puede volver a fluir
desde el entorno o el organismo hacia el ADN o el ARN de la célula.

Principios de la biología ortodoxa

Estas conclusiones clave de la biología molecular fueron incorporadas al


neodarwinismo y dieron lugar a la ortodoxia actual.
En 2006, Jerry Coyne, que viene de la escuela de los genetistas de
poblaciones y zoólogos experimentales que dieron forma a la síntesis
neodarwinista, resumió la teoría moderna de la evolución biológica. Los
principios 1, 2, 3 y 5 que se muestran a continuación derivan del resumen de
Coyne,[71] el principio 4 queda explícito en otras publicaciones del autor y de
otros neodarwinistas, mientras que el principio 6 es un resumen actualizado del
dogma central de la biología molecular de Crick. A pesar de que no todos los
biólogos evolucionistas coinciden con todos ellos, estos seis principios definen
el paradigma[72] que suscribe la inmensa mayoría.
1. Las especies vivas son descendientes de otras especies que vivieron en el
pasado.
2. Las nuevas formas de vida surgen a partir de la división de un linaje en
dos, un proceso conocido como especiación en el que los miembros de un
linaje son incapaces de reproducirse con éxito con miembros del otro
linaje. Esta división continua produce una estructura anidada de especies,
un «árbol genealógico» cuya raíz es la primera especie que surgió y cuyas
ramas vivas son la inmensa cantidad de especies actuales. Rastreando
cualquiera de las ramas de las especies modernas llegamos a un antepasado
común, representado por el nudo del árbol en el que las ramas coinciden.
3. Esta evolución de nuevas especies se produce mediante una
transformación genética gradual de las poblaciones a través de los
miembros individuales de la especie y a lo largo de miles de generaciones.
4. Esta transformación da como resultado mutaciones genéticas aleatorias en
los individuos, la combinación de genes los progenitores en la
reproducción sexual que lleva a que cada descendiente posea una
combinación de genes distinta a la de sus padres, y la posterior
diseminación de estas mutaciones genéticas a lo largo de las sucesivas
generaciones a través del acervo génico de la población.
5. Aquellas mutaciones genéticas aleatorias, o variaciones, responsables de
los caracteres que permiten que determinados individuos de la población
compitan con éxito por los recursos en un entorno determinado, y con ello
logren sobrevivir más tiempo y tener más descendientes, se seleccionan
naturalmente al ser heredadas en mayores cantidades, mientras que los
miembros de la población que no presentan las mutaciones genéticas
responsables de los caracteres adaptativos para el entorno, acaban
pereciendo en manos de los demás, mueren de hambre o se extinguen
gradualmente.
6. La información es un flujo unidireccional que va desde el gen hasta la
proteína de la célula.

Consecuencias del paradigma actual


Este paradigma, centrado en el gen, que asume que la selección natural surge
de la competencia, tiene cuatro consecuencias destacadas para el relato que da la
ciencia sobre la evolución de la vida.
En primer lugar, rechaza o ignora otras posibles causas de la evolución, entre
ellas;

a. La selección sexual, que Darwin había defendido.


b. La herencia lamarquiana de caracteres adquiridos, que Darwin había
aceptado.
c. La deriva genética, que Sewall Wright había considerado de importancia
en poblaciones pequeñas.
d. La simbiogénesis, la hipótesis desarrollada por Mereschkovsky, Wallin y
otros que defendía que la fusión de distintos tipos de organismos que viven
juntos para obtener un beneficio metabólico propio ofrece una explicación
mejor para la innovación biológica y la evolución que la competencia y la
selección natural gradualista de Darwin.
e. La cooperación, que Kropotkin dedujo a partir de observaciones de campo
de animales y que defendió como causa más importante para la evolución
que la competencia.
f. La ortogénesis, en el sentido de que la evolución biológica progresa como
un incremento de complejidad causado por una ley natural o una tendencia
intrínseca, que fue defendida por el paleontólogo, visionario y jesuita
francés Teilhard de Chardin en su obra póstuma Le Phenomene Humain
[El fenómeno humano] (1955). Cabe resaltar que, de entre los cuatro
arquitectos del neodarwinismo a finales de los años 30 y principios de los
años 40, Julian Huxley escribió una Introducción a la edición inglesa
publicada en 1959 suscribiendo la mayoría de las ideas de Teilhard salvo el
intento de reconciliación con el cristianismo, mientras que Theodosius
Dobshansky fue miembro fundador y presidente, entre 1968 y 1971, de la
American Teilhard de Chardin Association.

En segundo lugar, su foco reduccionista en los genes conduce a la postura,


liderada por Carl Woese, de que el análisis genético es el único método preciso
para trazar un mapa de la evolución de las especies: las diferencias moleculares
en los genes supuestamente conservados de las distintas especies representan sus
relaciones evolutivas en el árbol genealógico de evolución a partir de un
antepasado común.[73] En palabras de Woese: «Las secuencias moleculares
pueden revelar relaciones evolutivas de un modo, y con un detalle, que los
criterios fenotípicos clásicos, e incluso las funciones moleculares, son incapaces
de hacerlo».[74]
En tercer lugar, produce una hipótesis de la evolución centrada en el gen que
afirma que el gen a nivel individual, y no el organismo, es la unidad de la
selección natural.
En cuarto lugar, cuando en los años 70 se descubrió que cerca de un 98 por
ciento del genoma humano no estaba integrado por genes, definidos entonces
como secuencias de ADN para la codificación de proteínas, empezó a hablarse
del «ADN basura», que parecía un punto de vista osado, sino arrogante, de
referirse a la inmensa mayoría de ADN que no encajaba con el modelo.
En los capítulos que siguen consideraré hasta qué punto esta biología
ortodoxa y sus cuatro consecuencias siguen siendo válidas.
[1] El término «científico», tal y como lo entendemos en la actualidad, no empezó a utilizarse hasta el
siglo XIX, pero recurriré a él de todos modos para referirme a aquellos que practicaron lo que ahora
reconocemos como ciencia, es decir, un enfoque de base empírica que se distingue del enfoque puramente
conceptual de la filosofía natural.
[2] Véase página 43.
[3]«Carolus Linnaeus», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/342526/Carolus-Linnaeus, consultado el 20 de diciembre de
2008.
[4]Maillet (1968).
[5]«Georges-Louis Leclerc, Comte de Buffon», Gale Encyclopedia of Biography, 2006.
[6]Darwin, Erasmus (1796) y «Erasmus Darwin», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/151960/Erasmus-Darwin, consultado el 16 de febrero de 2010.
[7]Darwin, Erasmus (1803).
[8]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003, pp. 665–665.
[9]Clifford, David, «Jean-Baptiste Lamarck», (2004)
http://www.victorianweb.org/science/lamarck1.html, consultado el 16 de febrero de 2010; Shanahan (2004),
pp. 14-23; Graur, Dan, et al., «In Retrospect: Lamarck’s Treatise at 200», Nature, 460: 7256, 2009, pp. 688–
689; http://www.ucmp.berkeley.edu/history/lamarck.html, consultado el 16 de febrero de 2010.
[10]Etienne Geoffroy Saint Hillaire Collection, American Philosophical Society,
http://www.amphilsoc.org/mole/view?docId=ead/Mss.B.G287p-ad.xml;query=;brand=default, consultado el
20 de febrero de 2010.
[11]Green, J. H. S., «William Charles Wells, F.R.S. (1757–1817)», Nature 179, 1957, pp. 997–999.
[12]Desmond, Adrian, «Robert E. Grant: The Social Predicament of a Pre-Darwinian
Transmutationist», Journal of the History of Biology, 17, 1984, pp. 189–223, y Desmond, Comunicación
personal, 2 de abril de 2010.
[13]http://www.ucmp.berkeley.edu/history/matthew.html, consultado el 3 de diciembre de 2009.
[14]Smith (1998, 2000–14).
[15] En la décimosegunda edición, publicada en 1884, apareció el nombre del autor, Robert Chambers,
LL. D.
[16]Darwin, Francis (1887), p. 68.
[17]Ibíd, p. 116.
[18]La correspondencia de Darwin anterior a la presentación a la Linnean Society se encuentra en ibid,
pp. 116–127.
[19]http://www.linnean.org/index.php?id=380, consultado el 20 de febrero de 2010.
[20]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003.
[21] La teoría de que los procesos físicos y químicos que se producen en la superficie de la Tierra son
los mismos desde su origen y son los responsables de todos los fenómenos geológicos.
[22]Desmond, Adrian y Parker, Sarah E., «The Bibliography of Robert Edmond Grant (1793–1874):
Illustrated with a Previously Unpublished Photograph», Archives of Natural History 33: 2, 2006, pp. 202–
213.
[23] Fundada en 1826, fue la primera universidad de Inglaterra que admitió alumnos que no fueran
miembros de la iglesia anglicana, y en 1836 se constituyó oficialmente como University College London.
[24]Darwin, Francis (1887), vol. 2, pp. 206–207.
[25]Darwin, Charles (1861), p. iv.
[26]Ibíd, pp. xiv–xv.
[27] Por ejemplo, a pesar de que las ideas de Matthew están integradas en un Apéndice, ni están
diseminadas ni son breves en comparación con su artículo del Linnean Journal.
[28] A menos que se diga lo contrario, las citas que aparecen de El origen de las especies se basan en la
sexta edición, publicada en 1872, puesto que es la edición final e incorpora los puntos de vista más tenidos
en cuenta de Darwin. Todas las ediciones, y todas las demás obras de Darwin, están disponibles online
gracias al sobresaliente trabajo de John van Whyhe, director de The Complete Works of Charles Darwin
online, http://darwin-online.org.uk/
[29]http://anthro.palomar.edu/evolve/evolve_2.htm, consultado el 16 de diciembre de 2008.
[30]Steinheimer, Frank D., «Charles Darwin’s Bird Collection and Ornithological Knowledge During
the Voyage of HMS ‘Beagle’, 1831–1836», Journal of Ornithology, 145: 4, 2004, pp. 300–320; Sulloway,
Frank J., «The Beagle Collections of Darwin’s Finches (Geospizinae)», Bulletin of the British Museum of
Natural History (Zoology), 43 (2), 1982, pp. 49–94; Sulloway, Frank J., «Darwin and His Finches: The
Evolution of a Legend», Journal of the History of Biology, 15: 1, 1982, pp. 1–53.
[31]Lack (1947).
[32]Desmond y Moore (1992), p. 209.
[33]Darwin, Charles (1872), pp. 70–71.
[34]Ibíd, p. 49.
[35]Ibíd, p. 106.
[36]Ibíd, p. 49.
[37]Ibíd, p. 103.
[38]Véase, por ejemplo, ibid, p. 42 y p. 47.
[39]Ibíd, p. 137.
[40]Ibíd, p. 50.
[41]Darwin, Charles (1882), p. 107.
[42]Darwin, Charles (1872), p. 59.
[43]Darwin, Charles (1868), pp. 5–6.
[44]Ibíd, p. 6.
[45]Darwin, Charles (1882), p. 606.
[46]Darwin, Francis (1887), p. 215.
[47]Darwin, Charles (1859), p. 134.
[48]Darwin, Charles (1882), p. v.
[49]Darwin, Charles (1872), p. 429.
[50]Darwin, Charles (1958), p. 85.
[51]Darwin, Francis (1887), Vol. 2.
[52]Ibíd. Vol. 2, pp. 243–244.
[53]Desmond (1989).
[54]Lyons, Sherrie L., « “The Origins of T H Huxley’s Saltationism: History in Darwin’s Shadow»,
Journal of the History of Biology, 28: 3, 1995, pp. 463–494.
[55]Gould (2002), pp. 355–395.
[56]Kropotkin (1972), p. 18.
[57]Huxley, T. H., «The Struggle for Existence: A Programme», Nineteenth Century, 1888, p. 165.
[58] Publicado en español bajo el título El apoyo mutuo: un factor de la evolución, Editorial Dharana,
Lugo, 2012.
[59]Kropotkin (1972), p. 71.
[60]Ibíd.
[61]Ibíd, p. 30.
[62] En la tercera parte consideraré las observaciones de Kropotkin sobre las sociedades humanas.
[63]Sapp (2009), pp. 115–120.
[64] Mayr quiso restringir el término «neodarwinismo» a su uso inicial, que era básicamente el
darwinismo sin la herencia de caracteres adquiridos y, en consecuencia, distinguirlo de la «síntesis
moderna». Pero la distinción no llegó a adoptarse y «síntesis moderna» no es un término evidente para los
no biólogos. El «neodarwinismo» hace una distinción útil del «ultradarwinismo», que definiré más adelante.
[65]http://nobelprize.org/nobel_prizes/medicine/laureates/1933/morgan-bio.html, consultado el 20 de
diciembre de 2008.
[66]Schrodinger (1992), basado en conferencias impartidas en 1943.
[67]Watson y Stent (1980); Crick (1990).
[68] Véase diagrama en página 356.
[69] Los resultados, incluyendo el papel de intermediario del ARN mensajero, están descritos en las
páginas 353-362.
[70]Crick, Francis, «Central Dogma of Molecular Biology», Nature, 227: 5258, 1970, pp. 561–563.
[71]Coyne (2006).
[72] Véase el glosario para la definición de «paradigma».
[73] Véase página 348.
[74]Woese, C. R., et al., «Towards a Natural System of Organisms: Proposal for the Domains Archaea,
Bacteria, and Eucarya», Proceedings of the National Academy of Sciences of the United States of America,
87: 12, 1990, pp. 4576–4579.
CAPÍTULO 17. EVIDENCIAS DE LA EVOLUCIÓN
BIOLÓGICA 1: FÓSILES

Renunciaré a mi fe en la evolución si alguien encuentra un fósil de conejo en el precámbrico.

ATRIBUIDO A J. B. S. HALDANE

Combinar el fenómeno de la evolución biológica con solo una de sus varias


posibles causas puede llevar a un sesgo subconsciente a la hora de seleccionar e
interpretar las evidencias. Intentaré evitar caer en esto examinando solo el
fenómeno y viendo si existe o no un patrón en las evidencias. En los capítulos
siguientes consideraré hasta qué punto el modelo ortodoxo neodarwinista, junto
con las hipótesis que modifican o desafían este modelo, explican la existencia de
un patrón de este tipo.
En este capítulo examinaré las evidencias fósiles y en el capítulo siguiente
las evidencias en especies vivas. Teniendo en cuenta que todas las evidencias
hacen referencia a especies, es necesario ante todo aclarar el significado del
término.

Especies

Se estima que el número de especies eucariotas vivas oscila entre cinco y


treinta millones,[1] de las cuales aproximadamente dos millones están descritas.
[2]
Solo se han descrito unas 4.500 especies procariotas (bacterias y arqueas),[3]
pero se estima que su número total encima de un simple kilómetro de corteza
terrestre se sitúa entre 108 y 1017 (entre un millardo y un trillón).[4] No existen
en la actualidad estimaciones disponibles de especies procariotas en otros
lugares pero, para hacernos una idea de su importancia en la biosfera, se calcula
que el número total de células procariotas que contienen los océanos es de unos
1029 (un millón de cuatrillones), al menos el doble que en el suelo y 50 veces
más que en la profundidad de las superficies oceánica y terrestre.[5]
Una de las razones de la amplia discrepancia en las estimaciones es la falta
de acuerdo en cuanto a lo que es una especie. Como señaló Nick Isaac, de la
Zoological Society de Londres, «Existen casi tantos conceptos distintos del
término “especies” como biólogos dispuestos a discutirlos».[6]
Igual que Darwin, varios biólogos sostienen que las especies son conceptos
arbitrarios. Jim Mallet, un especialista en mariposas del University College de
Londres, cuya investigación se centra en la especiación, sostiene que «las
especies consideradas esencialmente como una “realidad” entran en grave
conflicto con lo que entendemos como especiación gradual y, en general, es algo
que ya no está aceptado».[7] Y prosigue defendiendo que «recientes estudios
genéticos […] apoyan la existencia de un continuo darwinista entre variedades y
especies».[8]
Los biólogos especializados en evolución, Jerry Coyne y H. Allen Orr,
discuten esto en el libro que publicaron en 2004 y que titularon Speciation
[Especiación], un extensivo estudio sobre la investigación llevada a cabo en este
ámbito.
Tal y como lo articuló Ernst Mayr, uno de los arquitectos del modelo
neodarwinista:

Lo que se conoce como el «problema de las especies» puede reducirse a una sencilla elección entre
dos alternativas: ¿son las especies una realidad en la naturaleza o son simplemente una invención de
la mente humana?[9]

Teniendo en cuenta que un ser humano es claramente distinto a un ratón, una


carpa dorada, una bacteria E coli o un roble, existe una necesidad práctica,
diferenciada de cualquier tipo de necesidad ontológica, de definir aquello sobre
lo que los científicos hablan y estudian. Este fue uno de los principales motivos
del desarrollo de la taxonomía: la clasificación jerárquica de los organismos en
grupos según los caracteres que tienen en común, empezando por los más
generales hasta llegar a los más específicos.
Independientemente de las diferencias que mantengan con respecto al
significado del término, la mayoría de científicos utiliza las especies —no un
taxón de categoría inferior a la especie, como la variedad, o un taxón de
categoría superior a la especie, como el género, el orden, la clase o el filo—,
para describir a los organismos y sus relaciones con otros organismos. Pero el
modo en que taxonomistas, especialistas en el estudio de sistemas, naturalistas,
bacteriólogos, botánicos, entomólogos, zoólogos, biólogos evolutivos, biólogos
moleculares, genetistas, especialistas en el estudio del genoma, ecologistas y
otros especialistas definen el término «especie» es muy distinto porque no se
ponen de acuerdo en cuáles son los caracteres definitorios.
Preguntados por lo que entendían como «especie», los arquitectos del
neodarwinismo coincidían en que el caracter taxonómico tradicional, es decir, la
morfología —estructura y forma—, era inadecuada porque muchas difieren muy
poco morfológicamente mientras que otras especies exhiben una amplia variedad
de morfologías. Además, el macho y la hembra de todas las especies suelen ser
distintos en cuanto a tamaño y forma, y a menudo también en cuanto a color,
igual que los ejemplares jóvenes y los maduros, mientras que los adultos suelen
mostrar formas distintas dependiendo de la disponibilidad de alimento.
Para los neodarwinistas, el caracter clave era la capacidad de los miembros
de una población para poder intercambiar genes: el flujo genético dentro de una
población define una especie y distingue esa especie de otra población con la
que no existe flujo genético, y el flujo genético se consigue mediante la unión de
miembros de la especie para producir descendencia fértil. Ernst Mayr
materializó este punto de vista en 1940 como el «concepto biológico de
especie», que definió sin apenas cambios más de cincuenta años después como
«grupos de poblaciones naturales de individuos que pueden cruzarse entre sí, o
que potencialmente pueden hacerlo, y que están reproductivamente aislados de
otros grupos afines».[10]
Como que los neodarwinistas defienden que la selección natural de
caracteres de la población de una especie en un entorno particular es la causa de
la evolución biológica, sostienen que el aislamiento geográfico es la vía principal
hacia la especiación. Una población se divide en dos bien por la migración de
una parte de la misma o por la formación de una barrera geográfica entre
distintas partes de la población, como sucedió cuando el istmo de Panamá se
cerró hará cuestión de tres millones de años y separó los organismos marinos que
vivían en las costas del Atlántico y del Pacífico. El acervo génico de las
poblaciones aisladas geográficamente se altera en el transcurso de generaciones
cuando la selección natural favorece a los miembros mejor adaptados para
competir por la supervivencia y reproducirse en ese entorno. Al final, los
miembros de las distintas poblaciones ya no son capaces de intercambiar genes
ni en el caso de que se produjera el contacto. Es lo que se conoce como
especiación alopátrica, a diferencia de la simpátrica, en la que una población se
divide en dos o más especies que comparten el mismo territorio.
El concepto biológico de especie neodarwinista fue ampliamente aceptado
como ortodoxia hasta los años 80, cuando los botánicos empezaron a rebatirlo
alegando que no aplicaba a muchas plantas.
Coyne y Orr, los zoólogos que investigaron la especiación mediante la mosca
de la fruta Drosophila melanogaster, siguieron a Mayr considerando que la
alopátrica es la principal vía hacia la especiación. Modificaron levemente su
definición reconociendo que la especiación darwinista es un proceso que exige
mucho tiempo y que existen fases intermedias en las que no es posible hacer una
distinción de especies clara. Su actualización del concepto biológico de especie,
que se ha convertido en la ortodoxia actual, pero que no por ello está aceptado
unánimemente, lo define como «grupos de poblaciones que se reproducen entre
sí y que muestran un aislamiento reproductivo sustancial, aunque no
necesariamente completo, con respecto a otras poblaciones afines».[11]
Su revisión de las diversas barreras divide el aislamiento entre precopulatorio
y postcopulatorio. El aislamiento precopulatorio puede ser:

a. Ecológico, cuando las poblaciones ocupan o se reproducen en hábitats


distintos.
b. Temporal, cuando las poblaciones se reproducen en momentos distintos,
ya sea del día o del año.
c. Conductual, cuando los miembros de la población eligen si emparejarse o
no o con quién hacerlo, lo que se conoce también como emparejamiento
selectivo.
d. Mecánico, cuando diferencias morfológicas o fisiológicas impiden el
emparejamiento.

El aislamiento poscopulatorio implica que el resultado del emparejamiento es


inviable (aborto o mortinato), estéril (como la mula que resulta del
emparejamiento de un caballo y un asno) o no está tan bien adaptado como
cualquiera de sus progenitores para sobrevivir o reproducirse y, en consecuencia,
se ve abocado a la extinción.
Pero la definición del término especie que sostiene la ortodoxia actual
presenta cuatro problemas principales.

1. Imposibilidad de verificación
Si la vía principal hacia la especiación es la separación geográfica de
partes de una población, al quedar dos partes aisladas entre sí se hace
imposible observar si los miembros de una parte son capaces de
emparejarse con los miembros de la otra. La rara excepción se produce
cuando los miembros de una parte de la población migran de nuevo hacia
el territorio donde vive la otra parte.
2. Reproducción asexual
La definición se apuntala sobre la reproducción sexual, pero la
mayoría de especies se reproduce asexualmente. Uno de estos métodos de
reproducción es la partogénesis, conocida también como nacimiento
virgen.

Partogénesis: desarrollo de un óvulo hasta convertirse en cría sin que se


produzca la fecundación por parte de un macho.

Muchos invertebrados, como los insectos, producen descendencia de esta


manera. Por ejemplo, la bdilloidea rotifers, un invertebrado acuático
microscópico, es siempre hembra pero se reproduce y ha desarrollado
unas 300 especies reconocidas. La mayoría de animales que se reproduce
por partogénesis se reproduce también sexualmente. Entre ellos destacan
las abejas y las hormigas, además de algunos vertebrados como
determinadas especies de serpientes, peces, anfibios, reptiles y aves,
aunque ningún mamífero. El fenómeno es más excepcional entre las
plantas, donde la reproducción partogenética natural se produce en la rosa
y el naranjo.
Otro método asexual de reproducción es la fisión binaria.

Fisión binaria: división de una célula en dos, en la que cada célula


resultante es idéntica a la célula original y suele alcanzar su mismo
tamaño.

La abrumadora mayoría de especies del planeta —bacterias y arqueas—


se reproduce de esta manera.
Coyne y Orr defienden que la reproducción bacteriana es consistente
con su definición porque los genes se intercambian entre las bacterias a
través de un proceso conocido como transferencia genética horizontal, o
lateral, que «puede causar transferencias genéticas raras y
recombinación»; este equivalente bacteriano de la recombinación
genética sexual produce incluso «una forma de aislamiento
reproductivo». Por otro lado, el informe de la Evaluación de los
Ecosistemas del Milenio dice que:

«Los conceptos de especies que están basados en el flujo genético y sus límites, como el concepto
biológico de especie, no son aplicables a los taxones asexuales. Tampoco son adecuados para
taxones “pansexuales”, como es el caso de algunas bacterias, donde el flujo de genes puede ser
común entre tipos incluso muy distintos[12]».

3. Hibridación exitosa
La actual definición neodarwinista deja implícito que del
emparejamiento entre miembros de dos especies distintas resulta una
descendencia que es inviable, estéril o tan poco adaptada para sobrevivir
y reproducirse, que su descendencia se extingue.
Sin embargo, el 25 por ciento de las plantas vasculares (que incluyen
todas las plantas con flor) de Gran Bretaña, el 16 por ciento de todas las
mariposas de Europa, el nueve por ciento de todas las aves del mundo y
el seis por ciento de todos los mamíferos de Europa (incluyendo el
ciervo), hibrida y produce descendencia fértil.[13]
4. Hibridación poliploide
La hibridación no solo es exitosa en muchas plantas, sino que además
puede generar nuevas especies casi de inmediato en vez de hacerlo de
forma gradual a lo largo de miles de generaciones. En el capítulo
siguiente trataré sobre este tipo concreto de hibridación, conocida como
poliploide, en la que el híbrido y su descendencia no pueden reproducirse
con miembros de las especies de sus progenitores.

Coyne y Orr hablan de un mínimo de 25 definiciones alternativas del término


«especie» vigentes hoy en día. Cada una de ellas, sin embargo, presenta tantos
problemas como la definición ortodoxa actual.
Lo cual me obliga a llegar a la conclusión de que, después de revisar las
evidencias de la evolución biológica, no queda otra alternativa que aceptar la
definición de especie y los caracteres que se utilicen para clasificar a un
individuo dentro de una especie en particular, que los especialistas más
relevantes utilicen. Lo cual, de todos modos, produce inconsistencias
considerables. Por ejemplo, los caracteres utilizados para clasificar las especies
de hormigas son muy distintas de las que se emplean para clasificar las especies
de mariposas. El lobero irlandés, que tiene una altura a la cruz de 90 centímetros,
se clasifica como la misma especie (Canis lupus familiaris) que el chihuahua de
15 centímetros de altura, mientras que la longitud media de una gaviota
mediterránea (Larus melanocephalus) adulta es de 39 centímetros y se clasifica
como una especie distinta de la gaviota común (Larus canus), que tiene una
longitud media en edad adulta de 41 centímetros, es algo más larga, tiene las
patas más rojas y la cabeza negra solo en verano. Si únicamente dispusiéramos
de fósiles de ambos ejemplares, las gaviotas serian indistinguibles, mientras que
los dos perros quedarían clasificados como especies distintas.
Fósiles

El registro fósil se ha ampliado enormemente desde tiempos de Darwin, y


muy en especial en los últimos treinta años. Pero, de todos modos, la evaluación
de fósiles para comprender la evolución biológica presenta dos problemas
principales.

Escasez del registro fósil

Las razones geológicas y fisiológicas ofrecidas en el capítulo 14 para la


ausencia de fósiles de las primeras formas de vida[14] aplican a todas las formas
de vida. Además, los movimientos tectónicos y la erosión han destruido gran
parte de los fósiles de las especies más jóvenes que se hallaban depositados en
los estratos más jóvenes de las rocas.
Richard Leakey y Roger Lewin estiman que el registro fósil ha conservado
tan solo unas 250.000 especies eucariotas de las aproximadamente 30 mil
millones de especies que deben de haber vivido durante los últimos 600 millones
de años.[15] Esta estimación da a entender que solo ha quedado fosilizada una
de cada 120.000 especies eucariotas; no tiene en cuenta la cantidad
inmensamente superior de especies procariotas.
Y estos fósiles tampoco pueden considerarse representativos. Las partes
duras de los organismos, como los dientes y los huesos, presentan más
probabilidades de quedar fosilizadas que las partes de organismos blandos.
Además, cerca del 95 por ciento del registro fósil está compuesto por restos de
criaturas que vivieron bajo el agua, principalmente en mares poco profundos.
[16]

Interpretación

La interpretación sigue siendo un problema clave incluso en los casos


excepcionales en los que se ha descubierto el fósil de un organismo entero. Por
ejemplo, después de estudiar los fósiles del esquisto de Burgess, que datan del
periodo cámbrico, Simon Conway Morris interpretó en 1977 un ejemplar de 25
centímetros de longitud como los restos de un animal que caminaba por el fondo
marino sobre unos zancos espinosos y con siete tentáculos dorsales, similar a la
imagen que muestra la figura 17.1. Se trataba de un ejemplar único y Conway
Morris lo clasificó como una nueva especie, Hallucigenia sparsa, una especie
que apareció repentinamente en el cámbrico y que nunca más volvió a verse.

Una interpretación alternativa consideró que la Hallucigenia era una


apéndice de un animal más grande y desconocido. Posteriormente, en 1991, Lars
Ramskold y Hou Xianguang examinaron las especies descubiertas en
Chengjiang, China, y llegaron a la conclusión de que la reconstrucción de
Conway Morris estaba invertida: la Hallucigenia caminaba sobre pares de patas
similares a tentáculos y se protegía con una terrible empalizada de espinas, como
muestra la figura 17.2.

La Hallucigenia fue entonces reclasificada en el filo de las Onychophora,


convirtiéndola así en un antepasado lejano de los animales similares a las orugas
que viven en la actualidad en las selvas tropicales y alejándola del protagonismo
de ser única en su especie.[17] Esta interpretación fue aceptada por Conway
Morris y la mayoría de paleontólogos, aunque nunca han llegado a ponerse de
acuerdo en lo referente a qué extremo corresponde a la cabeza y cuál a la cola.
Normalmente, los fósiles no corresponden a animales completos sino solo a
fragmentos de huesos o dientes, y los problemas de interpretación,
reconstrucción y clasificación son, por lo tanto, muy complicados.
Todo esto crea un terreno fértil para la Ley de interpretación de los datos
sugerida en el capítulo 6 como consecuencia de las reivindicaciones de algunos
cosmólogos. Por ejemplo, a finales de 2006, el paleontólogo Jorn Hurum
convenció al Museo de Historia Natural de Oslo para que pagara un millón de
dólares por un pequeño fósil que no había estudiado en detalle. Apenas dos años
más tarde, sir David Attenborough, el decano de los presentadores de televisión
especializados en historia natural, anunció a los medios de comunicación
reunidos en presencia del alcalde de Nueva York, Michael Bloomberg y con un
fondo publicitario de un futuro libro y una serie documental vinculada al mismo
titulada The Link, que el eslabón perdido había dejado de estar perdido. Hurum,
que había clasificado aquel fósil de 47 millones de años de antigüedad
excepcionalmente bien conservado como Darwinius masillae, explicó que se
trataba de «el primer eslabón con los humanos». Y añadió con modestia que «su
imagen aparecerá seguramente en todos los libros de texto de los próximos cien
años».
Menos de cinco meses más tarde, Erik Seiffert, de la Stony Brook University
de Nueva York, que lideraba un estudio publicado en Nature sobre un fósil
similar, pero 10 millones de años más joven, dijo que «Nuestros análisis no
sustentan la afirmación de que el Darwnius es un eslabón en el origen de los
primates superiores».[18]
Como mínimo, el Darwinius no era una falsificación, pero los problemas de
interpretación hacen que a menudo las falsificaciones pasen desapercibidas.
Desde el Hombre de Piltdown, desenterrado en 1912 y cuyo origen fraudulento
no fue descubierto hasta cuarenta años más tarde, los fraudes han sido
frecuentes. Uno de los casos más recientes y amplio fue la falsificación
sistemática de datos fósiles perpetrada durante treinta años por el entonces
distinguido antropólogo Reiner Protsch, después de lo cual, en 2005, se vio
obligado a renunciar a su puesto como profesor de la Universidad de Frankfurt.
El arqueólogo Thomas Terberger, descubridor del fraude, manifestó que:
La antropología tendrá que revisar por completo su imagen del hombre moderno durante el periodo
comprendido entre 40.000 y 10.000 años atrás. El trabajo del profesor Protsch parecía demostrar
que el hombre anatómicamente moderno y el hombre del Neandertal habían coexistido y que
incluso podían haber engendrado hijos conjuntamente. Pero ahora todo esto queda al nivel de
basura.[19]

Evidencias genéticas más recientes, que se considerarán en la tercera parte,


sugieren que algunos neandertales se reprodujeron con los primeros humanos,
pero este hecho no valida las evidencias fósiles falsas de Protsch.

El registro fósil

Teniendo en cuenta estos problemas, la figura 17.3 se inspira en los capítulos


12 y 14 y en los estudios citados más adelante en esta sección para ilustrar,
mediante un reloj de 24 horas, las estimaciones actuales de la escala de tiempo
del registro fósil.

Esta imagen general muestra que si la formación de la Tierra que se produjo


hace aproximadamente 4,5 miles de millones de años puso en marcha el reloj, el
supuesto bombardeo de asteroides o cometas que tuvo lugar en la última parte
del eón hádico terminaría a las 3.12 h. (hace 3,9 miles de millones de años). A
pesar de que nunca sabremos con exactitud en qué momento apareció la vida a
partir de los elementos químicos inanimados de la superficie terrestre, las
estimaciones menos discutidas sitúan los primeros fósiles microbianos a las 5.20
h. (hace 3,5 miles de millones de años). Estos microbios, principalmente
bacterias y arqueas, fueron la única forma de vida durante casi tres mil millones
de años. Los animales no emergieron hasta aproximadamente las 20.32 h. (hace
0,65 miles de millones de años), mientras que los humanos lo hicieron solo 29
segundos antes de medianoche.
Los análisis químicos y radiométricos de rocas indican que durante la mayor
parte de historia de la Tierra ha habido muy poco oxígeno en los océanos,
profundos y no profundos, y en la atmósfera (véase tabla 17.1).

Las correlaciones con el registro fósil sugieren que los primeros microbios
eran extremófilos que se mantenían ingiriendo elementos químicos,
probablemente componentes sulfurosos e hidrógeno procedentes de la
descomposición del agua. Al final, los antepasados de las cianobacterias
evolucionaron para utilizar la luz del sol como fuente de energía. El oeste de
Australia posee uno de los registros más continuos y mejor estudiados de
estromatolitos, estructuras laminadas compuestas principalmente por
cianobacterias, organismos que dominaron el registro fósil en el periodo
comprendido entre dos mil y un millón de años antes de nuestros días.[20]
Algunas cianobacterias excretan oxígeno a modo de producto de desecho
metabólico. Pese a que el oxígeno era venenoso para las bacterias primitivas
(anaeróbicas), algunas especies se adaptaron para utilizar este oxígeno para su
metabolismo (bacterias aeróbicas).
El primer fósil de eucariota —una célula nucleada que contiene orgánulos
tipo mitocondrias, que utilizan oxígeno para generar energía para la célula— fue
descubierto en forma de finas películas de carbono en unas rocas de 2,1 miles de
millones de años de antigüedad localizadas en Empire Mine, cerca de Marquette,
Michigan. Pudo haber sido una colonia bacteriana, pero su tamaño superior a un
centímetro y su forma de tubo sugieren que podría tratarse de Grypania spiralis,
una alga eucariota.[21]
En 2010, un equipo interdisciplinario liderado por Abderrazak El Albani, de
la Universidad de Poitiers, anunció el descubrimiento de más de 250 fósiles
macroscópicos bien conservados, de 2,1 miles de millones de años de
antigüedad, en esquistos negros del sudeste de Gabón que interpretaron como
una representación de vida pluricelular. La datación isotópica con carbono y
azufre indican que las estructuras, que alcanzan un tamaño de hasta 12
centímetros, eran biogénicas y los patrones de crecimiento deducidos a partir de
la morfología fósil sugieren la señalización celular y las respuestas coordinadas
que normalmente se asocian a una organización pluricelular. Además, los
análisis de especiación sugieren que los organismos utilizaron probablemente
oxígeno para respirar. Igual que sucede con la supuesta Grypania spiralis, la
datación de estos fósiles coincide con los inicios de la oxigenación de los
océanos poco profundos y de la atmósfera (véase tabla 17.1). Los investigadores
no descartan la posibilidad de que estos fósiles representen las eucariotas
pluricelulares más antiguas.[22] Sin embargo, según señalan Philip Donoghue y
Jonathan Antcliffe, del departamento de Ciencias de la tierra de la Universidad
de Bristol, a falta de más evidencias, hay que suponer que representan colonias
bacterianas.22
Más ampliamente aceptados como los primeros fósiles eucariotas es la
abundante población de microfósiles esféricos conservados en los esquistos
costeros del grupo Ruyang, en el norte de china, clasificados como
Shuiyousphaeridium macroreticulatum, un organismo unicelular de entre 1,6 y
1,26 mil millones de años de antigüedad.[23]
Mientras que los niveles de oxígeno en los océanos y la atmósfera
permanecieron bajos durante casi tres mil millones de años, hace entre 0,85 y
0,54 miles de millones de años, la oxigenación de los océanos de escasa
profundidad se incrementó de manera significativa y la atmósfera alcanzó el
nivel actual de un 20 por ciento de oxígeno, presumiblemente como
consecuencia de la rápida diseminación de cianobacterias que excretaban
oxígeno. Todo esto es consistente con la aparición, hace aproximadamente 600
millones de años, de animales marinos simples que extraían oxígeno del agua
para su metabolismo, después de peces y, finalmente, de animales terrestres que
metabolizaban respirando oxígeno de la atmósfera.
En agosto de 2010, el geocientífico de Princeton, Adam Maloof y sus
colegas, afirmaron haber descubierto la primera evidencia de animales
invertebrados de cuerpo duro. Descubrieron fósiles con caparazón debajo de un
depósito glacial en el sur de Australia, lo que sugería que hace 650 millones de
años en los acantilados vivían criaturas semejantes a esponjas. De confirmarse,
significaría que la vida animal existía, y sobrevivió, antes de que la Tierra se
convirtiera en un enorme copo de nieve como consecuencia del suceso conocido
como la glaciación marinoana, que dejó gran parte del planeta cubierta de hielo.
[24]
Por todo el mundo se han localizado huellas fosilizadas en arenisca de un
amplio rango de animales primitivos de cuerpo blando datados hace
aproximadamente 600 millones de años. Marcan la aparición de la fauna
ediacárica, que recibe su nombre por las montañas Ediacara del sur de Australia,
donde fueron descubiertos por primera vez.
Desaparecen en su mayoría del registro fósil hace 542 millones de años,
aunque descubrimientos más recientes indican que hubo organismos ediacáricos
que siguieron existiendo en el periodo cámbrico. A pesar de ser organismos que
no se parecen a nada que conviva en la actualidad con nosotros, las huellas
sugieren algunos cnidarios semejantes a las actuales medidas, líquenes, corales
blandos, anémonas de mar, pennatulaceos y gusanos anélidos, aunque sigue
siendo controvertido si son ancestrales a especies extinguidas.[25]
A efectos prácticos, los paleontólogos conocen el primer periodo geológico
cámbrico, que se inició hace 545 millones de años, como la explosión cámbrica,
pues marcó la repentina aparición de una amplia variedad de miembros del reino
animal, tanto de cuerpo blando como de cuerpo duro —las eucariotas
unicelulares que consumen otros organismos y necesitan oxígeno para sobrevivir
—, seguida por una desaparición igualmente súbita de la mayoría de ellos al
finalizar el periodo, hace 485 millones de años. Sin embargo, teniendo en cuenta
que los estratos del último 10 por ciento de la historia de la Tierra están datados
por su contenido fósil, estamos ante un argumento circular. Descubrimientos más
recientes, además de la posterior datación radiométrica de los estratos rocosos,
sugieren que muchas especies y linajes aparecieron antes, o desaparecieron
después, de este periodo de tiempo.

Fósiles de transición

Los creacionistas afirman que la ausencia de fósiles de transición entre una


especie y otra refuta la evolución biológica.
Richard Dawkins contraataca aseverando que «prácticamente todos los
fósiles descubiertos pueden describirse como algo intermedio entre dos cosas».
Haciéndose eco del comentario de Haldane que aparece como cita al principio de
este capítulo, dice que no hay nada en el registro fósil que falsee la evolución
biológica.[26]
Las bacterias, aparte de las que evolucionaron hacia eucariotas, han
conservado su sencilla tipología corporal durante tres mil millones de años. Pero
en el caso de los animales, la primera aparición en el registro fósil de una especie
más compleja nunca ha sido datada antes de la primera aparición de una especie
menos compleja. Me aventuro a sugerir, de todos modos, que afirmar que
cualquier fósil es un paso intermedio entre dos cosas es tal vez simplificar la
situación en exceso.
Para responder a los creacionistas, los biólogos evolutivos suelen señalar la
escasez inherente del registro fósil y emplean un argumento ya utilizado por
Darwin: los organismos transicionales que Estan peor adaptados al entorno que
sus sucesores, acabarán perdiendo la lucha por la supervivencia y la
reproducción y se extinguirán rápidamente en relación al tiempo geológico; de
ahí que la probabilidad de encontrar fósiles de organismos en transición sea
todavía inferior que la de encontrar fósiles de aquellos que se adaptaron con
éxito.
Una serie de fósiles, de todos modos, presenta un caso factible para la
evolución biológica. La familia del caballo posee un registro fósil relativamente
rico que va desde el Hyracotherium, el caballo amanecer, un mamífero del
tamaño aproximado de un zorro con varios dedos terminados con pezuña y
dentadura idónea para la alimentación omnívora, datado aproximadamente hace
50 millones de años, hasta la única especie superviviente, el caballo moderno
con una sola pezuña y extremidades largas, Equus, con dentadura adecuada para
el pastoreo. La figura 17.4 ilustra los cambios anatómicos que este linaje ha
experimentado con el paso del tiempo.

El diagrama no representa una única sucesión lineal. Se han encontrado


fósiles de muchos más équidos extintos, lo que sugiere un árbol genealógico
evolutivo en el que solo el linaje que lleva hasta el caballo moderno sobrevivió
hasta la actualidad.
Las transiciones anatómicas son consistentes con la hipótesis de que un
pequeña mamífero se adaptó para caminar sobre el suelo suave y húmedo de los
bosques primigenios y alimentarse de follaje blando y frutas y evolucionó a
medida que los bosques cedieron paso a la sábana; en el nuevo paisaje, solo las
variedades más veloces podían escapar de los predadores, lo que condujo a
extremidades más largas y una única pezuña para adquirir mayor velocidad y a la
adaptación de la dentadura al pastoreo.
Las ballenas representan otro caso favorable para la evolución biológica.
Como todos los mamíferos, respiran aire y producen leche para alimentar a las
crías. Sn embargo, no salen nunca del agua, tienen los oídos cerrados, aletas en
vez de piernas, y poseen un metabolismo que retiene el oxígeno no en forma de
gas, sino de compuesto químico, lo que permite que algunas de ellas puedan
sumergirse a 1.500 metros de profundidad y permanecer bajo el agua durante dos
horas; algunas, como la ballena azul, son gigantescas y pueden alcanzar un peso
de hasta 150 toneladas.
Según el paleontólogo y anatomista Hans Thewissen, de la facultad de
Medicina de las Northeastern Ohio Universities, una de las autoridades más
destacadas en el estudio de las adaptaciones acuáticas de las ballenas, sus
primeros antepasados conocidos son la familia de las Pakicetidae (ballenas en
paquistana), que incluye los géneros Pakicetus, Ichthyolestes y Nalacetus. Junto
con su equipo, realizó el seguimiento de un primer descubrimiento y encontró
muchos huesos fosilizados en Pakistán y el noroeste de India, zona que se cree
que se localizaba cerca del antiguo mar de Tetis antes de que la placa india
colisionara contra la costa de Cimeria y diera lugar a las montañas más altas del
mundo.
Las Pakicetidae fueron encontradas juntas y, por lo tanto, son de la misma
época. Pero siendo tan complicada la datación de las rocas, Thewissen solo está
dispuesto a estimarles una edad de 50 +/- 2 millones de años, aunque «con
escasa seguridad».[27]
La figura 17.5 muestra los huesos del Pakicetus y el Ichthyolestes, mientras
que la figura 17.6 muestra una reconstrucción del primero, que tendría el tamaño
aproximado de un lobo.
Vivían en tierra, pero Thewissen asegura que tienen caracteres que no
comparten con otros mamíferos, sino única y exclusivamente con cetáceos
arcaicos y recientes (ballenas, delfines y marsopas): una reducción de la parte de
la corona dental que tritura el alimento, un aumento de la velocidad de cierre de
las mandíbulas y una forma de la región post-orbital y temporal del cráneo que
afecta el oído y la visión. Lanza la hipótesis de que estos ungulados cambiaron a
una dieta de presas acuáticas cuando empezaron a adentrarse en ríos de aguas
poco profundas. Evolucionaron rápidamente. La transición de paquicétidos a
mamíferos marinos se realizó en menos de ocho millones de años vía los
ambulocétidos (ballena que camina), cuyo aspecto parecería el de un cocodrilo
mamífero de tres metros de longitud y cuyos fósiles se descubrieron en lo que se
cree que fueron unas marismas, los protocétidos con extremidades mucho más
reducidas, los basilosauridos con cuerpos enormes de aspecto serpenteo y cola
similar a la de las ballenas y los dorudóntidos, similares a los delfines.[28]
La interpretación de los huesos fosilizados y la reconstrucción del ejemplar a
partir de los mismos, junto con inferencias sobre cómo debían de funcionar estos
animales, las deducciones alcanzadas a partir de análisis de ADN calibrados
utilizando la técnica del reloj molecular, más la datación de los estratos rocosos
por su contenido fósil, nunca podrán proporcionar pruebas concluyentes. Sin
embargo, las evidencias son consistentes con la hipotética evolución de
pequeños mamíferos terrestres ungulados hacia ballenas de vida acuática. Son
también consistentes con los mamíferos actuales adaptados en distintos grados
tanto a la vida terrestre como acuática, como la nutria, la nutria marina y la foca.
Otros fósiles llamados de transición son los descubiertos en la década de los
90, sobre todo en la formación de Yixian, China; se trata de más de veinte
géneros distintos de dinosaurios con plumas fósiles datados con una antigüedad
de entre 150 y 120 millones de años.[29] Desde entonces se han descubierto
muchos más dinosaurios alados de gran tamaño, incluyendo la especie
descubierta en 2012 bautizada como Yutyrannus huali, de entre siete y ocho
metros de longitud y alrededor de 1.400 kilos de peso. Además, las secuencias
de aminoácidos extraídas de los restos de un Tyrannosaurus rex más reciente
recuerdan las de un pollo actual. Todas estas evidencias son consistentes con la
hipotética evolución de las aves a partir de dinosaurios reptiles.
Finalmente decir que la explicación alternativa creacionista del registro fósil
no solo carece de evidencias falsables, sino que totalmente inconsistente con las
evidencias que tenemos; además, es internamente inconsistente.[30]

Extinción de especies

La abundancia en capas de rocas antiguas de especies fósiles que no


encontramos en capas de rocas posteriores implica extinciones. La estimación de
la proporción de especies que hay existido y quedaron extinguidas oscila entre el
99[31] y el 99,9[32] por ciento de la totalidad.
Pero como hemos visto al principio de este capítulo, no existe acuerdo en la
definición del concepto de especie. Además, no sabemos cuántas especies
existen hoy en día y ni siquiera nos aproximamos a su orden de magnitud. Sería
un desafío a la lógica cuantificar con precisión a partir del escaso registro fósil y
querer determinar el número de especies que existieron hace tres mil millones,
mil millones, cien millones, diez millones o incluso hace diez mil años, por muy
sofisticados que fueran los modelos matemáticos empleados. Lo único que
podemos hacer es deducir que una gran mayoría de especies acabó
extinguiéndose.
Además, los biólogos evolutivos diferencian entre:
Extinción terminal: la especie deja de existir sin dejar ningún
descendiente evolucionado.

Y:

Extinción filética o pseudoextinción: la especie evoluciona en una o


más nuevas especies; la primera especie se ha extinguido, pero el linaje
evolutivo continúa.

El consenso científico es que la mayoría de las extinciones de especies que se


observa en el registro fosil, y todas las observadas en la actualidad, son
terminales.

Extinción de especies a nivel individual

Según el modelo neodarwinista, la extinción de especies a nivel individual


puede ser tanto filética como terminal. La extinción filética se produce cuando la
población de una especie en un nicho ecológico evoluciona de forma muy
gradual por la acumulación de mutaciones genéticas aleatorias que codifican
caracteres que permiten a sus miembros competir de forma más efectiva para la
supervivencia y la reproducción en ese nicho, o en otro nicho, hasta el punto en
que la población se transforma en una nueva especie.
La extinción terminal se produce cuando miembros de una especie invaden la
totalidad del territorio de otra y matan a esa especie o se muestran mejor
adaptados para explotar sus recursos alimenticios, forzando a los miembros de la
especie original a morir de hambre o a debilitarse para reproducirse menos y
acabar muriendo a lo largo de generaciones, o cuando un cambio importante en
las condiciones medioambientales se produce a tal velocidad que la especie no
puede evolucionar adaptativamente.

Extinción en masa de especies


El relato ortodoxo de la paleontología dice que la Tierra ha experimentado un
mínimo de diez extinciones en masa en la que han desaparecido muchas especies
en un periodo de tiempo geológicamente breve. La tabla 17.2 recopila los
periodos acordados de las cinco principales extinciones en masa que se cree que
han tenido lugar durante los últimos 500 millones de años.

Estos sucesos se producen en la frontera entre distintos periodos geológicos,


puesto que esos periodos están principalmente definidos por su contenido fósil.
Mientras que los paleontólogos se muestran de acuerdo en que estas
extinciones en masa se produjeron, no coinciden en cuál pudo ser su causa,
además de un drástico cambio medioambiental. Entre las numerosas causas
propuestas destacan las glaciaciones periódicas con descensos simultáneos de los
niveles globales del mar producidos por cambios en la inclinación axial de la
Tierra,[33] un estallido letal de partículas de alta energía provocada por una
gigantesca llamarada solar que superó la magnetosfera protectora de la Tierra, la
radiación ionizante que pudo producirse durante pérdidas temporales de la
magnetosfera protectora debido a la inversión del campo magnético de la Tierra,
[34] la radiactividad letal de una supernova, la actividad tectónica, el
enfriamiento global producido por grandes erupciones volcánicas que generaron
nubes que ofuscaron la luz del sol, el calentamiento global producido por
grandes erupciones volcánicas que generaron nubes que crearon un efecto
invernadero, el enfriamiento global producido por el impacto de un gigantesco
meteorito que generó nubes que impidieron el paso de la luz del sol y/o
desencadenaron grandes erupciones volcánicas, el envenenamiento global de
animales y plantas cuyo metabolismo dependía del oxígeno producido por las
bacterias y arqueas anaeróbicas que dominaron la Tierra durante la práctica
totalidad de sus primeros tres mil millones de años de vida, etc. Algunas de estas
conjeturas son mutuamente contradictorias y no existen evidencias suficientes
para confirmarlas y, mucho menos, para favorecer unas por encima de otras.
La extinción del Cretácico-Terciario (K-T) es la más reciente y la que más
evidencias nos ha dejado. Los museos y los libros de ciencia popular suelen
presentar como un hecho científico demostrado el impacto de un asteroide
gigantesco que barrió de la faz de la Tierra los dinosaurios y muchas más
especies generando incendios a nivel global, terremotos y una nube de polvo rica
en ácido sulfúrico que bloqueó la luz del sol durante muchos meses y que, como
consecuencia, desencadenó un enfriamiento global, lluvia acida y la destrucción
de las cadenas alimenticias. Según el científico planetario Walter Álvarez, co-
proponente de la hipótesis, esta extinción en masa se produjo en un periodo tan
breve como de uno a diez años.[35]
Muchos científicos cuestionaron este relato, pero los medios de amplia
difusión especializados en ciencias informaron en 2010 de que el tema estaba
cerrado:[36] un panel interdisciplinario de científicos había revisado veinte años
de investigaciones y había llegado a la conclusión de que el impacto de un gran
asteroide, que se había producido en la península del Yucatán, México, había
desencadenado la extinción en masa.[37]
Pero los geofísicos Vincent Courtillot y Frederic Fluteau acusaron al panel de
cometer «un error sustancial y una interpretación fundamental y errónea de
nuestro documento».[38] La geocientífica de Princeton, Gerta Keller, y otros
acusaron al panel de haber utilizado

Una revisión selectiva de los datos y las interpretaciones de los proponentes de este punto de vista.
Han ignorado el gran cuerpo de evidencias inconsistente con su conclusión; evidencias acumuladas
por científicos de todo tipo de disciplinas (paleontología, estratigrafía, sedimentología, geoquímica,
geofísica y vulcanología) que documentan un complejo escenario a largo plazo que involucra una
combinación de impactos, vulcanismo y cambio climático.[39]

El biólogo evolutivo J. David Achibald y veintidós científicos más señalaron


que el panel «obvió de manera perceptible el nombre de los investigadores en la
especialidad de los vertebrados terrestres» y que «el escenario de extinción
simplista presentado en el artículo no está al nivel de los innumerables estudios
que versan sobre el comportamiento de los vertebrados y otros organismos
terrestres y acuáticos a finales del Cretacido».[40]
Si la causa de la extinción K-T es debatible, ¿qué sucede con el fenómeno en
sí? Nos han llegado muy pocos ejemplares fósiles del millar aproximado de
especies de dinosaurios que se cree que existían, y solo se ha examinado un área,
que se extiende desde Alberta, Canadá, hasta el noroeste de los Estados Unidos,
con transiciones sedimentarias con restos de dinosaurios del límite K-T. El
registro de dinosaurios en esta área correspondiente a la última parte del
Cretáceo muestra un declive gradual en su diversidad, con un descenso de treinta
a siete géneros en el transcurso de los últimos ocho millones de años del
Cretácico, lo que sugiere una extinción más gradual. Además, si un suceso de
extinción en masa devastador y repentino hubiera barrido de la faz de la tierra
todos los dinosaurios, ¿por qué los demás reptiles —como cocodrilos, lagartos,
serpientes y tortugas— no se vieron afectados?
El registro fósil es rico en organismos marinos, pero la única imagen
detallada del periodo correspondiente al límite K-T nos la ofrecen las
foraminíferas planctónicas y el nanoplancton calcáreo, cuya extinción se produjo
a lo largo de un periodo extenso que se inició mucho antes y término mucho
después del límite K-T. Los braquiópodos sufrieron durante el límite pero, a
pesar de que se dice que los ammonites corrieron la misma suerte, la escasez de
secciones con muestras de ammonites impide demostrar si su extinción fue
gradual o abrupta.[41]
Si quedan aún tantas preguntas abiertas sobre la naturaleza y la causa de la
extinción en masa K-T, ¿hasta qué punto son fiables los detalles presentados en
relación a los sucesos de extinción en masa que tuvieron lugar previamente?

Estasis y especiación súbita

Como vimos en el último capítulo, una de las razones que retrasó la


aceptación por parte de la comunidad científica de la hipótesis de la selección
natural de Darwin fue el gradualismo que llevaba implícito, que no estaba
sustentado por un registro fósil que mostraba especies completamente formadas
que permanecían invariables hasta su desaparición. Las evidencias eran
consistentes con el saltacionismo, la hipótesis de que la evolución biológica se
producía por saltos.
Sin embargo, la adopción del neodarwinismo por parte de los biólogos en la
década de 1940, consolidó los argumentos teóricos de los genetistas de la
población a favor de un proceso de evolución basado en el gradualismo
darwinista e influyó las interpretaciones del registro fósil.
Pero en 1972, un documento titulado «Punctuated Equilibria: An Alternative
to Phyletic Gradualism» [Equilibrios puntuados: una alternativa al gradualismo
filético][42], escrito por los paleontólogos Niles Eldredge y Stephen Jay Gould,
desafío la base de evidencias que sustentaba la explicación neodarwinista. La
publicación provocó un debate, a menudo mordaz, que continúa en la actualidad.
Gould, posteriormente, resumió sus conclusiones como sigue:

La historia de la mayoría de especies fósiles incluye dos características especialmente inconsistentes


con el gradualismo: (1) Estasis. La mayoría de especies no exhibe un cambio direccional durante su
estancia en la tierra. Aparecen en el registro fósil básicamente con el mismo aspecto que tienen en el
momento de su desaparición; el cambio morfológico suele ser limitado y carente de dirección. (2)
Aparición súbita. En toda área localizada, la especie no surge gradualmente a partir de la
transformación continuada de sus antepasados; sino que aparece de repente y «completamente
formada».[43]
Examinaré la hipótesis del equilibrio puntuado en un capítulo posterior. Lo
que aquí quiero ver es lo que muestran las evidencias fósiles.
Los neodarwinistas basan su modelo en el estudio llevado a cabo en 1987 por
el geólogo Peter Sheldon con 3.458 ejemplares de trilobites —el grupo de
artrópodos marinos extintos, parientes lejanos del cangrejo herradura y los
insectos— recogidos en siete estratos de roca sedimentaria de la zona central de
Gales y que representaban un periodo de alrededor de tres millones de años. Una
característica que diferencia las especies es el número de «costillas» pigidiales
(segmentos fusionados de la cola). Sheldon descubrió que en ocho géneros de
trilobites la media de número de costillas pigidiales aumentaba con el paso del
tiempo. Llegó con ello a la conclusión de que, debido al cambio gradual, que a
veces se invertía temporalmente, era imposible asignar la mayoría de ejemplares
a una especie linneana concreta. Teniendo en cuenta que los taxonomistas
incluyen diversas formas morfológicas dentro de una misma especie, las
asignaciones previas a taxones linneanos podían haberse interpretado
erróneamente como una evidencia de interrupción y estasis.[44]
Eldredge, sin embargo, presenta una interpretación distinta de los datos de
Sheldon. En primer lugar, sostiene que la falta de costillas no significa que las
divisiones de la cola de un ejemplar de trilobites hayan desaparecido; sino que
no se expresan en la superficie exterior de la cola, igual que les sucede a los
cangrejos herradura actuales antes de alcanzar la edad adulta. En segundo lugar,
en dos linajes de trilobites, el número de costillas pigidiales oscila en vez de
aumentar gradualmente, mientras que en tres linajes más el número de costillas
se mantiene constante durante varios estratos, después aumenta de manera
significativa y luego se estabiliza, todo lo cual es consistente con la inmigración,
en ese estrato en concreto, de linajes relacionados pero distintos. En tercer lugar,
este «trapicheo anatómico menor relacionado con el número de costillas —que
básicamente no conduce hacia ninguna dirección acumulativa concreta— no
puede ser responsable de las diferencias anatómicas mucho más sustanciales que
se observan entre linajes estrechamente relacionados».[45]
Alan Cheethan, paleontólogo del Museo Nacional de Historia Natural del
Instituto Smithsoniano, apoya este punto de vista. En 1986 llevó a cabo el
estudio sobre un género, el Metrarabdotus, integrado por invertebrados sésiles
acuáticos cuyos fósiles han sido descubiertos en estratos de rocas depositadas en
un periodo que se extiende entre once y cuatro millones de años atrás. Algunas
especies de este género siguen vigentes en la actualidad y ofrecen, por lo tanto,
posibilidad de comparación morfológica. Cheetham estudió hasta 46 caracteres
morfológicos por ejemplar en un total de aproximadamente mil especies de un
centenar de poblaciones. Llegó a la conclusión de que la mayoría de estas
especies no experimentó cambios durante periodos de varios millones de años y
que la mayoría de nuevas especies apareció súbitamente, sin una población
intermedia transicional; si hubo formas intermedias, duraron menos de 160.000
años como media. En al menos siete de los casos estudiados, las especies
antecesoras continuaron vigentes después de haber originado descendientes.
Todo esto, defiende, apoya el modo de evolución con equilibrio puntuado.[46]
Posteriormente, sin embargo, advirtió sobre el peligro de basar los argumentos
en el cambio de un único carácter (como Sheldon había hecho con el número de
costillas pigidiales).[47]
Eldredge concede que las especies exhiben variación, pero comenta que el
registro fósil rara vez muestra una transformación progresiva en una única
dirección que se prolongue durante mucho tiempo. Los estudios de Bruce
Lieberman sobre la historia evolutiva de dos especies de moluscos arcaicos
demuestran que ambas especies cambiaron un poco, pero que transcurridos seis
millones de años, las dos terminaron con un aspecto muy similar al que tenían
cuando aparecieron por vez primera en el registro fósil. Esto, según Eldredge, es
muy típico. «Lo que apreciamos […] es oscilación. Los caracteres variables
suelen girar en torno a un valor medio».[48]
Sostiene, además, que el pequeño y progresivo cambio en el seno de las
especies que observamos en el registro fósil es demasiado lento como para ser
responsable de los grandes cambios adaptativos evolutivos. Los primeros
murciélagos y ballenas necesitaron aproximadamente unos 55 millones de años
para alcanzar su actual morfología. Pero si extrapolamos este ritmo de cambio
hacia atrás, los murciélagos y las ballenas habrían tenido que divergir de los
mamíferos terrestres primitivos mucho antes de que hubieran evolucionado los
mamíferos placentarios.
Por lo que se refiere a los puntos de vista actuales, en la edición de 2014 de
la Encyclopedia Britannica Online, el antiguo presidente de la American
Association fort he Advancement of Science, Francisco José Ayala, presenta el
argumento de la ortodoxia neodarwinista.

El registro fósil indica que la evolución morfológica es, en líneas generales, un proceso gradual. Los
grandes cambios evolutivos se deben normalmente a una acumulación de cambios relativamente
pequeños que se produce a lo largo del tiempo […]. Los paleontólogos suelen atribuir las aparentes
discontinuidades morfológicas del registro fósil a […] los sustanciales vacíos temporales
comprendidos en los límites entre estratos. El supuesto es que, si los depósitos de fósiles fueran más
continuos, mostrarían una transición gradual en la forma [la cursiva es mía].[49]

Ayala, que está especializado en genética molecular, basa el caso en un


supuesto. Eldredge, que es paleontólogo, se muestra claramente en desacuerdo.

El mismo Darwin […] profetizó que generaciones futuras de paleontólogos llenarían estos vacíos
con su diligente investigación […], pero ha quedado abundantemente claro que el registro fósil no
confirmará esta parte de las predicciones de Darwin. Que el registro fósil sea miserablemente pobre
tampoco es el problema. El registro fósil muestra, simplemente, que esta predicción es errónea […].
La observación de que las especies son entidades que se muestran asombrosamente conservadoras y
estáticas a lo largo de prolongados periodos de tiempo presenta todas las cualidades del cuento del
traje nuevo del emperador: todo el mundo lo sabía, pero él prefería ignorarlo. Los paleontólogos,
enfrentados a un registro que de forma recalcitrante y obstinada se niega a confirmar el patrón
pronosticado por Darwin, se han limitado a mirar hacia el otro lado.[50]

Es indiscutible que el registro fósil contiene muchos ejemplos de animales


fósiles que se han mantenido morfológicamente invariables durante muchos
millones de años. Las bacterias no han experimentados cambios morfológicos
importantes desde hace más de tres mil millones de años.
Ayala reconoce que:

Las formas fósiles suelen mantenerse virtualmente sin cambios a lo largo de varios estratos
geológicos, y cada uno de ellos representa millones de años […]. Encontramos ejemplos de ello en
los linajes de lo que se conoce como «fósiles vivos»; por ejemplo, el molusco Lingula, un género de
braquiópodo (un filo de invertebrados con dos valvas) que ha permanecido aparentemente
inalterable desde el periodo ordovícico, hace 450 millones de años; o el tuatara (Sphenodon
punctatus), un reptil que ha mostrado escasa evolución morfológica en 200 millones de años, desde
los inicios del mesozoico.[51]
Lo mismo aplica a muchos cocodrilos (aligátores, cocodrilos, caimanes,
gaviales), que se han mantenido sin cambios importantes durante 200 millones
de años, mientras que los restos perfectamente conservados de crustáceos
triopsidos de 220 millones de años de antigüedad no se distinguen en nada del
actual camarón de herradura, Triops cancriformis. Estos, y otros, son ejemplos
vivos de especies que han permanecido inalterables durante millones de años, a
pesar de los supuestos cambios catastróficos en el entorno que produjeron
sucesos de extinción en masa. Muchas más especies se muestran inalterables en
el registro fósil a lo largo de decenas de millones de años.
La ausencia de evidencias no es evidencia de ausencia. Debido a la escasez
del registro fósil, a los distintos caracteres morfológicos utilizados por distintos
taxonomistas para clasificar las especies, y a la posibilidad de que la aparición
aparentemente súbita (en tiempo geológico) de nuevas especies totalmente
formadas fuera causada por la inmigración de una nueva especie, podría
obtenerse un patrón de estasis si el mecanismo subyacente fuera gradual o de
equilibrio puntuado. Sin embargo, no hay aparentemente ejemplos fósiles
indiscutibles de cambios graduales y acumulativos que produzcan especies
claramente distintas. Por otro lado, hay muchos ejemplos indiscutibles de estasis
evolutiva.
Podemos concluir que el patrón normal de las evidencias fósiles de animales
es de estasis morfológica con cambios menores, y a menudo oscilantes,
puntuados por la aparición geológicamente súbita (decenas de miles de años) de
nuevas especies, que permanecen luego en estado básicamente invariable hasta
que desaparecen del registro fósil o siguen vigentes hasta la actualidad en forma
de lo que conocemos como «fósiles vivos».

Registro fósil de animales y plantas

La figura 17.7 describe el patrón actualmente aceptado del registro fósil para
animales y plantas, que se origina hace aproximadamente 650 millones de años.
Evolución de los mamíferos

Muchos biólogos evolucionistas sostienen que después de las extinciones en


masa de especies se produjeron explosiones de especies, puesto que se había
creado la oportunidad para que los supervivientes explotaran hábitats dominados
anteriormente por las especies extintas. Las especies supervivientes
evolucionaron con nuevos caracteres adaptados a esos hábitats y, en
consecuencia, dieron lugar a una amplia variedad de nuevas especies.
Si la extinción de los dinosaurios no aviarios se produjo de forma súbita en el
límite K-T y ello permitió una explosión de especies mamíferas es un tema
debatible. Pero lo que es evidente es que los mamíferos vivos muestran una gran
diversidad morfológica, desde el murciélago abejorro que tiene una longitud que
oscila entre los 30 y los 40 milímetros y un peso entre 1,5 y 2 gramos, hasta los
humanos, pasando por la ballena azul que pesa más de cien toneladas. Forman
una clase taxonómica caracterizada por el hecho de que las hembras alimentan a
sus crías con leche de sus glándulas mamarias. Se diferencian también de otros
vertebrados por su sangre caliente: mantienen una temperatura corporal
relativamente constante independientemente de cual sea la temperatura
ambiental, y lo consiguen a través de procesos metabólicos internos, lo que les
permite sobrevivir en una amplia gama de entornos.
Ninguna de estas características se fosiliza, razón por la cual los
paleontólogos tienen que utilizar otros identificadores, y recurren a los
mamíferos vivos para ello. Estos identificadores son principalmente una cadena
de tres huesos minúsculos que transmiten ondas de sonido a través del oído
medio para facultar la escucha y una mandíbula inferior que se mueve unida
directamente a la barbilla en vez de hacerlo a través de un hueso independiente,
como en todos los demás vertebrados. Al ser detalles que se observan muy
raramente en fósiles, los paleontólogos utilizan también otras características,
algunas de las cuales se comparten con reptiles similares a mamíferos, lo que
hace que la distinción entre ambos resulte problemática. En consecuencia, la
clasificación de los primeros mamíferos fósiles es polémica.
A partir de las evidencias actualmente disponibles, solo podemos concluir
con que las primeras especies de mamíferos emergieron probablemente a partir
de reptiles terápsidos hace entre 250 y 200 millones de años,[52] con que la
inmensa mayoría están extintas, que un linaje de los mamíferos primitivos con
algunas características de los reptiles —monotremas, como el ornitorrinco con
pico de pato— sobrevive en pequeñas cantidades hasta la actualidad, que el
antepasado común de los mamíferos marsupiales —como el canguro— y los
mamíferos placentarios probablemente emergieron hace aproximadamente 165
millones de años,[53] mientras que el antepasado directo de los mamíferos
placentarios —la inmensa mayoría de los mamíferos vivos, entre ellos el hombre
— probablemente emergió hace alrededor de 65 millones de años.[54]

El seguimiento de la evolución humana a partir del registro fósil


El foco de este viaje es comprender qué sabemos empíricamente sobre la
evolución del hombre. Ofrecer un calendario con los principales sucesos de la
evolución biológica que dieron como resultado la aparición del hombre es
complicado por tres razones. En primer lugar, los problemas de evaluación del
registro fósil aumentan cuanto más retrocedemos en el tiempo. En segundo
lugar, la aparición de una especie es resultado de un proceso evolutivo; no es
posible determinar con precisión cuándo empieza y termina cada proceso. Pero
esto no significa que el resultado no sea algo radicalmente distinto de lo que
había en su estado inicial. Una analogía sería la dificultad de identificar con
precisión el momento en que el capullo de rosa se trasforma en flor, aunque esto
no quiere decir que una flor no sea distinta de un capullo. Y en tercer lugar, no
hay manera de saber, a partir del registro fósil, hasta qué punto la hibridación dio
como resultado transferencias de partes de genomas que dieron lugar a
caracteres morfológicos nuevos y súbitos, en vez de ser adquiridos a través de la
acumulación lenta y gradual de mutaciones genéticas en el acervo genético de
una población, tal y como asume el modelo neodarwinista.
La tabla 17.3 es un intento de plasmar la mejor estimación que puede
ofrecerse hoy en día sobre la aparición de algunos de los muchos taxones
destacados del linaje que termina en el hombre moderno. En consecuencia, lo he
calificado como «indicativo»: una iniciativa para averiguar si existe la
posibilidad de encontrar un patrón a partir de las evidencias disponibles, sin
reivindicar en ningún momento su carácter exhaustivo o su veracidad.
Conclusiones

1. El registro fósil es extremadamente pequeño en comparación con la


estimación del número de especies que han existido; está fragmentado y no
es representativo de todas las especias, además de ser extremadamente
difícil de interpretar con un nivel elevado de confianza. Teniendo en cuenta
este telón de fondo, en las evidencias discernimos el siguiente patrón.
2. Las procariotas fosilizadas muestran pocos cambios morfológicos a lo
largo de 3,5 miles de millones de años; desde hace unos dos mil millones
de años, suelen encontrarse en colonias.
3. La extensión del registro fósil a lo largo del tiempo va de lo más sencillo a
lo complejo: las procariotas aparecen antes que las eucariotas, las
eucariotas unicelulares antes que las pluricelulares, la simetría radial antes
que la bilateral y la cefalización, los invertebrados antes que los
vertebrados, los peces antes que los anfibios, los reptiles antes que las
aves, los mamíferos antes que los primates, y los monos antes que los
humanos.
4. No se trata de una progresión lineal: la agrupación de fósiles animales a lo
largo del tiempo a partir de algunos caracteres morfológicos comunes
sugiere un árbol genealógico con muchísimos linajes que, en su inmensa
mayoría, terminan con la extinción.
5. Estos linajes evolutivos están sustentados por algunas series de especies
transicionales.
6. A pesar de que los límites entre organismos cada vez más complejos son
indistinguibles (como hemos visto en todos los casos), estas apariciones de
nuevas especies, o transiciones evolutivas, son irreversibles: el registro
fósil no presenta evidencias convincentes de que organismos complejos se
transformen en organismos más simples.
7. El ritmo del incremento de la complejidad biológica aumenta en general
con el tiempo, aunque dicho ritmo es distinto para cada linaje.
8. El patrón normal de la evidencia fósil de animales es de estasis, con
cambios menores y a menudo oscilantes salpicados por la aparición
geológicamente súbita —decenas de miles de años— de nuevas especies
que luego permanecen invariables durante decenas e incluso centenares de
millones de años hasta desaparecer del registro fósil o, lo que es menos
común, seguir presentes hasta la actualidad.
9. A pesar de no ofrecer una prueba indiscutible, el registro fósil proporciona
evidencias contundentes del fenómeno de la evolución biológica, de la que
el ser humano es un producto.
[1]May, R. M., «How Many Species Inhabit the Earth?», Scientific American, 267: 4, 1992, pp. 42–48.
[2]UNEP (2007), p. 164.
[3]Torsvik, Vigdis, et al.,«Prokaryotic Diversity—Magnitude, Dynamics, and Controlling Factors»,
Science, 296: 5570, 2002, pp. 1064–1066.
[4]Harwood y Buckley (2008).
[5]Whitman, William B., et al., «Prokaryotes: The Unseen Majority», Proceedings of the National
Academy of Sciences, 95: 12, 1998, pp. 6578–6583.
[6]Isaac, N. J. B., et al., «Taxonomic Inflation: Its Influence on Macroecology and Conservation»,
Trends in Ecology & Evolution, 19: 9, 2004, pp. 464–469.
[7]Mallet, J., «The Speciation Revolution», Journal of Evolutionary Biology, 14: 6, 2001, pp. 887–888.
[8]Mallet, James, «Hybridization, Ecological Races and the Nature of Species: Empirical Evidence for
the Ease of Speciation», Philosophical Transactions of the Royal Society B: Biological Sciences 363: 1506,
2008, pp. 2971–2986.
[9]Mayr (1982), p. 285.
[10]Mayr, Ernst, «What Is a Species, and What Is Not?», Philosophy of Science, 63: 2, 1996, pp. 262–
277.
[11]Coyne (2004), p. 30.
[12]Mace, Georgina, et al., «Biodiversity», pp. 87-89 en Current State & Trends: Millennium
Ecosystem Assessment, 2005.
[13]Mallet, James (2008).
[14] Véase página 341.
[15]Leakey y Lewin (1996), p. 39 y p. 45.
[16]Ibíd. p. 45.
[17]Conway Morris (1998).
[18]Leake, Jonathan y Harloe, John, «Origin of the Specious», Sunday Times, Londres, 24 de mayo de
2009, News, p. 16; Henderson, Mark, «Ida, the Fossil Hailed as Ancestor of Man, “Wasn’t Even a Close
Relative”», The Time, Londres, 22 de octubre de 2009, News, p. 25.
[19]Harding, Luke, «History of Modern Man Unravels as German Scholar Is Exposed as Fraud», The
Guardian, Londres 19 de febrero de 2005, News, p. 3.
[20]http://www.dmp.wa.gov.au/5257.aspx, consultado el 24 de marzo de 2010.
[21]Han, Tsu-Ming y Runnegar, Bruce, «Megascopic Eukaryotic Algae from the 2.1-Billion-Year-Old
Negaunee Iron-Formation, Michigan», Science, 257: 5067, 1992, pp. 232–235.
[22]Albani, Abderrazak El, et al., «Large Colonial Organisms with Coordinated Growth in Oxygenated
Environments 2.1gyr Ago», Nature, 466: 7302, 2010, pp. 100–104.
[23]Donoghue, Philip C. J. y Antcliffe, Jonathan B., «Early Life: Origins of Multicellularity», Nature,
466: 7302, 2010, pp.41–42.
[24]Knoll, A. H., et al., «Eukaryotic Organisms in Proterozoic Oceans», Philosophical Transactions of
the Royal Society B: Biological Sciences, 361: 1470, 2006, pp. 1023–1038.
[25]http://www.princeton.edu/main/news/archive/S28/14/71M11/index.xml?section=topstories#top,
consultado el 17 de Agosto de 2010.
[26]http://www.simonyi.ox.ac.uk/dawkins/WorldOfDawkins-
archive/Dawkins/Work/Articles/alabama/1996-04-01alabama.shtml, consultado el 20 de diciembre de 2008.
[27]Hans Thewissen, comunicación personal, 22 de Julio de 2010.
[28]Thewissen, J. G. M., et al., «Whales Originated from Aquatic Artiodactyls in the Eocene Epoch of
India», Nature, 450: 7173, 2007, pp. 1190–1194; Thewissen, J. G.M., et al., «Developmental Basis for
Hind-Limb Loss in Dolphins and Origin of the Cetacean Bodyplan», Proceedings of the National Academy
of Sciences, 103: 22, 2006, pp. 8414–8418; Thewissen, J. G. M., et al., «Eocene Mammal Faunas from
Northern Indo-Pakistan», Journal of Vertebrate Paleontology, 21(2), 2001, pp. 347–366.
[29]Pallen (2009), p. 83.
[30] Véase página 43.
[31]«Extinction», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[32]«Dinosaurs», Museo Americano de Historia Natural,
http://www.amnh.org/exhibitions/dinosaurs/extinction/mass.php, consultado el 29 de octubre de 2008.
[33] Véase página 312.
[34] Véase página 284.
[35]Alvarez (1997).
[36]Véase, por ejemplo, «Dinosaur extinction link to crater confirmed»,
http://news.bbc.co.uk/1/hi/sci/tech/8550504.stm, 4 de marzo de 2010.
[37]Schulte, Peter, et al., «The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-
Paleogene Boundary», Science, 327: 5970, 2010, pp. 1214–1218.
[38]Courtillot, Vincent y Fluteau, Frederic, «Cretaceous Extinctions: The Volcanic Hypothesis»,
Science, 328: 5981, 2010, pp. 973–974.
[39]Keller, Gerta, et al., «Cretaceous Extinctions: Evidence Overlooked», Science, 328: 5981, 2010, pp.
974–975.
[40]Archibald, J. David, et al., «Cretaceous Extinctions: Multiple Causes», Science, 328: 5981, 2010, p.
973.
[41]Elliott (2000); Officer, David K., «Victims of Volcanoes: Why Blame an Asteroid?», New Scientist:
1861, 2003, p. 4.
[42]Eldredge y Gould (1972).
[43]Gould (1980), p. 182.
[44]Sheldon, Peter R., «Parallel Gradualistic Evolution of Ordovician Trilobites», Nature, 330: 6148,
1987, pp. 561–563.
[45]Eldredge (1995), pp. 70–74.
[46]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Rates of Morphologic Change
within and across Species Boundaries», Paleobiology 12: 2, 1986, pp. 190–202.
[47]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Are Trends in Single
Morphologic Characters Misleading?», Paleobiology, 13: 3, 1987, pp. 286–296.
[48]Eldredge, pp. 69–70.
[49]Ayala (2014).
[50]Eldredge y Tattersall (1982), pp. 45–46.
[51]Ayala (2014).
[52]http://www.britannica.com/EBchecked/topic/360838/mammal, consultado el 11 de enero de 2015.
[53]Luo, Zhe-Xi, et al., «A Jurassic Eutherian Mammal and Divergence of Marsupials and Placentals»,
Nature 476, 2011, pp. 442–445.
[54]Wible, J. R., et al., «Cretaceous Eutherians and Laurasian Origin for Placental Mammals near the
K/T Boundary», Nature 447: 7147, 2007, pp. 1003–1006.
CAPÍTULO 18. EVIDENCIAS DE LA EVOLUCIÓN
BIOLÓGICA 2: ANÁLISIS DE LAS ESPECIES VIVAS

La evolución es una inferencia de miles de fuentes independencia, la única estructura conceptual que
puede dar un sentido unificado a toda esta información dispar.

STEPHEN JAY GOULD, 1998

Durante los últimos cuarenta años apenas se han elaborado estudios sobre las
especies vivas que hayan sido diseñados para investigar si la evolución biológica
es o no una realidad. Los biólogos tienen asumido que lo es y, en su mayor parte,
asumen además que la evolución sigue el modelo neodarwinista. De ahí que
hayan centrado sus investigaciones en los detalles de dicho mecanismo o en
avanzar hipótesis para explicar los fenómenos que no coinciden con el modelo.
En consecuencia, solo encontramos las evidencias que sustentan el fenómeno
de la evolución en las especies vivas en forma de subproducto de estas
investigaciones. En el presente capítulo consideraré lo que, en un sentido
general, pueden denominarse análisis, que agruparé en ocho categorías: (a)
estructuras homólogas, (b) vestigios, (c) biogeografía, (d) embriología y
desarrollo, (d) cambios en especies, (e) bioquímica, (f) genética y (g) genómica.
En el capítulo siguiente examinaré la conducta de las especies vivas.

Estructuras homólogas

Las evidencias actuales refuerzan los descubrimientos de Darwin


relacionados con partes del cuerpo con estructura similar utilizadas para fines
muy distintos en distintas especies. La figura 18.1 ilustra la similitud estructural
de las extremidades anteriores que el hombre utiliza para manipular, los gatos
para caminar, los lagartos para correr, trepar y nadar, las ranas para nadas, las
ballenas como aletas para nadar y los murciélagos para volar. Incluso las aves
poseen una estructura similar en las alas, a pesar de que tienen tres dedos en vez
de cinco.

Ningún ingeniero sería capaz de diseñar estructuras tan similares para


funciones tan distintas. Las estructuras homólogas se hacen patentes en otras
partes del cuerpo de los animales. El grado de similitud refleja la proximidad de
la primera aparición de la especie en el registro fósil. Así pues, existen más
similitudes entre humanos y chimpancés, menos entre humanos y otros
mamíferos, menos aún entre humanos y aves, y muchísimas menos si cabe entre
humanos y peces.
La explicación más razonable es que se trata de adaptaciones evolutivas a
diferentes entornos de distintas partes del cuerpo de antepasados comunes.

Vestigios

También, en este caso, las evidencias nos proporcionan más ejemplos de lo


que Darwin clasificó como estructuras rudimentarias, atrofiadas y abortadas. Las
alas de aves como los avestruces, los emús, los ñandúes y los pingüinos no
sirven para volar; su diseño sugiere que son alas degeneradas de antepasados que
sí volaban. Los avestruces utilizan las alas para equilibrarse y para exhibirlas en
los rituales de cortejo, mientras que los pingüinos las emplean para nadar bajo el
agua, hechos consistentes con una adaptación evolutiva a un nuevo entorno a
partir de las alas de un antepasado volador. La explicación más frugal de las
pequeñas patas posteriores internas de las ballenas es que son restos de las patas
posteriores del mamífero terrestre cuya transición a la vida marina quedó
examinada en el anterior capítulo. De un modo similar, el coxis humano carece
de función, pero podría explicarse como los restos de una cola ancestral que
degeneró y disminuyó por falta de uso a medida que el linaje humano se adaptó
a la bipedestación.
Los vestigios no se limitan a las estructuras anatómicas. Las lagartijas de cola
de látigo de la especie Cnemidophorus uniparens, que solo integra individuos
hembra, exhibe conductas de apareamiento complejas a pesar de reproducirse sin
la fertilización del macho. Las comparaciones entre el genoma humano y el del
chimpancé muestran docenas de genes homólogos en el hombre que no tienen ya
ninguna función.

Biogeografía

Lo que hoy en día se conoce como biogeografía incorpora más evidencias a


la distribución geográfica de las especies utilizada por Darwin y Wallace para
apoyar la evolución biológica y emplea también los actuales descubrimientos
geológicos sobre las placas tectónicas para explicar algunas anomalías evidentes.
El patrón general es que las masas continentales poseen su propia gama de
especies de animales y plantas, mientras que las pequeñas islas remotas carecen
de la mayoría de especies animales continentales pero poseen grandes cantidades
de especies nativas estrechamente relacionadas sin importar cuáles sean las
condiciones medioambientales.
Así pues, en África encontramos hipopótamos, cebras, jirafas, leones, hienas,
lémures, monos con nariz estrecha y cola no prensil, gorilas y chimpancés. En
América del Sur no existe ninguno de estos animales, pero encontramos tapires,
armadillos, llamas, pumas, jaguares, oposums y monos con nariz ancha y largas
colas prensiles. En las islas Hawái, a 3.200 kilómetros del continente más
cercano, no existen especies nativas de reptiles ni anfibios, tampoco de coníferas
y solo hay dos especies nativas de mamíferos, un murciélago y una foca.
Albergan, sin embargo, cerca de mil especies de mosca de la fruta y
antiguamente unas 750 especies de caracol, aunque la mayoría de estas últimas
se ha extinguido.
América del Sur se separó de África hace 140 millones de años, mucho antes
de que el registro fósil muestre la diversificación de las primeras especies de
mamíferos. Las evidencias son consistentes con los primeros antepasados
comunes de los mamíferos que evolucionaron de forma distinta en distintas
masas continentales separadas por océanos que impiden la migración y la
reproducción.
La cadena hawaiana de islas se formó como resultado de una serie de
erupciones volcánicas que se inició hace a próximamente 66 millones de años y
que terminó hace menos de medio millón de años. Las únicas especies que
pudieron migrar allí fueron insectos, aves y mamíferos capaces de volar grandes
distancias, junto con sus parásitos y las semillas alojadas en su plumaje o en sus
patas, insectos arrastrados por el viento, y semillas y mamíferos nadadores
arrastrados por las corrientes oceánicas. Esto explica la ausencia de grandes
mamíferos terrestres, que no nadan ni vuelan, y sustenta la hipótesis de la
radiación adaptativa: las especies que llegaron a las islas encontraron nichos
ecológicos desocupados, con escasos competidores y predadores que les
impidieran multiplicarse y adaptarse a esos nuevos nichos, dando como
resultado grandes cantidades de especies similares.
Las islas indonesias parecen ser la excepción, pues contienen una fauna
marcadamente distinta en las islas occidentales, centrales y orientales. Sin
embargo, se cree que esto es resultado de la convergencia relativamente reciente
de tres placas litosféricas: la placa australiana, que se desplaza hacia el norte; la
placa pacífica, que se desplaza hacia el oeste; y la placa eurásica, que se desplaza
hacia el sur-sudeste. Al haber estado unidas al continente asiático, las islas
occidentales presentan animales asiáticos como rinocerontes, elefantes,
leopardos y orangutanes, mientras que las islas orientales tienen animales y
plantas similares a los de Australia, de donde se separaron. Las islas centrales
llevan tiempo como entidades independientes y presentan una fauna y una flora
diferenciadas.
La correlación de la distribución geográfica de las especies con lo que se
conoce de la formación geológica y el medioambiente de la zona, junto con el
registro fósil, proporcionan evidencias importantes de especies distintas
evolucionando a partir de antepasados comunes.

Embriología y desarrollo

Después de tomar nota de las similitudes entre los embriones de especies


muy distintas, durante su fase de desarrollo y también en los jóvenes ejemplares
dependientes de sus progenitores que carecen de las diferencias morfológicas y
de color que aparecen al alcanzar la edad adulta, Darwin consideró este hecho
como «uno de los asuntos más importantes de la totalidad de la historia natural».
[1]
Sin embargo, hubo escasos avances en este ámbito hasta que los desarrollos
tecnológicos de finales del siglo X X hicieron más asequible la secuenciación
genética. Así fue como nació la sub-disciplina de la biología evolutiva del
desarrollo (informalmente «evo-devo», del inglés evolutionary developmental),
que investiga los mecanismos genéticos del desarrollo embrionario en las
distintas especies. La disciplina ha producido descubrimientos importantes e
inesperados: los mismos genes controlan el desarrollo de los mismos órganos en
especies de forma, estructura y tamaño muy distintos. Por ejemplo, un gen
denominado Pax-6, de la mosca de la fruta Drosophila melanogaster, controla y
coordina los aproximadamente dos mil genes responsables de la creación de sus
ojos, dotados con múltiples lentes. Un gen Pax-6 prácticamente idéntico, pero en
la rata tiene el mismo papel y regula genes muy distintos que producen ojos muy
distintos con una única lente. Y lo más sorprendente de todo es que si
insertáramos un único gen Pax-6 de rata en el genoma de una mosca de la fruta,
se produciría el desarrollo de un ojo de mosca de la fruta, mientras que si
insertáramos un gen Pax-6 de mosca de la fruta en una rana, obtendríamos un
ojo de rana.[2]
Paradójicamente, a pesar de contradecir las predicciones del modelo
neodarwinista (Mayr defendía que el ojo debe haber evolucionado al menos
cuarenta veces independientemente en el reino animal), la existencia de los
mismos genes maestros controlando el desarrollo de tipologías muy distintas del
mismo órgano en un amplio rango de especies apoya la hipótesis de que estos
genes se conservan en la historia evolutiva y proceden de un remoto antepasado
común.

Cambios en especies

Selección artificial

Bacterias

El cambio biológico puede demostrarse en el transcurso de 24 horas con una


población de bacterias en el interior de una placa de Petri con un medio
nutriente. Si se incorpora un antibiótico letal se produce una muerte en masa. Sin
embargo, una o más variedades de las bacterias serán inmunes a ese antibiótico
en particular y sobrevivirán. Entonces, se replicarán rápidamente para sustituir a
la población original. Si el resultado constituye una nueva especie o una
variedad de la especie original pasa a ser un tema debatible. La definición
ortodoxa actual no ayuda a solventarlo, puesto que lo hace depender de la
reproducción sexual y las bacterias suelen replicarse asexualmente mediante
fisión binaria y, por otro lado, los análisis genéticos de las bacterias están
abiertos a múltiples interpretaciones.
En 1988, Richard Lenski, que trabajaba por aquel entonces en la Universidad
de California, Irvine, inició un experimento con doce poblaciones de una cepa de
Escherichia coli derivada de una única bacteria. Siguió sus mutaciones genéticas
y su adaptación relativa —seleccionándolas por la velocidad con que crecían en
el limitado azúcar disponible en el medio nutriente— en el transcurso de 50.000
generaciones durante un periodo de más de veinte años. La mayoría de las
mutaciones no marcaron diferencia alguna o fueron mortíferas, pero algunas se
correlacionaron con un crecimiento ventajoso de hasta un 10 por ciento por
encima de sus predecesoras. En general, las mutaciones aumentaron linealmente,
mientras que la adaptación aumentó en saltos.
Cuando el experimento alcanzó la generación 33.127, los investigadores
observaron un gran incremento en la turbiedad de uno de los matraces. Las
bacterias, a falta de azúcar, habían empezado a recurrir al citrato, un
amortiguador del ph presente en el medio nutriente de todos los matraces, para
metabolizar y el resultado había sido un enorme incremento de la población. Es
discutible si esta nueva cepa constituiría una nueva especie. Pero lo que es
evidente es que coexistió con una minoría que siguió utilizando el azúcar para su
metabolismo.[3]

Cambios reversibles

Según el biólogo evolucionista Francisco José Ayala, de la Universidad de


California, Irvine, la selección artificial suele producir variaciones de carácter
reversible.

Los criadores eligen gallinas que producen huevos más grandes, vacas que dan más leche y maíz
con un contenido en proteínas más elevado. Pero la selección debe ser continuada o restablecerse de
vez en cuando, incluso después de haber alcanzado los objetivos deseados. Si se detiene por
completo, la selección natural vuelve a surtir efecto y los caracteres regresan a su valor intermedio
original.[4]

Hibridación

Los horticultores llevan tiempo utilizando la hibridación para producir


nuevas especies de plantas con caracteres específicos. Los híbridos producidos
mediante el cruce entre dos especies distintas reciben el nombre de híbridos F1;
los híbridos producidos por el cruce entre híbridos F1 reciben el nombre de
híbridos F2, y así sucesivamente; los híbridos retrocruzados se producen cuando
un descendiente híbrido se cruza con un miembro de cualquiera de su especies
progenitoras; los híbridos retrocruzados que vuelven a cruzarse de nuevo con
miembros de la misma especie progenitora reciben el nombre de segunda
generación retrocruzada.
En promedio, los mamíferos híbridos son menos capaces de sobrevivir y
reproducirse. Muchos híbridos seleccionados artificialmente, como un asno
macho con una yegua para producir una mula que suele ser más fuerte que sus
padres, son estériles. Pero, contrariamente al supuesto generalizado, esto no es ni
mucho menos una norma general; la fertilidad suele ser distinta entre sexos. Por
ejemplo, el cruce de una vaca doméstica con un bisonte para incrementar la
producción de carne produce lo que se conoce como un «beefalo». El beefalo
macho resultante del primer cruce suele ser esteril, pero cuando las hembras
parcialmente fértiles resultado de un retrocruce se retrocruzan de nuevo, los
machos resultantes suelen ser fértiles. El cruce de un perro con un chacal para
crear un híbrido con un olfato más sensible produce descendencia que
aparentemente es tan fértil y estable como la amplia variedad de perros
domésticos producidos por criadores. Estos híbridos muestran caracteres que
caen fuera del rango de la variación parental, lo que se conoce como heterosis, a
pesar de que la mayoría de híbridos no es heterótica.
En zoológicos abiertos, se conocen híbridos entre distintas especies. Un ligre,
el producto del cruce de un león y una tigresa, suele ser más grande y más fuerte
que sus padres (heterosis positiva), mientras que un tigón, el producto del cruce
de un tigre con una leona, suele ser más pequeño que sus padres (heterosis
negativa). No se han realizado estudios sobre la fertilidad y la estabilidad de
estos híbridos en el transcurso de generaciones. Sin embargo, la descendencia
del cruce entre osos polares y osos pardos criados en cautividad es fértil.

Poliploidía

En 1912, los botánicos de los Kew Gardens demostraron el fenómeno de una


descendencia que poseía más de dos juegos de cromosomas en una misma célula
después de cruzar una especie de primavera, la Primula floribunda, con otra
especie, la Primula verticillata. El híbrido resultante era estéril, pero se
propagaba mediante esquejes. Posteriormente, en tres años distintos, este clon
estéril produjo brotes que dieron lugar a una planta fértil a la que pusieron por
nombre Primula kewensis, que no podía cruzarse con éxito con miembros de sus
especies progenitoras. La razón era que sus células habían doblado el número de
cromosomas. Esta mutación cromosómica (a diferencia de la genética) puede
inducirse en plantas a través de un mutágeno como la colchicina.
El incremento del número de cromosomas en relacion con el de los
progenitores de una misma especie se conoce como autopoliploidía, mientras
que el incremento de cromosomas que resulta de la hibridación entre miembros
de dos especies distintas se conoce como alopoliploidía.

Especies en estado salvaje

Bacterias

En los capítulos anteriores se explicó que la bacteria más antigua claramente


reconocible data de hace aproximadamente 3,5 miles de millones de años. A
pesar de todas las mutaciones genéticas durante todo este tiempo, las bacterias
actuales siguen siendo unicelulares y morfológicamente idénticas a los antiguos
fósiles.
Un cuerpo de investigación cada vez mayor ha dado la vuelta a la idea
tradicional de que las procariotas —bacterias y arqueas— y las eucariotas
unicelulares —como la ameba— han llevado vidas relativamente independientes
y han evolucionado de manera gradual mediante la selección natural
neodarwinista, que ha actuado sobre las mutaciones genéticas aleatorias que se
han transmitido a lo largo de generaciones por replicación.
Muchas especies procariotas pueden incorporar, o perder, ADN, mientras que
las eucariotas unicelulares pueden incorporar ADN procariota mediante
transferencia genética horizontal por tres vías distintas:

1. Transformation natural
Absorción directa del ADN liberado en el entorno por células en
descomposición, células alteradas o partículas virales, o por excreción de
las células vivas.
2. Transducción
Transferencia de ADN de una bacteria a otra a través de un agente,
como podría ser un virus.
3. Conjugación
Transferencia de elementos genéticos móviles, como los plásmidos,
por contacto directo a través de los pili.[5]

Estas transferencias entre la misma generación pueden tener lugar entre


especies muy distintas, como la Escherichia coli, una bacteria que normalmente
habita en el intestino de los animales, y la Synechocystis sp. PCC6803, una
cianobacteria del agua. Las transferencias pueden ser dañinas, neutrales o
favorables para la supervivencia y la replicación. Cuando son favorables, pueden
generar nuevas capacidades o funciones en el receptor, como la inmunidad a una
toxina. Un análisis llevado a cabo en 2008 de 181 genomas procariotas
secuenciados estimó que las transferencias genéticas horizontales eran las
responsables de 81 +/- 15 por ciento de los genes, lo que destaca la importancia
de este mecanismo en la evolución de las bacterias, las arqueas y las eucariotas
unicelulares.[6]

Hibridación

En la actualidad se reconoce que la hibridación no solo juega un papel


importante en la especiación natural de las plantas, sino que se produce además
entre peces, aves y mamíferos.[7] En los últimos años, el cárabo norteamericano
del medio oeste de los Estados Unidos se ha desplazado hacia la costa Pacífica,
donde se ha instalado en el hábitat boscoso del búho manchado, con el cual se ha
cruzado y ha producido descendencia fértil. El oso pardo y el oso polar no solo
se han cruzado con éxito en cautividad, sino también en estado salvaje. En los
últimos años, el oso pardo, que normalmente abunda en el noroeste de los
Estados Unidos, de Canadá y en Alaska, se ha desplazado hacia el norte,
probablemente como consecuencia del calentamiento global, adentrándose en el
hábitat del oso polar. En 2006, un cazador disparó contra lo que creía que era un
oso polar, pero el animal, a pesar de tener un grueso pelaje blanco, su lomo
protuberante, su cara plana y unas manchas marrones, junto con las pruebas
genéticas que le fueron posteriormente realizadas, demostraron que era un
híbrido de un padre pardo y una madre polar.

Poliploidía

La cría con poliploidía ha producido nuevas especies fértiles, sobre todo


entre las plantas, pero este medio de especiación es seguramente más común en
estado salvaje de lo que se suponía. En 2005, en un estudio llevado a cabo sobre
la literatura existente, Pamela Soltis, especializada en taxonomía molecular,
llegó a la conclusión de que todas las plantas con flor son probablemente
poliploides o descendientes de poliploides naturales,7 mientras que en otro
estudio de 2005, los genetistas evolutivos T. Ryan Gregory y Barbara Mable
destacan que:

La poliploidía no es tan común entre los animales como entre las plantas, pero tampoco es tan
excepcional como suele suponerse. En parte, el porcentaje relativamente bajo de descubrimiento de
poliploidía entre animales es un reflejo del escaso nivel de esfuerzo dedicado a averiguarlo […].
Uno a uno, los supuestos sobre la poliploidía animal han ido tambaleándose ante la aparición de
nuevas evidencias.[8]

Entre estas evidencias destacan la poliploidía en peces, anfibios, reptiles y


mamíferos. Milton Gallardo y sus colegas de la Universidad Austral de Chile
descubrieron en 1999 que la rata vizcacha roja, Tympanoctomys barrerae, es
tetraploide (posee cuatro juegos de cromosomas en el núcleo de la célula), una
evidencia que sugiere con fuerza que es resultado de una hibridación poliploidal
ancestral entre dos especies distintas. Informaron posteriormente de que la rata
vizcacha dorada, Pipanacoctomys aureus, también es tetraploide y resultado de
una poliploidía ancestral.[9]

La polilla del abedul


Muchos maestros y libros de texto presentan la polilla del abedul, o polilla
moteada, como el principal ejemplo de la evolución biológica en estado salvaje
en tiempos del hombre.
Antes de mediados del siglo XIX, todos los ejemplares de Biston betularia de
Inglaterra eran polillas blancas con manchitas negras, una forma denominada
typica. En 1848, se registró en Manchester, el corazón de la revolución industrial
británica, una variedad negra, la carbonaria. En 1895, el 98 por ciento de la
Biston betularia de la zona eran ejemplares negros. La carbonaria apareció
también en muchas zonas más de Gran Bretaña, alcanzando su mayor frecuencia
en los centros industriales. En 1896, el especialista en lepidópteros, J. W. Tutt,
lanzó la hipótesis de que el incremento de carbonaria era el resultado de una
diferenciación de aves predatorias en las regiones contaminadas.
Nadie, sin embargo, verificó nunca esta hipótesis, de modo que Bernard
Kettlewell, un médico que había obtenido una beca de investigación en el
departamento de Genética de la Universidad de Oxford, inició en 1952 una serie
de estudios en busca de evidencias. Según Kettlewell, este cambio de color
estaba provocado por las aves que comían las polillas que más destacaban en el
lugar donde solían posarse, el tronco de los árboles. La industrialización del
norte de Inglaterra había generado hollín y lluvia ácida que habían oscurecido
los árboles, acabando en primer lugar con los líquenes que los adornaban y
ennegreciendo después los troncos desnudos. La typica, que quedaba
antiguamente camuflada por los líquenes, se volvió llamativa y se convirtió en
presa fácil para las aves, mientras que las mutantes negras quedaban ahora
camufladas; con el transcurso de las generaciones, las negras sobrevivieron más
tiempo y se reprodujeron más, sustituyendo al final a las typica. El fenómeno
recibió el nombre de melanismo (oscurecimiento) industrial. Después de la
aprobación, en la década de 1950, de las leyes de calidad del aire, los árboles
recuperaron su aspecto anterior y la typica su predominio en el norte de
Inglaterra.
Kettlewell apoyó sus conclusiones con estudios que demostraban la
correlación entre niveles de contaminación y frecuencias de la variedad negra. Y
lo más sorprendente es que sus experimentos demostraron que, después de
liberar ejemplares de typica y carbonaria en bosques tanto contaminados como
no contaminados, se recapturaron muchos más ejemplares de la variedad
críptica, o camuflada, que de la variedad llamativa; esta depredación diferencial
quedó sustentada por la observación directa de las aves comiendo las polillas de
los árboles. Finalmente, Kettlewell demostró en el laboratorio que cada forma
tenía sus preferencias de conducta para instalarse sobre fondos similares a su
color. De este modo quedó demostrada la hipótesis que había lanzado Tutt en
1896, quedó validado el modelo neodarwinista y los libros de texto reprodujeron
las fotografías de Kettlewell en las que se veían polillas posadas en los troncos
de distintos árboles.
El genetista de la Universidad de Cambridge, Michael Majerus, que había
trabajado con mariquitas y polillas, recibió un encargo por parte de Oxford
University Press para escribir un libro, Melanism: Evolution in Action
[Melanismo: Evolución en acción] que se publicaría veinticinco años después de
The Evolution of Melanism [La evolución del melanismo], de Kettlewell.
Mientras trabajaba en la crítica del libro para Nature,[10] Jerry Coyne descubrió
graves fallos en la obra de Kettlewell. Entre ellos el detalle de que «es probable
que la B. betularia no se pose en el tronco de los árboles; de hecho en más de
cuarenta años de investigación intensiva solo se han encontrado dos polillas en
esa posición […]. Esto, por sí solo, invalida los experimentos de liberación y
recaptura de Kettlewell, puesto que, al ser liberadas, las polillas fueron colocadas
directamente sobre troncos de árboles donde son perfectamente visibles para las
aves predadoras». Las fotografías eran de polillas muertas, pegadas y clavadas a
los troncos y utilizadas para ilustrar el camuflaje y la vistosidad. Además,
Kettlewell liberó las polillas durante el día, mientras que normalmente buscan su
lugar de descanso durante la noche; la resurgencia de la typica se produjo mucho
antes de que los líquenes recolonizaran los árboles contaminados; en paralelo, en
áreas industriales de los Estados Unidos donde no se había observado alteración
en la abundancia de líquenes, se produjo también tanto un incremento como una
disminución de la forma melánica; y los resultados de los experimentos de
conducta de Kettlewell no se replicaron en estudios posteriores: las polillas no
presentan tendencia a elegir un fondo similar a su aspecto.
Coyne refiere muchos fallos más en el trabajo descubiertos por Majerus más
problemas adicionales que él mismo encontró al leer por primera vez los
documentos de Kettlewell. «Mi reacción me recuerda la desilusión que sentí, con
seis años de edad, cuando descubrí que era mi padre, y no Santa Claus, quien me
traía los regalos por Navidad».
Concluye diciendo que «por el momento, debemos descartar la Bisto como
ejemplo bien comprendido de selección natural en acción». Comenta además
que «merece también la pena reflexionar sobre por qué se ha producido una
aceptación tan generalizada e incontestable del trabajo de Kettlewell. Tal vez sea
porque historias tan potentes como esta desaniman el escrutinio detallado».
Majerus no coincidía con las conclusiones de Coyne y defendió su punto de
vista sobre el melanismo industrial haciendo referencia a otros estudios y
añadiendo:

Dicho esto, mi convicción de que la depredación por parte de las aves es la gran responsable del
caso no se basa pura y simplemente en datos empíricos de publicados en la literatura. Sino que «sé»
que la hipótesis de la depredación diferencial de Tutt es correcta porque «conozco» la polilla
moteada. Sin embargo […], para los científicos, formados en el rigor y en los controles estrictos y
experimentales, esta afirmación, por diferentes motivos, parece resultarles insuficiente e incluso
herética. Yo, sin embargo, me aferro a ella.[11]

Poca distinción hay entre este «saber» y el «saber» de los creacionistas, que
defienden que Dios creó todas las especies. Tal vez sea una respuesta a la
aceptación sin críticas de Coyne del trabajo Kettlewell, pero es la antítesis de la
ciencia.
El mismo año de la publicación del libro de Majerus, Theodore Sargent,
biólogo evolutivo de la Universidad de Massachusetts y sus colegas, publicaron
una crítica de la explicación clásica del melanismo industrial y llegaron a la
conclusión de que «hay escasas evidencias convincentes, en forma de
observaciones y experimentos rigurosos y replicados, que sustenten esta
explicación [que la depredación por parte de las aves provoca una mutación
genética que acaba siendo dominante entre la población con el paso de las
generaciones] en estos momentos».[12] Sargent sugirió otras causas, como que
algún tipo de inducción desencadenada por un cambio medioambiental podría
haber producido el fenómeno del melanismo industrial en una población entera y
que esto explicaría mejor la velocidad con que la variedad melánica sustituyó la
forma típica en diversos estudios.
Algunos creacionistas aprovecharon las revelaciones sobre el trabajo de
Kettlewell para acusar a los biólogos evolucionistas de complicidad para ofrecer
pruebas fraudulentas del darwinismo. Pero las revelaciones no refutan el
fenómeno de la evolución biológica. Lo que hacen es poner al descubierto un
diseño experimental con fallos que, según la ley de la interpretación de datos,
intentar demostrar una hipótesis en la que el experimentador cree en vez de
someter dicha hipótesis a test. Los datos verificables suscitan preguntas, que
Sargent intentó plantear, sobre la causa y el mecanismo del melanismo
industrial. Sargent, sin embargo, no hizo más progresos porque los biólogos
evolutivos cerraron filas alrededor del modelo vigente como defensa contra los
creacionistas.
La controversia oscureció un aspecto importante del fenómeno del
melanismo industrial: se produjo cuando el entorno cambió y se invirtió cuando
el entorno volvió a cambiar. Por lo tanto, el cambio fenotípico era reversible, y
los cambios reversibles no forman parte de la evolución de las especies. Lo que
sucedió en el transcurso de 150 años —un instante desde el punto de vista
geológico— fue una oscilación en el color, que es menos importante que las
oscilaciones en torno a una morfología básica que Eldredge describe como
estasis evolutivo en el registro fósil.

Ecotipos

Ecotipo es el término que se aplica a la variedad de una especie que se adapta


a condiciones locales y exhibe un cambio morfológico o fisiológico como
consecuencia de ello y que, a pesar de ese cambio, puede reproducirse con éxito
con otras variedades. Un ejemplo es el pino escocés, cuyos veinte ecotipos se
extienden desde Escocia hasta Siberia y son capaces de cruzarse entre sí.
La categoría taxonómica de los delfines tucuxi (género Sotalia) ha sido
cuestión de controversia durante más de un siglo. El género comprendía en su
día cinco especies, pero en el siglo XX se agruparon en dos, Sotalia fluviatilis,
que vivía en ríos, y Sotalia guianensis, que vivía en mar abierto. Estudios
posteriores concluyeron con que sus diferencias eran solo de tamaño, y a
principios de los 90, la mayoría de investigadores lo clasificaron todo como una
única especie, S. fluviatilis, con ecotipo marino y fluvial. Al estar
geográficamente separados, no puede decirse que los dos ecotipos puedan
reproducirse en estado salvaje. Pero ahora, recurriendo a la definición de
especies filogenética en vez de a la definición de especies biológica actualizada,
los conservacionistas defienden que se trata de especies distintas; citan los
análisis moleculares que muestran, por ejemplo, que su gen citocromo b difiere
en 28 de 1.140 nucleotidos.[13] Si una diferencia del 2,5 por ciento en los
nucleótidos de este gen es suficiente para definir una especie es debatible, por
supuesto, y consideraré con mayor detalle los problemas que presentan estos
análisis moleculares en un capítulo posterior. Estos ecotipos podrían hallarse en
el proceso de constituir una nueva especie, pero este proceso podría ser
reversible, como en el caso de la polilla moteada.

«Los pinzones de Darwin»

Como hemos visto en el capítulo 16, Darwin nunca utilizó los pinzones de
las islas Galápagos como ejemplo de la evolución biológica,[14] pero el equipo
formado por la pareja Peter y Rosemary Grant, biólogos evolutivos de la
Universidad de Harvard, dedicó más de veinticinco veranos a estudiar estas aves,
principalmente en la isla Daphne Mayor.
En su libro ganador del Premio Pulitzer de 1994, The Beak of the Finch: A
Story of Evolution in Our Time [El pico del pinzón: una historia de la evolución
en nuestra época], el escritor especializado en temas científicos, Jonathan
Weiner, repite el desacreditado mito de los pinzones de Darwin y describe la
obra de los Grant como «la mejor y más detallada demostración hasta la fecha
del poder del proceso de Darwin». Sin embargo, Darwin «desconocía la fuerza
de su teoría. Infravaloró tremendamente el poder de la selección natural. Su
acción ni es lenta ni es una excepción. Sino que conduce hacia la evolución a
cada día y a cada hora que pasa»[15] en vez de hacerlo gradualmente, a lo largo
de los prolongados periodos de tiempo vaticinados por Darwin y el modelo
neodarwinista.
De hecho, las meticulosas mediciones que realizaron los Grant de los picos
de pinzones muestran que las cantidades de pinzones con pico grande y con pico
pequeño oscilaron a lo largo de veinticinco años según si la sequía dejaba solo
semillas grandes y duras o las fuertes lluvias de otros años daban como resultado
semillas más pequeñas y blandas.
Esto no es evolución biológica. A lo largo de los veinticinco años no se
produce un cambio significativo. Los Grant, simplemente, descubrieron
redistribuciones periódicas de frecuencias de genes —variaciones genéticas ya
presentes en el acervo genético— como respuesta a condiciones
medioambientales cambiantes. Se trata de un ejemplo más de cambio adaptativo
reversible dentro de la población de una especie.
Los miembros de las seis especies de pinzones de la isla Daphne Mayor y la
isla Genovesa no se emparejaban con miembros de especies que no fueran la
suya debido a una de las barreras pre-copulatorias de los neodarwinistas, la
conductual (en este caso, el canto de las aves). Pero cuando lo hacían, su
descendencia era tan fértil como sus progenitores, igual que las dos primeras
generaciones descendientes de esos híbridos. Otros estudios de campo realizados
en Norteamérica han demostrado que la hibridación de especies de aves que
comparten territorio es posible y que los híbridos sobreviven y son fértiles en la
mayoría de los casos. Lo cual suscita la siguiente pregunta: ¿son estos pinzones,
clasificados básicamente por el tamaño y la forma del pico, especies distintas o
variedades de la misma especie? La pregunta resulta especialmente pertinente
porque la investigación de los Grant ha demostrado que los cambios en el
tamaño y la forma del pico son reversibles bajo distintas condiciones
medioambientales.
Los Grant apuntan que el concepto de especie biológica que defiende la
ortodoxia actual deriva de los estudios de la Drosophila, la mosca de la fruta. Y
que mientras que según esta definición existen casi 10.000 especies distintas de
aves,

Las interpretaciones de la especiación se han aplicado aproximadamente a 500 de ellas. Pero la base
genética de la variación en aquellos caracteres que producen el aislamiento precopulatorio y que
están implicadas en la especiación se conoce (y de forma incompleta) en menos de 100 especies,
mientras que la base genética del aislamiento postcopulatorio se desconoce prácticamente para todas
ellas. La base de conocimientos a partir de la cual generalizamos sobre la genética de la especiación
de las aves es precariamente escasa.[16]
Definición de especie

Cualquier discusión sobre la evolución biológica se ve empañada por las


distintas definiciones del término «especie» que utilizan no solo los
bacteriólogos, botánicos y zoólogos, sino también los especialistas dentro de
cada una de estas ramas de la biología, definiciones que, además, están muy
diferenciadas debido a los diferentes puntos de vista sobre cuáles son los
caracteres que definen una especie. Si la especie, y no la variedad subespecie o
el género subespecie, la clase o el orden, tiene que ser el elemento taxonómico
básico que marque una fase claramente definida de la evolución biológica que
pueda utilizarse para describir una población y su relación con otras poblaciones,
me parece que el principal caracter debería ser la irreversibilidad: nadie
discutiría que el hombre moderno pudiera evolucionar de nuevo hacia el
Australopithecus afarensis (o cualquiera que fuera el antepasado común de los
humanos), un individuo con un tercio de nuestra actual capacidad craneal.
En consecuencia, sugiero las siguientes definiciones genéticas para reducir la
confusión:

Subespecie, variedad o raza: población de organismos cuyos caracteres


hereditarios definitorios adultos han experimentado un cambio reversible
con relación a los de su población o poblaciones ancestrales.

Especie: población de organismos cuyos caracteres hereditarios


definitorios adultos han experimentado un cambio irreversible con
relación a los de la población o poblaciones a partir de las cuales ha
evolucionado.

Especiación: proceso por el cual una población de organismos cambia de


manera irreversible sus cuyos caracteres hereditarios definitorios adultos
con relación a los de la población o poblaciones a partir de las cuales ha
evolucionado.
La palabra «proceso» que aparece en la definición de la especiación reconoce
las fases intermedias durante las cuales puede producirse con éxito la
reproducción entre subespecies que pueden estar o no en camino de convertirse
en una nueva especie.
Estas definiciones genéricas dejan en manos de los especialistas elaborar la
lista de los caracteres hereditarios definitorios adultos que definen una especie
en particular; y podría haber buenas razones para aplicar criterios distintos a
distintos tipos de especies. Estas definiciones no especifican si la causa de la
transformación irreversible es la selección artificial, las mutaciones genéticas
generadas al azar y seleccionadas naturalmente, la deriva genética, la poliploidía,
la hibridación o cualquier otra causa posible de las que examinaré en el siguiente
capítulo. Confío, de todos modos, en que alcancen el objetivo de ser lo bastante
amplias como para abarcar todo tipo de organismos, incluyendo bacterias y
plantas, y poder distinguir entre especies y variaciones dentro de una especie.

Bioquímica

Todas las bacterias, plantas y animales están constituidos por elementos


químicos iguales o similares, estructurados de forma igual o similar y que
experimentan reacciones iguales o similares.
Las células de prácticamente todas las formas de vida conocidas (la
excepción serían las moléculas de ARN) utilizan moléculas de ADN
estructuradas como una doble hélice para su mantenimiento y reproducción.
Comprenden una secuencia distinta de cuatro nucleótidos iguales aun siendo
químicamente posibles muchos más nucleótidos y estructuras.
Los mismos tripletes de estos nucleótidos actúan a modo de patrón para la
producción de los mismos aminoácidos en todos los organismos. Las diversas
proteínas utilizadas para construir y mantener todos los organismos se sintetizan
a partir de combinaciones y secuencias distintas de esos veinte aminoácidos,
prácticamente siempre como isómeros-L,[17] a pesar de que existen varios
centenares más de aminoácidos.
La serie de reacciones químicas, conocidas como vías metabólicas, por las
cuales se sostienen formas de vida muy diversas, son también muy similares.[18]
La explicación más razonable para que una bioquímica igual opere en todas
las formas de vida es que deriva de la primera forma de vida que hubo en la
Tierra, a partir de la cual evolucionaron todas las formas de vida existentes.

Genética

En el capítulo 14 vimos que todas las formas de vida existentes comparten un


centenar de genes, pero los análisis que permiten apreciar pérdidas de genes
específicos de cada linaje sugieren la existencia de un último antepasado
universal común que tenía probablemente diez veces más genes que eso.[19] La
posesión de incluso un centenar de genes en común sugiere con fuerza la
evolución a partir de la primera forma de vida de la Tierra.
Todo lo cual queda reforzado por los recientes descubrimientos de que genes
de control maestro, como el Pax-6 y la familia Hox, regulan el desarrollo de
planes orgánicos muy distintos en un amplio rango de especies y que estos genes
son intercambiables entre especies.
Cuando se habla de genes, sin embargo, es importante reconocer que un gen
no es simplemente una secuencia lineal de ADN que codifica para la producción
de una proteína o de una molécula de ARN, como se creía cuando el modelo
neodarwinista estaba en desarrollo. En 1977, los biólogos moleculares Richard J.
Riberts y Phillip A. Sharp descubrieron, en investigaciones independientes, que
los genes eucariotas están funcionalmente separados en segmentos codificantes,
llamados exones, y segmentos no codificantes de secuencias de ADN, llamados
intrones. La utilización o exclusión de distintos exones permite la creación de
múltiples proteínas a partir de un gen.
A pesar de que las conclusiones que publicó fueron objeto de mofa en su
momento, en 1951, la citogenetista Barbara McClintock, del Cold Spring Harbor
Laboratory, identificó «genes saltarines», lo que ahora conocemos como
transposones. Se trata de segmentos de ADN capaces de moverse, o
transponerse, cortándose e insertándose, o replicándose e insertando copias de sí
mismos, en distintas posiciones del cromosoma e incluso de otros cromosomas.
Un transposón puede interrumpir la función de la secuencia de ADN a la que se
empalma y provocar una mutación.
En 1965, McClintock sugirió que estos elementos móviles del genoma
podían jugar un papel regulador, determinando qué genes se conectan y cuándo
lo hacen. En 1969, el biólogo molecular Roy Britten y el biólogo celular Eric
Davidson especularon que los transposones no solo juegan un papel en la
regulación de la expresión del gen, sino también, según el lugar del genoma
donde se inserten, en la generación de distintos tipos de células y distintos tipos
de estructuras biológicas. Propusieron la hipótesis de que esto podría explicar en
parte por qué un organismo pluricelular tiene tantos tipos distintos de células,
tejidos y órganos, por mucho que todas sus células compartan el mismo genoma.
La ortodoxia biológica rechazó estas propuestas, pero los estudios realizados
a lo largo de la primera década del siglo XXI han demostrado que entre grupos
taxonómicos muy alejados se conservan muchos transposones, y que se
encuentran, además, en prácticamente todos los organismos —tanto procariotas
como eucariotas— y en grandes cantidades. Por ejemplo, constituyen
aproximadamente el 50 por ciento del genoma humano y hasta el 90 por ciento
del genoma del maíz. Además, los transposones pueden influir la transcripción
genética.[20]
En 2012, el proyecto ENCODE (Encyclopedia of DNA Elements), un estudio
de nueve años de duración sobre el genoma humano en el que trabajan más de
440 investigadores de 32 laboratorios distribuidos por todo el mundo, informó de
que los genes podían estar dispersos por todo el genoma, y que las regiones
reguladoras no tienen por qué estar cerca de la secuencia codificadora de la
molécula lineal y ni siquiera estar en el mismo cromosoma. Además, mientras
que el ADN codificador de proteína apenas constituye el 2 por ciento del
genoma, un 80 por ciento de las bases estudiadas —«ADN basura»— muestra
señales de actividad funcional. Gran parte de ella tiene que ver con complejas
redes de colaboración que regulan la expresión génica.[21]
Esta investigación ha reivindicado el trabajo de McClintock, Britten y
Davidson, impulsando una reevaluación del concepto de gen y de la función del
llamado «ADN basura» —un 98 por ciento del genoma humano—, cuyo
concepto ha estado vigente durante unos cincuenta años.
Genómica

Estos estudios que cuestionan los paradigmas son posibles gracias a los
avances tecnológicos del siglo XXI, que han permitido secuenciar no solo genes a
nivel individual sino también el genoma completo de un organismo,[22] la
totalidad de su contenido genético.
En 2009 se habían secuenciado ya los genomas de unos 2.000 organismos y
muchos más virus, lo que permite análisis y comparaciones entre distintas
especies mucho más precisos que los que ofrecen los genes a nivel individual.
Gracias a ellos sabemos, por ejemplo, que mientras que el 98 por ciento del
código genoma de una procariota codifica para proteínas estructurales, en
eucariotas es solo un 2 por ciento.
En 2003 se secuenció el genoma humano y reveló, entre muchas otras cosas,
que no poseemos 100.000 genes, como se estimaba hasta entonces, sino
probablemente solo 30.000, una cifra que desde esa fecha se ha revisado a la
baja hasta dejarla en aproximadamente 25.000, con múltiples copias de algunos
genes. El Proyecto del Genoma Humano explicó:

«A pesar de que el proyecto se ha completado, seguimos teniendo muchas preguntas sin respuesta,
incluyendo la de cuál es la función de los 30.000 genes humanos estimados. Por otro lado, los
investigadores siguen sin conocer el rol de los Polimorfismos de Nucleótido Único, o SNP [del
inglés Single Nucleotide Polymorphism] [polimorfismos que producen una variación en un solo par
de bases dentro del genoma] ni el papel de las regiones no codificadoras y de las repeticiones en el
genoma».[23]
El hombre no solo tiene aproximadamente el mismo número de genes que
una rata, sino que además, otros datos demuestran que cuenta con menos de la
mitad de genes que las cepas de arroz japónica e indica. Estos descubrimientos
provocaron una respuesta general tipificada por las palabras del escritor
especializado en temas científicos, Matt Ridley: «Un destronamiento a tan gran
escala no se había vivido desde que Copérnico nos quitó del centro del sistema
solar».[24]
Esta respuesta se vio reforzada por conocidas estadísticas que indican que los
humanos compartimos el 98,5 por ciento de nuestros genes con el chimpancé, el
90 por ciento con la ata, el 85 por ciento con el pez cebra Danio rerio, de entre 4
y 6 centímetros de longitud, el 36 por ciento con la mosca de la fruta, Drosophila
melanogaster, y en torno al 21 por ciento con la lombriz de 1 milímetro de
longitud, Caenorhabditis elegans.
Esta respuesta, sin embargo, está basada en tres falacias. En primer lugar, la
cifra de que loso humanos compartimos el 98,5 de nuestros genes con los
chimpancés está sacada de una diferencia estimada del 1,5 por ciento entre
secuencias nucleotídicas de genes que se considera que tienen una función
similar. Pero los estudios que tienen en cuenta las pérdidas de genes, las
inserciones de genes y las duplicaciones dan a entender que, en sus genes
complementarios, humanos y chimpancés se diferencian en al menos el 6 por
ciento.[25]
En segundo lugar, no compara peras con peras ni manzanas con manzanas.
Por ejemplo, las plantas confían en la duplicación de genes para su diversidad
proteica, mientras que los humanos consiguen la diversidad proteica a través de
un proceso de empalme alternativo: un único gen realiza varias funciones y los
genes se dividen y empalman constantemente con una secuencia y una función
distintas. En consecuencia, el funcionamiento de los genes humanos produce un
organismo mucho más complejo que el de una planta de arroz.
En tercer lugar, asume que el grado de parentesco de las especies se calcula
mejor a partir del número de genes que tienen en común e ignora
aproximadamente el 98 por ciento del ADN de los cromosomas eucariotas, en
particular, las secuencias reguladoras que determinan cuándo, hasta qué punto y
durante cuánto tiempo se mantienen los genes conectados y, en consecuencia, los
caracteres observables del organismo.
La secuenciación del genoma nos ofrece evidencias de que la duplicación de
genes a gran escala, e incluso la duplicación completa del genoma,
contribuyeron de manera significativa tanto a la expansión de la familia de genes
como a la evolución del genoma.[26]
Fue la genómica la que reveló una inconsistencia más con la biología
ortodoxa que ya se ha mencionado: entre procariotas, e incluso entre especies
que no están estrechamente relacionadas, se producen transferencias genéticas
horizontales.[27] Según Ford Doolittle, bioquímico de la Dalhousie University,
los análisis genómicos muestran que, al menos para las procariotas, la
transferencia genética horizontal juega un papel más importante en el desarrollo
evolutivo que la transferencia genética vertical de una célula madre a una célula
hija.[28]
En las eucariotas encontramos también transferencia genética horizontal,
aunque no está tan extendida como en las procariotas. De todos modos,
contribuyó de forma significativa a la emergencia de las eucariotas. Hay que
tener en cuenta además, que las hibridaciones de animales y plantas son, de
hecho, transferencias horizontales de genes de carácter masivo.
Los recientes descubrimientos en el campo de la genética y la genómica no
invalidan el fenómeno de la evolución biológica; más bien al contrario, refuerzan
las evidencias. Aunque, por otro lado, cuestionan también la idoneidad del
modelo neodarwinista para explicarla.
Conclusiones

1. Las especies vivas forman un patrón de incremento de la complejidad que


va desde las bacterias hasta el hombre.
2. Las evidencias que aportan las estructuras homólogas, los vestigios, la
embriología, la biogeografía, la bioquímica, la genética y la genómica
apuntan hacia la evolución de las especies vivas a partir de un antepasado
universal común en la Tierra.
3. Muchas especies experimentan variaciones reversibles a modo de
respuesta a los cambios medioambientales, pero el cambio reversible no
tiene que ver con la evolución de las especies (los biólogos clasifican
algunas variedades como nuevas especies; son decisiones discutibles que
empañan la comprensión de los hechos que caracterizan a una nueva
especie).
[1]Darwin, Charles (1872), p. 386.
[2]Gehring (1998), pp. 207–216.
[3]Chouard, Tanguy, «Evolution: Revenge of the Hopeful Monster», Nature, 463, 2010, 864–867.
[4]Ayala (2014).
[5]Thomas, Christopher M. y Nielsen, Kaare M., (2005) «Mechanisms of, and Barriers to, Horizontal
Gene Transfer between Bacteria», Nat Rev Micro, 3: 9, 2005, pp. 711–721.
[6]Boto, Luis, «Horizontal Gene Transfer in Evolution: Facts and Challenges», Proceedings of the
Royal Society B: Biological Sciences, 277: 1683, 2010, pp. 819–827.
[7]Soltis, P. S., «Ancient and Recent Polyploidy in Angiosperms», New Phytologist, 166: 1, 2005, pp.
5-8.
[8]Gregory, T. Ryan y Mable, Barbara K., «Polyploidy in Animals», pp. 501–502 en Gregory (2005).
[9]Gallardo, M. H., et al., «Whole-Genome Duplications in South American Desert Rodents
(Octodontidae) », Biological Journal of the Linnean Society, 82: 4, 2004, pp. 443–451.
[10]Coyne, Jerry A., «Not Black and White», Nature, 396: 6706, 1998, pp. 35–36.
[11]http://www.gen.cam.ac.uk/research/personal/majerus/Darwiniandisciple.pdf, [2004]. Consultado el
18 de octubre de 2010.
[12]Sargent, T. D., et al., «The “Classical” Explanation of Industrial Melanism: Assessing the
Evidence», en Evolutionary Biology: Vol 23, editado por Max K. Hecht y Bruce Wallace, Plenum Press,
Nueva York, 1998.
[13]Cunha, H. A., et al., «Riverine and Marine Ecotypes of Sotalia Dolphins are Different Species»,
Marine Biology, 148: 2, 2005, pp. 449–457.
[14] Véase página 417.
[15]Weiner (1994), p. 9.
[16]Grant, Peter R. y Grant, B. Rosemary, «Genetics and the Origin of Bird Species», Proceedings of
the National Academy of Sciences of the United States of America, 94: 15, 1997, pp. 7768–7775.
[17] Véase página 357.
[18] Véase páginas 353 a 362 para una descripción más detallada de los elementos químicos,
estructuras y reacciones.
[19] Véase página 351.
[20]Pray, Leslie, «Transposons, or Jumping Genes: Not Junk DNA?», Nature, Education, 2008, p. 1.
[21]Pennisi, Elizabeth, «Encode Project Writes Eulogy for Junk DNA», Science, 337: 6099, 2012,
pp.1159-1161; http://www.genome.gov/10005107, consultado el 11 de abril de 2014; ENCODE,
Consortium, «Identification and Analysis of Functional Elements in 1% of the Human Genome by the
Encode Pilot Project», Nature, 447, 7146, 2007, pp. 799–816.
[22] Véase el glosario para una definición más detallada.
[23]http://www.ornl.gov/sci/techresources/Human_Genome/faq/compgen.shtml, consultado el 17 de
agosto de 2010.
[24]Ridley, Matt, «The Humbling of Homo Sapiens», The Spectator, 14 de junio de 2003.
[25]Véase, por ejemplo, Demuth, J. P., et al., «The Evolution of Mammalian Gene Families», PLoS
One 1, 2006, p. 1; Britten, Roy J. «Divergence between Samples of Chimpanzee and Human DNA
Sequences Is 5%, Counting Indels», Proceedings of the National Academy of Sciences, 99: 21, 2002, pp.
13633–13635.
[26]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A Critique of Molecular
Systematics», Biological Theory, 1: 4, 2006, pp. 357–371.
[27]Ragan, Mark A., et al., «The Network of Life: Genome Beginnings and Evolution», Philosophical
Transactions of the Royal Society B: Biological Sciences 364: 1527, 2009, pp. 2169–2175.
[28]Doolittle, W. Ford, «The Practice of Classification and the Theory of Evolution, and What the
Demise of Charles Darwin’s Tree of Life Hypothesis Means for Both of Them», Philosophical Transactions
of the Royal Society B: Biological Sciences, 364: 1527, 2009, pp. 2221–2228.
CAPÍTULO 19. EVIDENCIAS DE LA EVOLUCIÓN
BIOLÓGICA 3: LA CONDUCTA DE LAS ESPECIES
VIVAS

Ciertamente se ha dicho que todo en la naturaleza está en guerra; al final, los más fuertes
prevalecerán, los más débiles caerán […]. La dura y a menudo recurrente lucha por la existencia
determinará que aquellas variaciones favorables, por sutiles que sean, sean conservadas o seleccionadas, y
las desfavorables sean eliminadas.

CHARLES DARWIN, 1868

Aquellas especies que voluntaria o involuntariamente renieguen de ella [de la sociabilidad] estarán
condenadas a la decadencia; mientras que los animales que sepan unirse del mejor modo, tendrán mayores
oportunidades de sobrevivir y evolucionar […]. Los más idóneos son, pues, los animales más sociables y la
sociabilidad parece ser el principal factor de la evolución.

PETER KROPOTKIN, 1914

La zoología engendró la etología, la subdisciplina que estudia la conducta


animal, cuando las observaciones de animales salvajes por parte de los
naturalistas se extendieron para incluir también experimentos diseñados para
evaluar las características, causas, mecanismos, desarrollo, control e historia
evolutiva de su conducta.
El austriaco Konrad Lorenz y el británico de origen holandés, Niko
Tinbergen, están considerados como los dos científicos que sentaron las bases de
esta disciplina en la década de los 20 y los 30 del siglo pasado. Los experimentos
de Lorenz con patos y gansos mostraron que un amplio repertorio de conductas
de las crías recién nacidas está inducido por estímulos específicos
proporcionados por parte de los progenitores o de sustitutos de los progenitores.
Estos patrones irreversibles de conducta, afirmaba Lorenz, eran algo tan
característico para una especie como su plumaje. Lorenz y Tinbergen
defendieron que si una especie poseía un historial prolongado de respuesta a
estímulos específicos, en especial aquellos relacionados con la supervivencia y
la reproducción, la selección natural conduce a adaptaciones que mejoran la
respuesta a dichos estímulos. Así pues, un pez espinoso macho se ve estimulado
a atacar a otro macho por su color rojo, pero corteja a la hembra por su vientre
plateado e hinchado. Hay, sin embargo, otros tipos de conductas susceptibles a
aprenderse a través de la experiencia.
Desde entonces, la etología se ha ramificado a su vez en diversas
subdisciplinas especializadas como el estudio de la conducta de especies
específicas, la teoría de la historia de la vida, la ecología evolutiva, la ecología
conductual y la sociobiología —que han provocado una expansión de las
investigaciones sobre la evolución social—, mientras que otras tendencias de la
etología interactúan con distintas disciplinas científicas para generar nuevas
disciplinas hibridas como el aprendizaje social, la psicología comparativa, la
etología cognitiva y la neuroetología.
Estos enfoques especializados, analíticos y teóricos aportan valiosos puntos
de vista sobre la conducta animal, aunque el acuerdo general entre estos diversos
campos es limitado y mucho más lo es, si cabe, el acuerdo entre ellos. Mi
intención es adoptar una postura objetiva y examinar qué patrones evolutivos
generales, si acaso hay alguno, surgen a partir de la conducta de las especies
reveladas por estos estudios.

Especies unicelulares

Los miembros de la mayoría de especies unicelulares exhiben las formas


primitivas de conducta social que describió Kropotkin a principios del siglo XX
para un amplio rango de especies animales:[1] comunicar y trabajar en
colaboración para construir un refugio comunitario, producir y criar
descendencia, alimentarse, defenderse, atacar presas y migrar hacia un entorno
mejor para su supervivencia y reproducción.[2]
La mayoría de especies bacterianas son capaces de formar comunidades
como tapetes microbianos y biofilms, que suelen estar protegidos por una matriz
de excreciones bacterianas. Los biofilms raramente contienen una única especie
de bacteria y, mucho menos, un único linaje clónico. La placa dental, por
ejemplo, incluye hasta 500 especies de bacterias. Como los nidos de insectos
sociales, los biofilms son también lugares de reproducción.[3]
Las mixobacterias, como Myxococcus xanthus, realizan ataques colectivos
sobre sus presas microbianas, a las que superan por cantidad, descomponen en
enzimas bacterianas y consumen.
La comunicación queda ejemplificada por lo que se conoce como
«percepción de quórum». Las bacterias emiten moléculas que emiten señales
hacia su entorno inmediato y poseen también receptores para esas moléculas.
Cuando los receptores registran una cantidad de señales suficiente —lo que les
da la medida de la densidad de población local—, se desencadena una respuesta
coordinada, como podría ser la conexión de genes que dirigen la producción y
excreción de polisacáridos para un biofilm o enzimas que digieren la presa para
beneficio de todos los miembros de la población, o que general luminiscencia.[4]
La ameba Dictyostelium discoideum, que vive normalmente una vida
solitaria unicelular en el suelo húmedo y se alimenta de bacterias, ilustra la
migración y la reproducción colaborativas. Cuando andan faltas de nutrientes, un
centenar de células se agrupa para formar una babosa que migra hacia la
superficie, donde adopta la forma de un tallo que sostiene en lo alto un soro, una
bola de células reproductivas que dispersan esporas unicelulares. El 20 por
ciento aproximado de células que forma el tallo no se reproduce, sino que muere
en lo que tiene todo el aspecto de ser un acto altruista.
La extensa revisión de la conducta social de las bacterias elaborada por el
genetista bacteriano James Shapiro llega a la conclusión de que la colaboración
de las bacterias, no solo entre individuos de la misma especie sino también entre
especies distintas, juega un papel primordial en su supervivencia.[5]

Especies pluricelulares

Un organismo pluricelular está compuesto por células eucariotas. Cada una


de estas células está compuesta a su vez por varias partes unidas mediante una
membrana que realizan funciones concretas, como el núcleo que controla y
coordina las demás partes, o los orgánulos, como la mitocondria, donde se
genera la energía (véase figura 19.1). Una célula eucariota es, esencialmente, una
colección de orgánulos de diferentes procariotas que colaboran para mantener y
reproducir la célula.

Un grupo de estas células, lo que llamaremos un tejido, colabora para realizar


una función específica, como por ejemplo tejido muscular que se contrae y se
expande. De un modo similar, diversos tipos de tejido colaboran para formar un
órgano que tiene un objetivo concreto, como un corazón que bombea sangre u
otras colaboraciones de nivel incluso más elevado que este. De hecho, un
organismo consiste, a muchos niveles, en partes que colaboran para mantener el
todo vivo y reproduciéndose.
Los biólogos evolutivos David Queller y Joan Strassmann sugieren que «la
esencia del carácter de organismo está en este objetivo compartido; las partes
trabajan juntas para el todo integrado, con mucha colaboración y muy poco
conflicto».[6] Esta actividad con un propósito está muy relacionada con la
definición de vida sugerida en la página 333.
Genes

La colaboración se extiende hasta el nivel de los genes. En el último capítulo


vimos que el gen Pax-6 controla y coordina el funcionamiento de hasta 2.000
genes más para desarrollar un ojo.[7] Esto no es más que un ejemplo de un
fenómeno extendido por el que los genes trabajan juntos bajo el control de otros
genes reguladores con el fin de desarrollar un órgano o realizar una función
concreta. Uno de los casos de gen regulador más estudiado es el de la familia de
los genes Hox, que colaboran para coordinar el desarrollo de partes del cuerpo
en prácticamente todos los animales bilaterales estudiados hasta la fecha.[8]
Otra investigación reciente es un estudio de 2010 que llega a la conclusión de
que la inteligencia del hombre está controlada por una red de miles de genes en
la que todos ellos realizan una pequeña contribución y no por unos pocos genes
potentes, como antiguamente se creía.[9]
La colaboración no es la única conducta que encontramos en el seno de un
organismo. Cuando una serie de genes reguladores falla, habitualmente como
consecuencia de una mutación de dichos genes, una célula puede empezar a
replicarse sin control, y estas células cáncer entran en competición con las demás
células y las destruyen para alimentarse. Sin embargo, dentro de un organismo,
la competencia es la excepción, no la regla.

Plantas

Los estudios de conducta no suelen contemplar las plantas,[10] pero sin


colaboración, y a falta de auto-polinización, la mayoría de plantas no podría
propagarse. A pesar de que el viento transporta con frecuencia el polen hasta el
pistilo de las plantas, lo más habitual es que lo transporten insectos, aves e
incluso mamíferos (sobre todo murciélagos). Esta colaboración suele ser
beneficiosa para ambas partes: el organismo que transporta el polen se beneficia
bebiendo el néctar, disfrutando de su perfume o, en el caso de las abejas,
quedándose con parte del polen. Hay flores que emiten olor a comida, como el
coco, para atraer a los insectos que las polinizan, mientras que hay determinadas
especies de orquídeas que tienen flores que imitan el aspecto y el olor de la
avispa hembra para atraer a la avispa macho.

Insectos

Los insectos son probablemente los animales más estudiados. Una amplia
mayoría de hormigas, avispas y especies de abejas (orden Hymenoptera) y
termitas (orden Isoptera, a pesar de que algunos investigadores las clasifican
ahora como un suborden de las Dictyoptera, o cucharachas) colaboran de un
modo tan coordinado que se les conoce como «insectos sociales».
A pesar de que algunas especies de abejas son solitarias, los miembros de la
mayoría de sus especies viven en colonias que, en el caso de las abejas melíferas
tropicales sin aguijón, pueden llegar a alcanzar los 180.000 ejemplares. Una
colonia de abejas trabaja en colaboración para utilizar la cera que segregan y
mezclarla con resina de plantas con el fin de construir y mantener sofisticados
panales compuestos por celdillas de forma hexagonal y paredes finas, lo que se
conoce como colmenas, con áreas diferenciadas para criar las larvas y almacenar
miel y polen, además de un espacio para reciclaje, todo ello rodeado por
sinuosos entramados.
Las hormigas cultivadoras de hongos de América Central excavan en el suelo
nidos que llegan a alcanzar varios centenares de metros de longitud y hasta seis
metros de profundidad, provistos con varios miles de entradas y alrededor de mil
cámaras distintas.
Las termitas construyen montículos para protegerse con una sustancia
parecida al cemento fabricada por las termitas obreras con tierra y saliva. Las
cámaras y los túneles se enfrían mediante un sistema de aire acondicionado que
lleva a las obreras a humedecer constantemente las paredes con su saliva e
incluye además cavidades que permiten que el aire caliente se eleve y salga al
exterior a través de minúsculos orificios realizados en la superficie del
montículo. En el centro de la construcción se encuentra la cámara real, en la cual
el rey –el único macho fértil de la colonia- y la reina viven y procrean. A su
alrededor, se disponen cámaras de incubación donde las termitas obreras
transportan los huevos después de ser puestos. Los túneles conducen a cámaras
donde almacenan la comida y, por encima de ellas, hay jardines de hongos,
donde se cultiva el alimento.
A pesar de las diferencias particulares en la conducta las especies de los
llamados insectos sociales, se evidencia un patrón general.

a. Colonia jerárquica
Los insectos sociales viven juntos como una colonia jerárquica de
miembros interdependientes en un nido, colmena o montículo que ellos
mismos se construyen.
b. Division del trabajo
La reproducción queda a cargo de solo una o más reinas (más un rey en
el caso de las termitas), mientras que las obreras suelen especializarse en
tareas como la construcción y mantenimiento del nido, la búsqueda de
alimento, la alimentación de las crías y la vigilancia y defensa de la
colonia. Una colonia de abejas, por ejemplo, puede contener 50.000
hembras, todas las cuales han desarrollado ovarios y pueden poner huevos.
Pero el 100 por ciento de las hembras y el 99,9 por ciento de los machos
son hijos de una sola hembra, la reina. Las demás hembras son las obreras,
mientras que los machos, o zánganos, carentes normalmente de aguijón, no
producen miel, no trabajan y su única función es aparearse con la reina en
vuelo.
c. Diferenciación morfológica
En muchos casos, los miembros de la colonia desarrollan una
morfología adecuada para su papel, como es el caso de reinas grandes
capaces de elevador niveles de reproducción. En el orden Hymenoptera,
por ejemplo, la reina necesita a menudo ser lo bastante grande como para
poder almacenar y mantener con vida millones de espermatozoides
recogidos en un único vuelo de apareamiento y luego ir racionando su
expulsión a lo largo de un periodo de veinte años para poder fertilizar los
huevos que irá poniendo.
d. Cambio en la capacidad reproductora
Mientras que las reinas desarrollan capacidades reproductivas
mejoradas, las obreras pierden su capacidad de apareamiento y solo ponen
huevos machos haploides sin fertilizar. En algunos géneros de hormigas y
abejas sin aguijón, las obreras son totalmente estériles.
e. Control y coordinación
La división del trabajo está coordinada y es obligada. Las abejas
obreras construyen una celdilla de mayor tamaño para criar a la reina, a la
que alimentan con jalea real, mientras que a las demás larvas no les
proporcionan los nutrientes necesarios para poder convertirse en reinas. En
el caso de la abeja Melipona, las obreras encierran a todas las larvas en
celdas idénticas y con comida idéntica; luego, cuando las larvas salen de la
celda convertidas en adultas, las obreras matan a las reinas sobrantes. En
muchas especies, los huevos puestos por las obreras acaban devorados por
otras obreras —el 98 por ciento en el caso de las abejas— o por la reina.
Las obreras que ponen huevos pueden, además, ser víctimas de ataques.
[11]
f. Altruismo
Algunos insectos exhiben una conducta aparentemente altruista. Una
abeja obrera utiliza su aguijón para defender a la colonia a pesar de que la
utilización y la pérdida del aguijón tienen como consecuencia la muerte.
La mayoría de biólogos evolutivos y etólogos describen como altruismo la
reducción o pérdida de capacidad reproductiva de las obreras a favor del
incremento de la capacidad reproductora de la reina. Sin embargo, si esta
conducta es obligada, no se trata de altruismo, según el concepto
generalmente entendido del término.

Altruismo: conducta caracterizada por una preocupación desinteresada


por el bienestar de los demás; abnegación.

Trabajar en colaboración de forma voluntaria por el beneficio mutuo es tan


distinto a hacerlo de manera forzada, como las sociedades cooperativas
voluntarias de campesinos de Siberia que observó en su día Kropotkin lo son de
las granjas colectivas que se desarrollaron bajo el control central en época
soviética. Considero útil distinguir entre los dos casos y, de aquí en adelante,
utilizaré los siguientes términos:

Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar


objetivos acordados por todos o por el beneficio mutuo.

Colectivización: trabajar conjuntamente de manera involuntaria,


independientemente de que se haga por instinto, por aprendizaje aprendido
o por coerción.

La conducta de los insectos sociales es instintiva y, por lo tanto, es muy


probable que sea heredada y seleccionada genéticamente, tal y como propusieron
Lorenz y Tinbergen. Sin embargo, a medida que las especies se vuelven más
complejas, vemos la aparición y el desarrollo de conductas aprendidas.

Peces

Los experimentos de laboratorio que se están llevando a cabo desde


principios del siglo XXI muestran que los peces introducidos en un banco nuevo
imitan a su nuevo banco en el seguimiento de las rutas, en la preferencia por un
alimento en particular y en la utilización de lugares determinados para
alimentarse y reproducirse. Esta adopción de patrones de conducta aprendida se
produce demasiado rápidamente como para ser resultado de la selección natural
de conductas genéticamente determinadas adaptadas al entorno.[12] Según el
etólogo Kevin Laland, de la Universidad de St. Andrews, estas conductas
socialmente aprendidas violan uno de los supuestos fundamentales del
neodarwinismo. Además, «se mantienen como “tradiciones” durante múltiples
generaciones».[13]
Suricatas

Las suricatas, unos pequeños mamíferos no primates que viven en regiones


áridas del sur de África, viven en colonias de entre dos y cuarenta individuos.
Estas colonias están integradas por un macho dominante y una hembra
dominante, que son los padres de cerca del 80 por ciento de las crías del grupo, y
por una cantidad variable de machos y hembras de unos tres meses de edad que
colaboran en la labor de criar a los pequeños además de realizar otras funciones
sociales, como montar guardia para avisar de la presencia de predadores
mientras los demás estan acicalándose, jugando o buscando comida.
La adquisición de comida en ese entorno requiere grandes habilidades, y
tanto las observaciones como los experimentos con suricatas en libertad
muestran no solo aprendizaje individual a través del método de prueba y error y
la conducta socialmente aprendida de la imitación,[14] sino también adultos que
enseñan a los cachorros a cazar sin riesgo dándoles escorpiones con los que
practicar.[15]

Primates

Igual que las especies menos complejas, algunos primates matan a miembros
de otras especies para comer, pero en general su dieta está integrada por fruta y
vegetales.
Dentro de su especie, los primates muestras conductas competitivas y
agresivas que pueden dar como resultado la muerte, sobre todo cuando los
machos compiten por hembras con las que copular o por el territorio y los
recursos. En el caso de los gorilas y los chimpancés, los primates más
estudiados, esta conducta puede llegar al infanticidio cuando el macho que se
hace con el dominio de un grupo mata a la descendencia engendrada por otro
macho. Pero los primates también son animales sociales que viven en grupo, y
dentro del grupo la agresión suele tener más un carácter de exhibición que un
deseo de hacer daño. La colaboración es como mínimo tan importante como la
competencia tanto para la supervivencia como para la reproducción, y se muestra
en conductas como la protección de los depredadores, la caza, la crianza de los
pequeños y la migración. El acicalamiento mutuo y el juego sirven para
reforzarla.
Los estudios del primatólogo Carel van Schaik sobre la conducta del
orangután llegan a la conclusión de que la inteligencia depende más de las
oportunidades para la transmisión social que del entorno o los genes, y que las
especies con más oportunidades para el aprendizaje social son más inteligentes.
[16] Para Laland, el aprendizaje social y la inteligencia de los primates no
humanos, medido por la invención de las soluciones más novedosas a los
problemas a los que se enfrentan, aumenta con el tamaño del cerebro.[17] La
comparación que realizó el etólogo cognitivo, Simon Reader, de 62 especies de
primates concluyó de un modo similar que el aprendizaje social evoluciona
conjuntamente con el aumento de tamaño del cerebro del primate y la
inteligencia.[18]
Estos y muchos más estudios realizados desde mediados de la primera
década del siglo XXI en adelante, extienden y refuerzan los descubrimientos que
realizó Kropotkin hace más de cien años:

El apoyo mutuo es tanto una ley de la vida animal como lo puede ser la lucha mutua, pero aquel,
como factor de evolución, es probablemente de mucha mayor importancia, en tanto que favorece el
desarrollo de hábitos y caracteres que garantizan el mantenimiento y el desarrollo de la especie,
junto con una cantidad superior de bienestar y de disfrute de la vida para el individuo, junto con la
disminución del gasto inútil energía.[19]

Y:

Por lo tanto encontramos, en lo más alto de cada clase de animales, las hormigas, los loros y los
monos, que todos combinan la mayor sociabilidad con el desarrollo más elevado de la inteligencia.
Los más adaptados son, por lo tanto, los animales más sociables, y la sociabilidad es el principal
factor de la evolución.[20]

Estas conductas no encajan con el modelo neodarwinista, que está enraizado


en la competencia. En un capítulo posterior examinaré diversas hipótesis para
explicar la conducta cooperativa extendiendo ese modelo.

Asociación entre especies

La competencia por los recursos y la depredación suelen marcar la conducta


entre especies. Pese a ello, las asociaciones entre miembros de distintas especies
son habituales. Adoptan tres formas. La conducta parasitaria se produce cuando
uno de los miembros sale beneficiado y el otro perjudicado, como sucede con los
platelmintos que infectan los ojos del lencisco para encontrar alimento y cobijo y
perjudica con ello la visión del pez. La conducta comensal, en la que uno gana
pero el otro permanece inalterado, no es común. Mucho más frecuentes son las
asociaciones cooperativas, donde ambas partes salen beneficiadas. He descrito
ya la polinización, y otros ejemplos de cooperación entre especies son las
asociaciones con fines de limpieza, como la del lábrido limpiador que libra de
parásitos a peces mucho más grandes que él que, en otras circunstancias, lo
devorarían.[21]

Conclusiones

1. La colaboración es una causa más importante que la competencia en el


desarrollo y la supervivencia de los organismos y se extiende a cualquier
nivel de la vida.
1.1. Los genes trabajan en colaboración para el desarrollo del organismo,
con frecuencia regulados por otros genes que a su vez trabajan también
en colaboración.
1.2. Un organismo unicelular consta de diversas partes que realizan
funciones específicas y que colaboran entre sí para mantener y replicar
el organismo.
1.3. Una célula eucariota consta de un núcleo que controla la colaboración
de las partes celulares, u orgánulos, que realizan funciones específicas
para el mantenimiento y la replicación de la célula, mientras que un
organismo pluricelular consta de una jerarquía de grupos celulares
especializados que colaboran con escaso conflicto para mantener el
organismo con vida y producir descendencia.
1.4. Los miembros de muchas especies colaboran en grupos sociales para
su supervivencia colectiva.
1.5. Mientras que hay miembros de determinadas especies que se asocian
de forma parasitaria con miembros de otras especies, la asociación
cooperativa entre miembros de distintas especies para beneficio mutuo
está muy extendida.
2. En especies unicelulares y animales, la colaboración suele adoptar la
forma de un grupo en el seno de una especie en la que los individuos
comunican y colaboran entre sí para construir un refugio comunitario,
producir y criar descendencia, buscar alimento, defenderse, atacar a los
depredadores y migrar hacia un entorno mejor para su supervivencia y
reproducción. En algunos casos, varios grupos dentro de una misma
especie, e incluso con especies relacionadas, colaboran también en busca
del mutuo beneficio, sobre todo en las tareas de migración.
3. En los animales, el grupo, normalmente aunque no de forma exclusiva,
está basado en el parentesco y presenta una división jerárquica del trabajo
a menudo dominada por una o más hembras y un macho que reproduce,
mientras que los demás miembros realizan trabajos especializados.
4. Los patrones de conducta característicos, y muy en especial los
relacionados con la supervivencia y la reproducción, suelen ser instintivos;
son consistentes con una historia evolutiva de respuestas exitosas a
determinados estímulos y de la herencia de estas respuestas por parte de la
descendencia.
5. En colonias de especies más sencillas, como los insectos, la colaboración
entre miembros especializados en distintas tareas suele ser forzada; en
estos casos, uno o pocos miembros del grupo ganan capacidad
reproductora mientras que las obreras ven limitada su capacidad
reproductora o son estériles. A pesar de que existen algunos ejemplos de
altruismo, en el sentido habitual del término, la colaboración instintiva o
colaborativa puede describirse mejor como colectivismo, para distinguirla
del cooperativismo, donde la colaboración es voluntaria o tiene beneficio
mutuo.
6. A medida que la complejidad de las especies aumenta, desde los peces
hasta los primates, el aprendizaje social, que es más eficiente que el
aprendizaje individual mediante un proceso de prueba y error, aumenta
para complementar la conducta instintiva; las habilidades aprendidas
socialmente pueden ser hereditarias.
7. Dentro de cada clase, el aumento de aprendizaje social está correlacionado
con un aumento de la complejidad cerebral, que va a su vez acompañado
por un aumento de la inteligencia, medida por el nivel de invención de
soluciones novedosas para los problemas que se presentan.
[1] Véase página 431 hasta 434.
[2]Brown, Sam P., et al., «Social Evolution in Micro-Organisms and a Trojan Horse Approach to
Medical Intervention Strategies», Philosophical Transactions of the Royal Society B: Biological Sciences
364: 1533, 2009, pp. 3157–3168.
[3]Crespi, B. J., «The Evolution of Social Behavior in Microorganisms»,Trends inEcology & Evolution,
16: 4, 2001, pp.178–183.
[4]West, Stuart A, et al., «The Social Lives of Microbes», Annual Review of Ecology, Evolution, and
Systematics, 38: 1, 2007, pp. 53–77.
[5]Shapiro, James A., «Thinking About Bacterial Populations as Multicellular Organisms», Annual
Reviews in Microbiology, 52: 1, 1998, pp. 81–104.
[6]Queller, David C. y Strassmann, Joan E., «Beyond Society: The Evolution of Organismality»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 364: 1533, 2009, pp. 3143–3155.
[7] Véase página 487.
[8]Pearson, Joseph C., et al., «Modulating Hox Gene Functions During Animal Body Patterning», Nat
Rev Genet, 6: 12, 2005, pp. 893–904.
[9]Leake, Jonathan, «Check...Science Closes in on Intelligence Gene Test», Sunday Times Londres, 19
de septiembre de 2010, News, p. 13.
[10] Un análisis llevado a cabo en 2009 sobre las últimas investigaciones en neurobiología de plantas,
afirma que las plantas son organismos sensoriales y comunicativos que se caracterizan por una conducta
activa y enfocada a solucionar problemas. Argumenta que se trata de conclusiones controvertidas debido a
la tendencia a retener celosamente los dogmas instaurados en la ciencia aunque su fecha de caducidad esté
más que superada. (Baluška, František, et al., «The ‘Root-Brain’ Hypothesis of Charles and Francis
Darwin», Plant Signaling & Behavior 4: 12, 2009, pp. 1121-1127).
[11]La mayoría de ejemplos de conducta social en insectos está extraída de Ratnieks, Francis L. W. y
Helantera, Heikki, «The Evolution of Extreme Altruism and Inequality in Insect Societies», Philosophical
Transactions of the Royal Society B: Biological Sciences 364: 1533, 2009, pp. 3169–3179.
[12]Véase, por ejemplo,, Laland, K. N., et al., «From Fish to Fashion: Experimental and Theoretical
Insights into the Evolution of Culture», Philosophical Transactions of the Royal Society B: Biological
Sciences, 366: 1567, 2011, pp. 958–968.
[13]Laland, Kevin N., «Animal Cultures», Current Biology 18: 9, 2008, pp. R366–R370.
[14]Thornton, Alex y Malapert, Aurore, «Experimental Evidence for Social Transmission of Food
Acquisition Techniques in Wild Meerkats», Animal Behaviour, 78: 2, 2009, pp. 255–264.
[15]Thornton, Alex y McAuliffe, Katherine, «Teaching in Wild Meerkats», Science, 313: 5784, 2006,
pp. 227–229; Thornton, Alex y Clutton-Brock, Tim, «Social Learning and the Development of Individual
and Group Behavior in Mammal Societies», Philosophical Transactions of the Royal Society B: Biological
Sciences 366: 1567, 2011, pp. 978–987.
[16]van Schaik, Carel, «Orangutan Culture and Its Cognitive Consequences», Culture Evolves, Royal
Society, Londres, 28 de junio de 2010.
[17]Laland, Kevin N., «Animal Cultures», Current Biology 18: 9, 2008, pp. R366–R370.
[18]Reader, Simon M., et al., «The Evolution of Primate General and Cultural Intelligence»,
Philosophical Transactions of the Royal Society B: Biological Sciences 366: 567, 2011, pp. 1017–1027.
[19]Kropotkin (1972), pp. 30–31.
[20]Ibíd. p. 69.
[21]Taylor, Angela K., «Living Wih Other Animals», 105–109 en Halliday (1994).
CAPÍTULO 20. EL LINAJE HUMANO

La ciencia tiene pruebas sin ninguna certidumbre. Los creacionistas tienen certidumbre sin ninguna
prueba.

ASHLEY MONTAGU, 1905-1999

Árboles filogenéticos

Para representar la evolución biológica, incluyendo el linaje que lleva hasta


el hombre, los biólogos evolucionistas llegaron a la conclusión de que la mejor
manera de hacerlo era clasificando las líneas, o grupos de líneas, de la
ascendencia evolutiva. El concepto dio lugar a la subdisciplina de la cladística,
que presenta estas relaciones a modo de cladogramas, o árboles filogenéticos. La
figura 20.1 muestra un ejemplo sencillo.

Si cada letra mayúscula representa una especie, en el punto w, o nodo, el


punto donde se encuentran dos ramas, la especie A se bifurca en las especies B y
C. En el nodo x, la especie B se bifurca en las especies D y E, mientras que en el
nodo y, la especie C se bifurca en la especie F y la especie G/H, y en el nodo z,
la especie G/H se bifurca en las especies G y H.
Así pues, las especies G y H comparten un antepasado común más reciente,
G/H, que el que comparten con F, mientras que G, H y F comparten un
antepasado común más reciente, C, que el que comparten con E o D.
D, E, F, G y H comparten algunos caracteres generales, lo que indica que,
como grupo de especies, todas han evolucionado a partir de un antepasado
común lejano, A. A menos que se diga lo contrario, la longitud de las ramas
carece de importancia: lo único que describen los árboles filogenéticos es la
ramificación a partir de un antepasado común.
Idealmente, las clasificaciones taxonómicas linneanas tradicionales y los
árboles filogenéticos deberían producir grupos idénticos. Sin embargo, surgen
diferencias por distintos motivos, destacando entre ellos la interpretación de los
fósiles o los desacuerdos en cuanto a los caracteres a utilizar para determinar los
grados de parentesco.
La biología ortodoxa adoptó el punto de vista de Woese, esbozado al final del
capítulo 16, que defiende que el análisis genético es un método de clasificación
mucho más preciso que el registro fósil, la morfología o cualquier otro caracter.
[1] En la práctica, los genetistas analizan en las distintas especies la proteína o el
producto ARN de uno o más genes homólogos (genes heredados de un
antepasado común). Por ejemplo, en la edición de 2014 de la Encyclopedia
Britannica Online, el antiguo presidente de la American Association for the
Advancement of Science, Francisco José Ayala, explica que en el hombre y en el
chimpancé, el citocromo c, una proteína implicada en la respiración celular,
consta de los mismos 104 aminoácidos y que, además, están dispuestos
exactamente en el mismo orden, pero que se diferencian del citocromo c del
macaco Rhesus en un aminoácido, del de los caballos en 11 aminoácidos
adicionales y del de los atunes en 21 aminoácidos adicionales. «El grado de
similitud refleja lo reciente que es el antepasado comun».[2]
Los biólogos evolutivos fueron más lejos y desarrollaron la técnica del reloj
molecular, que asume que la mutación aleatoria por la sustitución de un
nucleótido por otro se produce a un ritmo lineal que puede ser calibrado a partir
del registro fósil, lo que permite calcular el momento de la bifurcación. En la
figura 20.1, por ejemplo, si D, E, F, G y H representan el momento actual, la
longitud de la rama horizontal conectada a B representaría el tiempo que hace
que las especies D y E se bifurcaron de B.
Este enfoque neodarwinista se basa en cuatro supuestos:

1. Los genes homólogos pueden identificarse sin ambigüedades.


2. Las ramas del árbol filogenético solo se bifurcan con el tiempo y nunca
vuelven a juntarse.
3. La única causa de la evolución biológica es la acumulación gradual de
mutaciones genéticas.
4. El ritmo del cambio genético es lineal y refleja el ritmo de la evolución
biológica.

Todos estos supuestos son cuestionables.


Como vimos en el capítulo 18, un gen no es simplemente una secuencia de
ADN que codifica para la producción de una proteína que determina un caracter
del organismo. ¿Cómo podemos estar seguros de que el gen homólogo
seleccionado es representativo del organismo? ¿Cómo tiene en cuenta este
enfoque factores como la velocidad de reparación del ADN o el efecto de los
alelos recesivos y la duplicación génica? ¿O la división de los genes y los
transposones? ¿O, lo que es más importante, la regulación génica, que controla
la expresión del gen y, por lo tanto, determina de qué consiste el organismo, su
morfología y, hasta cierto punto, su conducta?
Con el objetivo de reconstruir la historia evolutiva de un organismo, ¿cómo
decidirnos para escoger entre el genoma del núcleo y los genomas de la
mitocondria de las células animales o de los cloroplastos de las células de las
plantas? ¿Hasta qué punto es representativo de la especie el gen o genes
escogidos de un organismo? ¿Cómo se tiene en cuenta el tamaño de la población
y el impacto de la deriva genética?
Más de veinticinco años antes de que en 2014 Ayala publicara en la
Encyclopedia Britannica el ejemplo del citocromo c, el bioquímico Christian
Schwabe había destacado ya las consecuencias de comparar diferencias
moleculares en la relaxina, una hormona peptídica responsable de dilatar la
vagina de los mamíferos y, por lo tanto, de permitir el nacimiento de
descendencia con el cerebro más desarrollado y más grande (dependiendo de
hasta qué punto su gen está conectado). La secuencia de aminoácidos de la
relaxina en el hombre se diferencia de la que presentan del cerdo, la rata, el
tiburón toro y la mielga en una media del 55 por ciento. Por lo tanto, si el árbol
evolutivo se construyera en base a los cambios en la composición molecular de
la relaxina, los mamíferos se habrían bifurcado de los peces cartilaginosos (la
clase que incluye los tiburones) o bien hace 450 millones de años (fecha de los
primeros fósiles de peces cartilaginosos) o bien hace 100 millones de años (fecha
considerada entonces como la de la aparición de los primeros fósiles de
mamíferos). Implicaría que los cerdos y las ratas habrían cambiado muy poco
desde el punto de bifurcación, mientras que la línea evolutiva que llevó hasta el
hombre habría mutado en un 55 por ciento. El registro fósil, por otro lado,
muestra una enorme divergencia en las especies mamíferas en los últimos 65
millones de años.
La conclusión de Schwabe fue la siguiente:

Parece desconcertante que existan tantas excepciones en la progresión ordenada de las especies
como las que determinan las homologías moleculares; tantas, de hecho, que pienso que la
excepción, las peculiaridades, podrían contener el mensaje más importante.[3]

En 2006, Jeffrey H. Schwartz, un antropólogo físico de la Universidad de


Pittsburgh, ofreció una crítica extensa y fulminante de los supuestos
subyacentes, la metodología, las evidencias de base y las conclusiones de la
sistemática molecular. Según su punto de vista, el «supuesto molecular» es
biológicamente insostenible. No tiene en cuenta las secuencias reguladoras que
determinan la morfología en las eucariotas y «aparte del punto de mutación
inducido por la radiación ultravioleta, en el mundo físico no existe otra fuente de
mutación constante, y el porcentaje de mutación espontánea es bajo
(aproximadamente de 1 entre 10-8 y 10-9)», mientras que es mucho menos
probable que la mutación aleatoria se produzca en células germinales, las únicas
que tienen consecuencias evolutivas.[4]
Por lo tanto, interpretar la variación en la secuencia molecular no es evidente,
ni mucho menos. En la práctica, una bifurcación evolutiva dramática puede
implicar tan solo pequeños cambios en la secuencia, mientras que una
bifurcación evolutiva menor puede estar correlacionada con grandes cambios en
la secuencia.
Además, ¿cómo tiene esta aproximación en cuenta la evolución de las
especies más numerosas del planeta —bacterias y arqueas— y la transferencia
genética horizontal entre especies alejadas? Según explicó en 2009 Mark Ragan,
bioinformático de la Universidad de Queensland, «Una cantidad sorprendente de
árboles genéticos son, en parte, topológicamente discordantes entre sí y/o con las
relaciones aceptadas entre los organismos».[5] Lo cual se hace eco de la
observación que realizó en 2009 Ford Doolittle, bioquímico de la Dalhousie
University: «Me parece una perogrullada tediosa decir que entre los árboles
génicos procariotas hay mucha más incongruencia de la que podríamos haber
imaginado hace dos décadas».[6]
El objetivo de nuestro viaje es ver si la especie humana ha evolucionado y
cómo lo ha hecho, y sería agradable encontrar un árbol filogenético que trazara
un mapa que plasmara la evolución del hombre a partir de la primera forma viva
que hubo en la Tierra. Se han creado muchos árboles de este tipo, como el que se
muestra en la figura 20.2, descrito como «el árbol filogenético de la vida
consensuado».
Pero todos los árboles son distintos porque se basan en datos distintos,
supuestos distintos, metodologías distintas, interpretaciones distintas y un
registro fósil irremediablemente pobre.
Los investigadores que utilizan análisis moleculares distintos y relojes
moleculares distintos ofrecen diferencias temporales significativas en
bifurcaciones evolutivas idénticas. Por ejemplo, las estimaciones sobre el
momento en que se produjo la separación entre la rama del género chimpancé
Pan y el género humano Homo oscilan entre 2,7 y 13 millones de años atrás.[7]
Estos árboles no tienen en cuenta la especiación que se produce a través de la
hibridación cuando se fusionan ramas filogenéticas, ni la especiación instantánea
a través de la poliplodía, ni la evolución de las especies más numerosas, las
bacterias y las arqueas, en las que el entrelazamiento o las transferencias
genéticas horizontales entre distintas especies juegan un papel primordial.

Taxonomía del linaje humano

En ausencia de un árbol filogenético consensuado, la tabla 20.1 es mi intento


de sintetizar los descubrimientos más recientes en el campo de la cladística, la
citología, la biología molecular, la genómica, la paleobiología, la paleontología,
la bacteriología, la biología evolutiva, la etología y la primatología para mostrar
lo que conocemos del linaje desde las primeras formas de vida de la Tierra hasta
el hombre. Siempre que es posible, esta taxonomía utiliza varios caracteres en
vez de uno solo, y necesariamente recurre a juicios de valor allí donde hay
desacuerdos entre las distintas ramas de la biología y entre especialistas dentro
de cada rama. Estos desacuerdos tienen que ver, básicamente, en si hay tres,
cuatro, cinco o seis reinos (o grupos ancestrales equivalentes, lo que se conoce
como «clados») y en si dichos reinos tendrían que dividirse en un número
inferior de súper-reinos, o dominios. Por el bien de la consistencia con los
capítulos precedentes del libro, la tabla 20.1 utiliza la nomenclatura del sistema
de tres dominios.
Merece la pena subrayar dos cosas: en primer lugar, que cuanto más nos
alejamos en el tiempo, mayor incertidumbre hay; y en segundo lugar que, a pesar
de que las fronteras que separan estos grupos taxonómicos señalan la aparición
de innovaciones evolutivas, igual que sucede con cualquier nueva emergencia,
las fronteras siempre resultan confusas.
En los capítulos que siguen consideraré la causa, o causas de este patrón en la
evolución biológica.
[1] Véase página 446.
[2]Ayala (2014).
[3]Schwabe, Christian, «On the Validity of Molecular Evolution», Trends in Biochemical Sciences, 11:
7, 1986, pp. 280–283.
[4]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A Critique of Molecular
Systematics», Biological Theory, 1: 4, 2006, pp. 357–371. Véase también Schwartz, Jeffrey H.
«Systematics and Evolution» en Encyclopedia of Molecular Cell Biology and Molecular Medicine, editado
por Meyer, R. A., Winheim: Wiley-VCH Verlag, pendiente de publicación.
[5]Ragan, Mark A., et al., «The Network of Life: Genome Beginnings and Evolution», Philosophical
Transactions of the Royal Society B: Biological Sciences, 364: 1527, 2009, pp. 2169–2175.
[6]Doolittle, W. Ford, «The Practice of Classification and the Theory of Evolution, and What the
Demise of Charles Darwin’s Tree of Life Hypothesis Means for Both of Them», Philosophical Transactions
of the Royal Society B: Biological Sciences, 364: 1527, 2009, pp. 2221–2228.
[7]http://www.timetree.org/time_query.php?taxon_a=9606&taxon_b=9598. Consultado el 18 de agosto
de 2010.
CAPÍTULO 21. CAUSAS DE LA EVOLUCIÓN
BIOLÓGICA: EL RELATO ORTODOXO ACTUAL

Pienso que la naturaleza «roja en uñas y dientes» resume admirablemente nuestra comprensión
moderna de la selección natural.

RICHARD DAWKINS, 1976

Antes de examinar hasta qué punto la actual ortodoxia neodarwinista explica


la causa del patrón que sigue la evolución biológica, es necesario comprender
bien qué es la evolución biológica. Para distinguir este proceso irreversible del
concepto de cambio adaptativo reversible (véanse páginas 448 a 450), utilizaré la
definición siguiente:

Evolución biológica: proceso de cambio que experimentan los


organismos y que da como resultado una nueva especie.

La mayoría de biólogos evolutivos actuales fusionan, o incluso equiparan,


evolución con selección natural, pero por sí mismo, el término selección natural
es una declaración de lo evidente y no nos explica nada: los organismos que
sobreviven y se reproducen son aquellos seleccionados para sobrevivir y
reproducirse. Con la supervivencia del mejor adaptado sucede algo similar: los
que sobreviven son los mejor adaptados para sobrevivir. Estos términos solo
tienen sentido si nos explican por qué se produce la evolución biológica (la
causa) o cómo tiene lugar (el mecanismo).
Muchos neodarwinistas afirman que la selección natural es la causa de la
evolución biológica. Por ejemplo, Luis Barreiro y sus colegas del Institut Pasteur
de París, titularon un documento publicado en 2008 en Nature Genetics como
«Natural selection Has Driven Population Differentiations in Modern Humans»
[La selección natural ha impulsado las diferenciaciones de población entre los
humanos modernos],[1] mientras que la edición de 2014 de la Encyclopedia
Britannica Online afirma que «La selección natural modera los efectos
desorganizadores de estos procesos porque multiplica la incidencia de las
mutaciones beneficiosas a lo largo de las generaciones y elimina las nocivas».[2]
La entrada de la Gale Encyclopedia correspondiente a Ernst Mayr es explícita:
«El neodarwinismo subraya la selección natural de diferencias genéticas en el
seno de una población como la causa fundamental de la evolucion».[3]
Verbos como «impulsar», «moderar», «multiplicar», «eliminar» y
«seleccionar» implican claramente causalidad, mientras que «seleccionar», en
particular, implica además un propósito. Esta descripción de la selección natural
sigue el significado que Darwin le aplicó al término, que utilizó «para subrayar
su relación con el poder de selección del hombre». Además, «se trata de un
poder incesantemente listo para entrar en acción, y es inmensurablemente
superior a los débiles esfuerzos del hombre».[4]
En la selección artificial, un criador de palomas, por ejemplo, produce una
paloma blanca a partir de un grupo de palomas con variaciones de color. El
criador humano es la causa del efecto, que es una paloma blanca. Su mecanismo
—cómo causa el efecto buscado— consiste en seleccionar intencionadamente las
palomas de color más claro para que se crucen solo entre ellas durante
generaciones sucesivas.
¿Cómo provoca la selección natural un efecto similar, si no
«inmensurablemente superior»? ¿Cuál es el mecanismo?
La mayoría de neodarwinistas contemporáneos niega que la naturaleza tenga
algún propósito o intención y, para ser lógicamente coherentes, no pueden
tampoco decir que la naturaleza selecciona ni que la naturaleza causa.
Un argumento de defensa habitual es argumentar que se trata de una
declaración metafórica. ¿Pero metafórica por qué?
Si se dice que es metafórica del mismo modo en que los físicos dicen que la
gravedad es lo que hace que una bola de acero lanzada desde un balcón caiga a
la Tierra, se plantea automáticamente una pregunta. Cumpliendo de forma
excelente, la bola de acero obedece la ley de la gravedad de Newton. Se trata de
una ley natural, es decir, de una afirmación sucinta y general capaz de ser
verificada mediante observación o experimentación y para la cual no se conocen
resultados contrarios repetibles de que un conjunto de fenómenos naturales se
comporte invariablemente de una manera idéntica dentro de unos límites
especificados.[5] La pregunta que se plantea es la siguiente: ¿qué ley natural se
invoca para los fenómenos biológicos? No puede ser el llamado «principio
adaptativo» —la certidumbre, por lo que al modelo genético neodarwinista se
refiere— porque, como veremos más adelante, a lo largo de un periodo
prolongado pueden producirse cambios genéticos importantes sin que por ello se
produzcan cambios fenotípicos, por mucho que haya cambios medioambientales.

El paradigma actual

En el capítulo 16 explicamos de qué modo las ideas científicas de la


evolución biológica han acabado dando lugar a los seis principios del modelo
neodarwinista y de biología molecular que define el paradigma actual:[6]

1. Las especies vivas son descendientes de otras especies que vivieron en el


pasado.
2. Las nuevas formas de vida surgen a partir de la división de un linaje en
dos, un proceso conocido como especiación en el que los miembros de un
linaje son incapaces de reproducirse con éxito con miembros del otro
linaje. Esta división continua produce una estructura anidada de especies,
un «árbol genealógico» cuya raíz es la primera especie que surgió y cuyas
ramas vivas son la inmensa cantidad de especies actuales. Rastreando
cualquiera de las ramas de las especies modernas llegamos a un antepasado
común, representado por el nudo del árbol en el que las ramas coinciden.
3. Esta evolución de nuevas especies se produce mediante una
transformación genética gradual de las poblaciones a través de los
miembros individuales de la especie y a lo largo de miles de generaciones.
4. Esta transformación da como resultado mutaciones genéticas aleatorias en
los individuos, la combinación de genes los progenitores en la
reproducción sexual que lleva a que cada descendiente posea una
combinación de genes distinta a la de sus padres, y la posterior
diseminación de estas mutaciones genéticas a lo largo de las sucesivas
generaciones a través del acervo génico de la población.
5. Aquellas mutaciones genéticas aleatorias, o variaciones, responsables de
los caracteres que permiten que determinados individuos de la población
compitan con éxito por los recursos en un entorno determinado, y con ello
logren sobrevivir más tiempo y tener más descendientes, se seleccionan
naturalmente al ser heredadas en mayores cantidades, mientras que los
miembros de la población que no presentan las mutaciones genéticas
responsables de los caracteres adaptativos para el entorno, acaban
pereciendo en manos de los demás, mueren de hambre o se extinguen
gradualmente.
6. La información es un flujo unidireccional que va desde el gen hasta la
proteína de la célula.

Según estos principios, las causas de la evolución biológica son mutaciones


genéticas aleatorias que comúnmente se atribuyen a errores de copia en la
replicación del ADN para producir gametos (óvulos o espermatozoides), a la
competencia por los recursos limitados del entorno entre miembros de una
población creciente, lo que permite que los competidores que vencen vivan más
tiempo y produzcan más descendencia con sus genes mutados, y a la
reproducción sexual que disemina estas mutaciones en el acervo génico de la
población a lo largo de decenas o centenares de miles de generaciones, hasta que
los miembros de esa población ya no son capaces de reproducirse con éxito con
los miembros de la población original.
De hecho, es más probable que las mutaciones genéticas estén causadas por
la radiación y los productos químicos, además de por la reparación celular
inadecuada de los daños sufridos por el ADN, que por los errores de copia,
errores que los procesos de reparación celular suelen corregir. Los porcentajes de
mutación espontánea suelen ser bajos, aproximadamente de 1 entre 10-8 a 10-9,
mientras que la mutación aleatoria es mucho menos probable que se produzca en
gametos.[7]
Si la selección natural es algo más que una afirmación de lo evidente es,
como mucho, un registro pasivo de los efectos causados por otras cosas.

Selección natural: el efecto acumulativo de pequeñas variantes,


producidas aleatoriamente y heredadas a lo largo de muchísimas
generaciones, que permite a los organismos sobrevivir más tiempo en un
entorno particular y reproducirse en mayor cantidad que los organismos
que no poseen estas variantes; da como resultado un incremento en el
número de las variantes favorables, o mejor adaptadas, a ese entorno y la
eliminación de las variantes desfavorables.

Según el darwinismo, las variantes favorables son aquellos caracteres


observables (el fenotipo) de los organismos que les permiten competir de manera
más efectiva por los recursos limitados y, en consecuencia, estar mejor adaptados
a un nicho medioambiental particular. Según el neodarwinismo, las variantes
favorables son mutaciones genéticas en el acervo génico de la población de una
especie.
En 2006, Jerry Coyne, de quien están extraídos los primeros cinco principios
del neodarwinismo moderno, declaró que:

Una buena teoría científica da sentido a una amplia cantidad de datos que hasta entonces eran
inexplicables. Además, una teoría científica debe realizar predicciones verificables y ser vulnerable
a la refutación […]. Todo fragmento de información que hemos recopilado sobre la naturaleza está
en consonancia con la teoría de la evolución, y no existe ni una pizca de evidencia que la contradiga.
El neodarwinismo, como la teoría de los enlaces químicos, se ha graduado de teoría a hecho [la
cursiva es mía].[8]

A destacar que Coyne equipara la teoría de la evolución con el


neodarwinismo. Si está en lo cierto, el neodarwinismo debería explicar todas las
evidencias, realizar predicciones verificables y ser vulnerable a la refutación. ¿Es
así?

Lo que la ortodoxia neodarwinista no consigue explicar


Las evidencias revisadas en los cuatro capítulos anteriores muestran varios
patrones que el neodarwinismo no explica y muchos que lo refutan.

Estasis y especiación rápida

En contraste con el gradualismo esencial del neodarwinismo, el capítulo 17


llegó a la conclusión de que:

El patrón normal de las evidencias fósiles de animales es de estasis morfológica con cambios
menores, y a menudo oscilantes, puntuados por la aparición geológicamente súbita (decenas de
miles de años) de nuevas especies, que permanecen luego en estado básicamente invariable durante
decenas o incluso cientos de millones de años hasta que desaparecen del registro fósil o siguen
vigentes hasta la actualidad.[9]

Ernst Mayr, uno de los arquitectos del modelo neodarwinista, reconoció en


2001 que «la paralización completa, o estasis, de un linaje evolutivo durante
veintenas, o cientos, de millones de años, es muy sorprendente».[10]
Peter G. Williamson, geólogo de la Universidad de Harvard, lo dijo aún más
claro:

Una teoría es solo buena si sus predicciones son buenas, y el neodarwinismo convencional, que
afirma ser una explicación completa del proceso evolutivo, no ha conseguido predecir la estasis
generalizada y prolongada que hoy en día reconocemos como uno de los aspectos más asombrosos
del registro fósil.[11]

Inconsistente también con el modelo gradualista neodarwinista es la


especiación, muy rápida desde un punto de vista geológico.

Especiación

A partir de todas las evidencias examinadas en el capítulo 18, no existe


ningún estudio de las especies vivas que muestre la evolución de nuevas especies
según el mecanismo neodarwinista.

Especiación inmediata: poliploidía

El modelo neodarwinista define una especie como una rama del árbol
evolutivo que se separa de otra rama y cuyos miembros son incapaces de
reproducirse con éxito con miembros de esa otra rama. El único ejemplo
inequívoco de este tipo de especiación, independientemente de si se consigue
mediante selección artificial o de si se observa en la naturaleza, es la
poliploidización en plantas y en algunos peces, anfibios, reptiles e incluso,
mamíferos. Este incremento en el número normal de cromosomas por célula
produce una nueva especie inmediatamente, no gradualmente a lo largo de miles
de generaciones, lo que contradice el mecanismo neodarwinista. El fenómeno
está seguramente más extendido de lo que en general se supone.[12]

Reproducción asexual

La abrumadora mayoría de especies del planeta no se reproduce sexualmente


y transmite las mutaciones genéticas verticalmente, de padres hijos. La mayoría
son organismos de célula única —procariotas (bacterias y arqueas) y eucariotas
unicelulares— que se replican produciendo clones de sí mismos.[13]

Transferencia genética horizontal

Muchas procariotas experimentan una transferencia genética horizontal


cuando ganan ADN a partir de su entorno, vía agentes como los virus o a través
del contacto directo con otros organismos.[14]
Coyne y su colaborador, H. Allen Orr, defienden que este intercambio de
genes es esencialmente el mismo que el intercambio y la transmisión de genes a
través de la reproducción sexual. Sin embargo, en este último caso, la
transmisión es vertical, de padres a hijos. La transferencia genética horizontal no
solo tiene lugar entre miembros de la misma generación, sino también, en
algunos casos, entre especies muy distintas.
La transferencia horizontal de genes puede dar al receptos funciones
adicionales inmediatas, lo cual tiene un valor para la supervivencia que puede
ser negativo, neutro o positivo, algo que cada vez se considera más importante
en la evolución de las bacterias y las arqueas.
Además, si la incorporación de bacterias previamente independientes seguida
por una transferencia horizontal de genes al genoma nuclear, como los biólogos
evolutivos aceptan en la actualidad, da como resultado orgánulos en las células
eucariotas, la transferencia horizontal de genes también habría jugado un papel
muy importante en la evolución de las eucariotas.
Mientras que se estima que un 81 +/- 15 por ciento de los genomas
procariotas son resultado de la transferencia genética horizontal,[15] la cantidad
inferior de genomas eucariotas secuenciados hace difícil estimar con precisión la
contribución de las transferencias genéticas horizontales en las eucariotas. Sin
embargo, un estudio llevado a cabo en 2007 sobre una bacteria que vive en el
interior de insectos y gusanos nematodos, descubrió importantes transferencias
de genes heredables hacia los genomas del anfitrión.[16] Otros estudios han
demostrado que en hongos y plantas se produce la adquisición de genes
procedentes de bacterias y eucariotas. Además, en la hibridación de plantas y
animales se producen transferencias genéticas horizontales masivas.[17]
Todos estos ejemplos demuestran que no solo las procariotas, sino también
las eucariotas pluricelulares, adquieren genes capaces de afectar su
supervivencia y su evolución en formas distintas a la propuesta por el modelo
ortodoxo neoodarwinista de transmisión vertical de mutaciones aleatorias a lo
largo de muchas generaciones.

Embriología y desarrollo del organismo

El modelo ortodoxo no explica qué es lo que causa que una única célula
formada por la fusión de un espermatozoide y un óvulo se replique en un cúmulo
de células con genoma idéntico, que se diferencian después en células con
funciones específicas que forman un embrión, que a continuación se desarrolla,
en el caso de los humanos, en un cuerpo independiente que puede ser macho o
hembra y que pesa como media entre 75 y 85 kilos, en el caso del adulto macho,
y entre 55 y 65 kilos, en el caso del adulto hembra, posee dos piernas para
caminar erecto, dos brazos y una cabeza que contiene el objeto más complejo del
universo conocido, un cerebro humano.
El descubrimiento de genes reguladores del desarrollo, como la familia Hox,
que determinan el desarrollo de las distintas partes del cuerpo en prácticamente
todos los animales bilaterales estudiados hasta el momento, no explica este
fenómeno. Estos genes, que organizan una cascada de sucesos de expresión
genética, son muy similares en la mosca de la fruta, los gusanos, los peces, las
ranas y los mamíferos. El modelo ortodoxo no explica qué es lo que provoca que
estos genes se pongan en funcionamiento o por qué activan cascadas de sucesos
distintas para producir los planes orgánicos tan distintos que producen moscas de
la fruta, gusanos, peces, ranas y mamíferos.

Genotipos y fenotipos

El modelo ortodoxo tampoco explica un fenómeno relacionado: hay especies


con genes muy similares que poseen fenotipos muy distintos. Por ejemplo, el
hombre comparte el 94 por ciento de sus genes con el chimpancé, el 90 por
ciento con la rata e incluso el 85 por ciento con el pez cebra, de entre 4 y 6
centímetros de longitud,[18] mientras que algunas especies de la mosca de la
fruta son muy distintas genéticamente pero muy similares desde un punto de
vista morfológico.

ADN «basura»

Como se apuntó al final del capítulo 16, durante cerca de cincuenta años, los
neodarwinistas, centrados siempre en el gen, descartaron como basura el 98 por
ciento del genoma humano que no estaba integrado por genes, puesto que no
tenía cabida en su modelo. Una postura arrogante, puesto que ahora sabemos que
alrededor del 80 por ciento de este ADN muestra signos de actividad funcional;
gran parte del mismo parece estar implicado en redes reguladoras colaborativas.
[19]
Muchos defensores del actual modelo ortodoxo argumentan que las regiones
del ADN que no codifican proteína siguen siendo ADN y, por lo tanto, están
sujetas a mutación y selección natural del mismo modo que las regiones
codificantes. Sin embargo, en 2007, Michael Lynch, profesor distinguido de
Biología de la Indiana University, revisó la evolución de las redes genéticas y
llegó a la conclusión de que, contrariamente a la creencia extendida, no existen
evidencias empíricas ni teóricas de que haya rasgos de las vías genéticas que
estén fomentados por la selección natural.[20]

Herencia de caracteres adquiridos

En el capítulo 16 se habló también de que una de las consecuencias de la


adopción del modelo neodarwinista por parte de los biólogos fue el rechazo de
otras causas de la evolución, incluyendo entre ellas la herencia lamarquiana de
caracteres adquiridos, que Darwin sí había aceptado.
Sin embargo, y sobre todo desde que hacia finales del siglo pasado se
consiguió secuenciar genomas completos, las evidencias de este fenómeno
empezaron a acumularse. En 2005, por ejemplo, Matthew Array y sus colegas de
la Washington State University demostraron que si se exponía a ratas
embarazadas a un fungicida muy utilizado en agricultura llamado vinclozolina,
los machos de su descendencia mostraban importantes porcentajes de
infertilidad. Este rasgo se transmitía a través de la línea germinal masculina a
prácticamente todos los machos de las generaciones siguientes examinadas, sin
que hubiera ningún cambio genético implicado.[21]
Para todo tipo de animales, incluyendo el hombre, está cada vez más claro
que determinados factores medioambientales, como la dieta o el estrés, pueden
producir caracteres que se transmiten a la descendencia sin que tenga lugar ni un
solo cambio en las secuencias genéticas.
Los genetistas teóricos Eva Jablonka y Gal Raz, de la Universidad de Tel
Aviv, recopilaron ejemplos de herencia no genética de caracteres adquiridos: 12
en bacterias, 8 en protistas, 19 en hongos, 38 en plantas y 27 en animales. Eran a
menudo menos estables que los caracteres asociados con variaciones genéticas
pero, según Jablonka y Raz, los ejemplos representan tan solo una fracción muy
pequeña de toda la herencia no genética que probablemente existe.[22]
Creo que Marilyn Monk, bióloga especializada en embriología del Institute
for Child Health de UCL, tiene razón cuando concluye que todos estos cambios
hereditarios, que se ha demostrado que han sido inducidos por factores
medioambientales, no solo desafían el sexto principio del actual paradigma, el
«dogma central» de que la información es un flujo unidireccional que va de un
gen a la proteína de una célula, sino también el cuarto y el quinto principio, que
declaran que el único mecanismo de la evolución biológica es la selección
natural de mutaciones genéticas generadas aleatoriamente.

Colaboración

Otra consecuencia de adoptar el modelo neodarwinista, apuntada en el


capítulo 16, era ignorar la evolución como causa de la evolución. Sin embargo,
el examen de la conducta realizado en el capítulo 19, llevó a la conclusión de
que:

La colaboración juega un papel más relevante que la competencia en la supervivencia y en la


propagación de la vida, desde el nivel de los genes hasta los organismos unicelulares, en los
orgánulos de las células eucariotas, en las células eucariotas de los organismos pluricelulares, y en la
conducta de plantas y animales, desde los insectos hasta los primates.

Según dijo en 2011 Stuart West, biólogo evolutivo de la Universidad de


Oxford, «Explicar la aparente paradoja de la cooperación es uno de los
problemas centrales de la biología, puesto que prácticamente todas las
transiciones evolutivas importantes, desde la replicación de moléculas hasta las
sociedades animales más complejas, han dependido de solucionar este
problema».[23]
Ha sido el problema central de la biología desde que la mayoría de biólogos
adoptó el modelo neodarwinista, puesto que la única conducta consistente con
ese modelo es la competencia. Los intentos de explicar la conducta colaborativa
y altruista según los axiomas del neodarwinismo dieron origen a una nueva
subdisciplina: la sociobiología. En un capítulo posterior consideraré intentos
como las hipótesis complementarias al modelo neodarwinista.

Complejidad progresiva

Otra conclusión importante del capítulo 17 es que el patrón general del


registro fósil a lo largo del tiempo va de lo sencillo a lo más complejo; las
evidencias de animales que tenemos disponibles indican que la complejidad va
en aumento a lo largo de todos los linajes, lo cual se hace claramente patente en
el linaje que conduce hasta el hombre. Las evidencias del capítulo 18 muestran
que las especies vivas constituyen un patrón de complejidad progresiva que va
desde las bacterias hasta el hombre. Los estudios de conducta repasados en el
capítulo 19 demuestran que, a medida que la complejidad de la especie se
incrementa, desde los peces hasta los primates, el aprendizaje social se
incrementa a su vez para complementar la conducta instintiva; esto se
correlaciona asimismo con un incremento de la complejidad del cerebro junto
con un incremento de la inteligencia, atestiguado por las soluciones cada vez
más innovadoras a los problemas.
A pesar de que Darwin había concluido con que «Como la selección natural
obra solamente por y para el bien de cada ser, todos los atributos corpóreos y
mentales tenderán a progresar hacia la perfección».
Según Francis Heylighen, cibernético y teórico de la complejidad
interdisciplinaria:[24]

Igual que Maynard Smith y Szthmary, en sus estudios sobre las principales transiciones en la
evolución, [los biólogos evolutivos] se sienten obligados a defender de boquilla la ideología
[relativista] apuntando la «falacia» de creer que existe algo como el progreso o el avance hacia un
incremento de la complejidad, y describiendo luego con detalle los ejemplos de este incremento que
han estudiado.[25]

Antes de examinar las objeciones al patrón de incremento de la complejidad,


intentaré minimizar los malentendidos que surgen a partir de los distintos
significados que se otorgan a una misma palabra. Teóricos de sistemas, teóricos
de autómatas, teóricos de la información, teóricos de la complejidad,
cibernéticos, biólogos evolutivos, especialistas en el genoma, etólogos y otros,
definen la complejidad de distintas maneras. Cada uno de ellos se centran en
aspectos distintos —cualitativos, cuantitativos, estructurales (subsistemas
incrustados en supersistemas) o funcionales (niveles de proceso o control de la
información)— de la complejidad. A nadie sorprende, por lo tanto, que los
resultados sean distintos.
Intentaré ser objetivo y concentrarme en el bosque y no en el árbol y utilizar
una definición abstracta, que espero sea del agrado de la mayoría de
especialistas.

Complejo: un todo compuesto de distintas partes interrelacionadas.

Complejidad: cualidad de ser complejo.

Aumento de la complejidad: el proceso que hace que algo sea cada vez
más complejo.

A partir de esa definición, se entiende que cada parte es necesariamente más


simple que el todo que incluye varias de esas partes. Prácticamente todos los
objetos físicos del universo son complejos y forman jerarquías anidadas de
incremento de la complejidad, desde las partículas subatómicas hasta los átomos,
las moléculas, los organismos unicelulares, los organismos pluricelulares, hasta
las sociedades de organismos. Además, está generalmente aceptado que, en la
historia del universo, los componentes más simples aparecieron antes que los
sistemas compuestos y más complejos. Es lógico: normalmente, es imposible
construir un sistema de orden más elevado, como una molécula, a partir de sus
partes constituyentes, en este caso los átomos, sin que dichas partes
constituyentes se hayan creado. Por lo tanto, la evolución conduce hacia
sistemas cada vez más complejos y va añadiendo gradualmente más niveles de
jerarquía. Lo que causa este este fenómeno evolutivo ya es otra historia. Las
causas pueden ser distintas en distintas transiciones evolutivas, y es por ello que
considero que, en el mapa de la trayectoria de la evolución, resulta sensato
distinguir entre el fenómeno y su causa.
Si examinamos el fenómeno de incremento de la complejidad utilizando los
métodos de la ciencia, resultará útil medirlo. Considero que la mejor medida la
ofrece el número de partes multiplicado por el número de conexiones. En el caso
de los seres vivos, sin embargo, no disponemos de todos los datos.
El biólogo evolucionista, James Valentine, y sus colegas de la Universidad de
California, Berkeley, utilizaron la cantidad de tipos de célula no «para medir la
complejidad en sí, sino […] simplemente a modo de índice de complejidad
[morfológica]», reconociendo que «sin duda estamos agrupando células que
poseen diferencias bioquímicas y, a buen seguro, funcionales». Este índice omite
además las conexiones entre células del mismo y de distintos tipos, y cosas como
la complejidad de conducta. Pero de todos modos, sirviéndose de solo una
medida de complejidad morfológica y contrastándola a partir de la primera
aparición en el registro fósil de un rango del taxón de los animales, Valentine
descubrió una progresión en la complejidad de las familias más primitivas en
cada taxón, desde las Porifera (esponjas) hasta la más reciente, Homínidos,
incluso agrupando las distintas neuronas como un único tipo de célula.[26]
Sin embargo, tal y como observó el biólogo evolucionista de Princeton, John
Tyler Bonner: «Entre los biólogos se da un interesante punto ciego. A pesar de
que admitimos sin dilación que los primeros organismos eran similares a
bacterias y que el organismo más complejo que existe es el nuestro, se considera
malas formas aceptar esto como algún tipo de progresión».[27]
Las objeciones son tanto con respecto al fenómeno de la progresión (el
patrón de incremento de complejidad que se observa en la evolución biológica)
como con respecto a lo que implica el progreso (los resultados de mejora que
provoca esa progresión).
A pesar de solaparse, los argumentos contra el incremento de complejidad
pueden agruparse en los nueve que se ofrecen a continuación, seguidos con la
respuesta a cada uno de ellos.

a. La evolución biológica está causada por la selección natural que actúa


mediante mutaciones aleatorias de origen genético y, por lo tanto, no
puede haber un patrón de incremento de complejidad.
La deducción a la que se llega no se deduce por su premisa. No hay
razón por la que la selección natural que actúa mediante mutaciones
aleatorias no pueda dar un incremento de complejidad (si la selección
natural actúa para causar la evolución biológica es otra cuestión que se ha
considerado en un momento anterior de este mismo capítulo).

b. La evolución biológica es consecuencia de resultados accidentales de


sucesos fortuitos; no existe ningún patrón de progresión evolutiva.
El paleontólogo Stephen Jay Gould presentó este argumentó después de
aseverar que la selección natural es «un principio de adaptación local, no
de avance o progreso general».[28] Y eso sigue a su conocida afirmación
de que si la cinta de la vida se repitiera, siempre produciría resultados
distintos. En consecuencia «El hombre surgió […] como el resultado
fortuito y accidental de miles de sucesos vinculados, cualquiera de los
cuales podría haberse producido de otra manera y haber enviado la historia
hacia un camino alternativo que no nos habría llevado hasta la
consciencia».
Esta objeción a un patrón de incremento de la complejidad es similar al
anterior, donde las mutaciones aleatorias se ven sustituidas por los sucesos
fortuitas. Padece la misma falacia.
Gould intenta sustentar su argumento citando como evidencias cuatro
casos entre una multitud de sucesos fortuitos y resultados accidentales. Por
ejemplo, «Si un pequeño linaje de primates no hubiera evolucionado hacia
la posición erecta en las sabanas africanas afectadas por la sequía hace tan
solo entre dos y cuatro millones de años, nuestro antepasado podría haber
terminado en un linaje de monos que, como el chimpancé y el gorila hoy
en día, habría pasado a ser ecológicamente marginal y estaría seguramente
abocado a la extinción».
Pero el entorno cambió y la bipedestación evolucionó. Decir que la
bipedestación podría no haber evolucionado porque el entorno podría no
haber cambiado es ignorar las evidencias y caer en la especulación:
también podríamos especular que la Tierra podría no haberse formado
nunca a partir de la materia que envolvía el sol después de su formación.
En este sentido, todo es accidental y consecuencia de sucesos fortuitos que
se han ido produciendo desde el origen del cosmos. Afirmar que cualquier
suceso podría haberse producido de una manera distinta nos conduce hacia
el concepto del multiverso, que no es verificable; estamos ante una
conjetura filosófica, no ante ciencia.

c. El patrón de evidencias no es de incremento de la complejidad sino de


equilibrio puntuado.
Esta objeción escala a in mega nivel la hipótesis del equilibrio
puntuado de Eldredge y Gould. Según Gould, el patrón es de tres mil
millones de años de organismos unicelulares seguidos por los cinco
millones de años de explosión cámbrica con el florecimiento de filos,
mientras que «la posterior historia de vida animal se remonta a poco más
que variaciones sobre los temas anatómicos establecidos durante la
explosión cámbrica».[29]
Esto, sugiero, simplifica en exceso el patrón. Describir los últimos 540
millones de años como poco más que variaciones sobre los temas
anatómicos establecidos durante los cinco millones de años de explosión
cámbrica entra en conflicto con algo que dice el autor en el mismo
artículo: «Nadie puede dudar que secuencialmente, después del inicio
procariota, surgen criaturas más complejas: primero células eucariotas,
hará cuestión de unos dos mil millones de años, luego animales
pluricelulares hace unos seiscientos millones de años, con un relevo de
mayor complejidad entre los animales, pasando de los invertebrados a los
vertebrados marinos y, finalmente […] a los reptiles, los mamíferos y el
hombre».
Además, equipara complejidad con complejidad anatómica e ignora las
complejidades genómicas, de desarrollo, conductuales, neurales, de
comunicación y cognitivas que han evolucionado a lo largo de la historia
de la vida. La tabla 17.3 muestra no solo estos incrementos en
complejidad, sino también, en el linaje que llega hasta el hombre, que el
ritmo de incremento de la complejidad se acelera.
d. La evolución biológica no muestra un incremento general de complejidad.
Esta objeción acepta que la evolución biológica ocasiona especies más
complejas pero argumenta, en palabras de Gould, que existe «constancia
de complejidad modal a lo largo de toda la historia de la vida».[30]
Dicho de forma muy sencilla, teniendo en cuenta que los organismos
más numerosos, los procariotas, son los más simples, si calculáramos la
complejidad media de todas las especies que viven en la Tierra en
cualquier punto determinado del tiempo, el astronómico número de
procariotas resultante empequeñecería el número de organismos más
complejos y, por lo tanto, reduciría casi a cero su contribución a la
complejidad general.
A pesar de ser un argumento estadísticamente correcto, es engañoso.
Igual que existe una cantidad astronómicamente superior de procariotas
que de animales, también existe una cantidad astronómicamente superior
de moléculas que de procariotas, una cantidad astronómicamente superior
de átomos que de moléculas y una cantidad astronómicamente superior de
partículas fundamentales que de átomos. En cualquier momento de la
historia del universo existe una «constancia de complejidad modal»
estadística, representada por las partículas fundamentales. Pero esto no
significa que el universo haya permanecido en una constancia de partículas
fundamentales a lo largo de toda su historia y no haya progresado hacia
estructuras más complejas.

e. La evolución biológica no muestra ningún patrón de incremento de


complejidad; algunos organismos complejos evolucionan hacia
organismos más simples.
Es lo que se conoce como evolución regresiva y su ejemplo icónico es
el pez cavernario. Existen especies de peces con poblaciones que viven en
aguas abiertas y también en cuevas sin luz. Estos últimos, que se supone
que han evolucionado a partir de los primeros, son ciegos y sin color: se
han vuelto más simples.
Cuando los biólogos evolutivos Richard Borowsky y Horst Wilkens
examinaron este fenómeno en 2002, descubrieron que los cambios que se
producen en la evolución regresiva no se distinguen en nada a los que se
producen en la evolución constructiva: las frecuencias alélicas y los
estados de carácter se alteran con el tiempo. Pero las variantes que viven
en cuevas muestran también evolución constructiva, como un aumento en
capacidades sensoriales distintas a la vista o un incremento en la eficiencia
metabólica; son adaptaciones a su nuevo entorno.[31] Por lo tanto, a pesar
de que han perdido algunas funciones en comparación con sus
progenitores de aguas abiertas, adquieren otras. En términos generales, no
se han convertido en organismos más simples.
Los parásitos se citan también como ejemplos de evolución regresiva, y
una vez más, un estudio en detalle muestra que la situación no es ni mucho
menos tan clara como suele exponerse. El ejemplo más estudiado es el de
los rombozoos, parásitos minúsculos que viven en los riñones de
cefalópodos como el pulpo, el calamar y la sepia. El cuerpo de estos
parásitos consta de entre 10 y 40 células, una cantidad inferior a la de
cualquier otro metazoo (animales), y están organizados de forma muy
simple: no tienen cavidades orgánicas ni órganos diferenciados. Según
Hidetaka Furuya, de la Universidad de Osaka, seguramente la mayor
autoridad mundial en rombozoos, «No tenemos todavía claro si los
rombozoos son organismos primitivos pluricelulares o metazoos
degenerados».[32]
Incluso si se identificaran de forma inequívoca algunos casos de
evolución regresiva neta permanente, no negarían el patrón general del
incremento de complejidad biológica.

f. El patrón implica progreso: lo cual introduce un juicio de valor, algo que


no tiene cabida en la ciencia, que se ocupa de recopilar hechos de manera
objetiva y de extraer conclusiones lógicas e hipótesis de los patrones
descubiertos.
El progreso, a diferencia de la progresión, implica un juicio de valor.
Pero decir que los juicios de valor no tienen cabida en la ciencia no es
cierto. Más bien al contrario, la ciencia no funcionaría sin juicios de valor:
qué datos examinar, cómo interpretar los datos, qué conclusiones extraer,
qué supuestos deberían realizarse al extraer conclusiones, hasta qué punto
son tentativas o robustas las conclusiones, es una hipótesis mejor que otra
para explicar los datos, hasta qué punto los datos entran en conflicto o
sustentan la actual teoría, etc.

g. Cualquier patrón de incremento de complejidad, o de inteligencia, o de


cualquier otro criterio diseñado por el hombre, que muestre que el hombre
es el más complejo, el más inteligente, etc. es antropocéntrico.
Uno de los fundadores del neodarwinismo, George Gaylord Simpson,
respondió sucintamente a esta objeción: «Descartar de antemano esta
conclusión simplemente porque nosotros mismos estamos implicados, es
tan antropocéntrico y tan poco objetivo como sería aceptarla por el mero
hecho de que satisface nuestro ego».[33] La tarea del científico que estudia
la evolución biológica como un todo consiste en aplicar en la medida de lo
posible los mismos criterios (por ejemplo el número de tipos de células) a
todas las especies, humanos incluidos.
No hace falta decir que identificar a los humanos como la especie más
compleja conocida no implica que el hombre ocupe la cúspide, o punto
final, de la evolución, sino que simplemente es el individuo más complejo
hasta el momento.

h. El proceso de incremento de la complejidad no es progresivo: es preferible


un sistema más simple a uno más complejo, que es una aberración.
El bioquímico William Bains articuló este argumento después de
reconocer que el paso del tiempo evolutivo va acompañado por la
aparición de estructuras que tienen una complejidad morfológica y
funcional mayor, pero argumenta que «En ningún otro marco de trabajo
teórico se considera que la complejidad sea algo necesariamente más
avanzado que la simplicidad», y llega a la conclusión de que «el hombre es
una aberración “no evolucionada” de una biosfera mucho más simple y
eficiente».[34]
Aquí, la principal falacia es invocar el argumento generalizado de que
los sistemas más simples son más eficientes que los complejos y no
comparar peras con peras y manzanas con manzanas. La inmensa mayoría
de las bacterias y arqueas que observamos en la actualidad no son las
mismas que existieron hace dos o tres mil millones de años, cuando la
Tierra era muy distinta y carecía de oxígeno. Aquellas procariotas
evolucionaron formando nuevas especies para enfrentarse a cada nuevo
estrés medioambiental que planteó el amplio abanico de nichos
medioambientales que fueron desarrollándose en la Tierra en evolución,
dando como resultado la inmensa cantidad de especies de este tipo que hoy
en día conocemos. Los animales, por otro lado, evolucionaron como
especies más complejas, capaces de enfrentarse con diversas condiciones
de estrés medioambiental.
Uno de los linajes produjo la especie más compleja que conocemos. El
Homo sapiens es capaz de sobrevivir más tiempo y a distintas situaciones
de estrés medioambiental que cualquier otra especie menos compleja. Es la
única que ha hecho de todo el planeta su hábitat. Sirviéndose de un cerebro
tremendamente complejo, ha sido capaz de concebir maneras de sobrevivir
en cualquier lugar de la superficie del planeta, en todo tipo de condiciones
medioambientales, a varios kilómetros por debajo de la superficie, tanto
bajo el mar como bajo tierra, y en el espacio exterior. Ha extendido la
esperanza de vida de sus miembros concibiendo y aplicando la ciencia
médica y ha empezado a alterar su propia estructura genética mediante la
terapia genética.
Ninguna otra especie animal, y mucho menos ninguna especie de
bacteria o arquea, posee estas dotes de supervivencia. Según el criterio del
neodarwinismo de que los miembros de las especies de más éxito son los
mejores adaptados para la supervivencia, todo esto significa progreso.

i. En la evolución biológica no hay progreso.


En 1988, Matthew Nitecki editó un libro titulado, tal vez con cierta
ironía, Evolutionary Progress [Progreso evolutivo], en el que llegaba a la
siguiente conclusión: «El concepto de progreso ha sido prohibido en la
biología evolutiva por ser considerado antropomórfico o, en el mejor de
los casos, por su utilidad limitada y ambigua».[35]
Según uno de los autores que contribuyeron en la publicación, Stephen
Jay Gould, «El progreso es un concepto nocivo, culturalmente arraigado,
no verificable, no operativo e intratable que debería ser sustituido si
queremos comprender los patrones de la historia».[36]
De un modo menos polémico, Bains articuló su punto de vista en otra
publicación haciendo la siguiente pregunta retórica: «¿Existe una razón a
priori para distinguir cualitativamente los caracteres recientemente
adquiridos por el hombre, como podrían ser la inteligencia y la talasemia,
de los de la E. coli, como podría ser el operón Lac?»[37]
La respuesta es sí. La inteligencia humana es una capacidad que en
diversos grados poseen todos los miembros de la especie. Es distinta
cualitativamente a la talasemia, que es una enfermedad relativamente rara
en los humanos resultante de un defecto genético heredado que suele ser
recesivo en ambos progenitores. Ambos caracteres son cualitativamente
distintos del operón Lac, que es un sistema regulador genético para el
metabolismo de la lactosa en la bacteria E. coli. Insinuar que una
capacidad general entra en la misma categoría que una enfermedad rara o
tres genes es una falacia lógica.
Bains prosigue aseverando que «el valor de la inteligencia para la
supervivencia sería complicado de defender aun en el caso de que
pudiéramos decidir qué es la inteligencia».
Consideraré la inteligencia en más detalle más adelante. Basta decir por
el momento que la inteligencia permitió a los primeros humanos elaborar
utensilios más complejos y eficientes con los que defenderse contra
depredadores más grandes y fuertes que ellos y aumentar su éxito en la
caza para procurarse alimento, construir refugios para protegerse de los
elementos hostiles, confeccionar prendas con las pieles de sus presas para
mantenerse abrigados, hacer fuego para calentarse, ahuyentar a los
depredadores y cocinar alimentos, y plantar y cultivar cosechas para
alimentarse mejor que con la caza y recolección, entre muchas otras
habilidades de supervivencia.
A pesar de que la mayoría de neodarwinistas contemporáneos rechazan
el concepto de progreso evolutivo, los fundadores del neodarwinismo no
eran del mismo parecer. Más bien al contrario, reconocían que el mayor
progreso era el observado en las especies humanas. Mayr esbozó las fases
de este progreso:
¿Quién puede negar que, en general, existe un avance desde las procariotas que dominaron el
mundo de los seres vivos hace más de tres mil millones de años hasta las eucariotas, con su núcleo
bien organizado, sus cromosomas y sus orgánulos citoplasmáticos; desde las eucariotas unicelulares
hasta los metafitos y los metazoos y hasta […] [los animales de sangre caliente] con un importante
sistema nervioso central, desarrollo parental altamente desarrollado y la capacidad de transmitir
información de generación en generación?[38]

Incluso Simpson, siempre más escéptico, llegó a la siguiente


conclusión:

Sin embargo, una mayoría [de los criterios para el progreso evolutivo] muestra que el hombre se
cuenta entre los productos más elevados de la evolución y el equilibrio que se da entre ellos nos
lleva a concluir que el hombre es, en el aspecto global aunque no en todos los sentidos, el pináculo
del progreso evolutivo hasta la fecha.[39]

Julian Huxley fue desde siempre un defensor entusiasta del progreso


evolutivo y argumentaba que:

Antes de que el hombre apareciera en la tierra ya había progreso […]. Su llegada sirvió para
continuar, modificar y acelerar un proceso que ha estado operativo desde el amanecer de la vida.[40]

Dobzhansky también se mostraba inequívoco:

A tenor de cualquier criterio razonable, el hombre representa el producto más elevado, más
progresista y más exitoso de la evolución orgánica. Lo realmente extraño es que algunos biólogos
cuestionen una y otra vez un elogio tan evidente.[41]

Las objeciones a las evidencias abrumadoras de la complejidad progresiva


conducen a ignorar las evidencias o a intentos falaces de explicarlas, porque
entran en conflicto bien con una causa asumida por la evolución biológica, bien
con una ideología que trata a todas las especies como iguales.
La negación de las evidencias por entrar en conflicto con una creencia resulta
más sorprendente en un científico que el hecho de que un creacionista niegue las
evidencias del fenómeno de la evolución biológica.
En los dos capítulos siguientes examinaré las hipótesis que intentan
complementar o desafiar el paradigma utilizado actualmente para explicar el
patrón de las evidencias.
[1]Barreiro, Luis B., et al., «Natural Selection Has Driven Population Differentiation in Modern
Humans», Nat Genet, 40: 3, 2008, pp. 340–345.
[2]http://www.britannica.com/EBchecked/topic/406351/natural-selection. Consultado el 14 de junio de
2014.
[3]«Ernst Mayr», Gale Encyclopedia of Biography, 2006.
[4] Véase páginas 419 a 421.
[5] Véase página 442.
[6] Véase página 443.
[7]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A Critique of Molecular
Systematics», Biological Theory, 1: 4, 2006, pp. 357–371.
[8]Coyne (2006).
[9] Véase página 482.
[10]Mayr (2001), p. 195.
[11]Williamson, Peter G., «Morphological Stasis and Developmental Constraint: Real Problems for
Neo-Darwinism», Nature, 294, 1981, pp. 214–215.
[12] Véase páginas 491 y 493.
[13] Véase página 451.
[14] Véase página 491.
[15] Véase página 492
[16]Hotopp, Julie C. Dunning, et al., «Widespread Lateral Gene Transfer from Intracellular Bacteria to
Multicellular Eukaryotes», Science, 317: 5845, 2007, pp. 753–1756.
[17]Boto, Luis, «Horizontal Gene Transfer in Evolution: Facts and Challenges», Proceedings of the
Royal Society B: Biological Sciences, 277: 1683, 2010, pp. 819–827.
[18] Véase página 504.
[19] Véase página 503.
[20]Lynch, Michael, «The Evolution of Genetic Networks by Non-Adaptive Processes», Nat Rev
Genet, 8: 10, 2007, pp. 803–813.
[21]Anway, Matthew D., et al., «Epigenetic Transgenerational Actions of Endocrine Disruptors and
Male Fertility», Science, 308: 5727, 2005, pp. 466–1469.
[22]Jablonka, Eva y Raz, Gal, «Transgenerational Epigenetic Inheritance: Prevalence, Mechanisms, and
Implications for the Study of Heredity and Evolution», The Quarterly Review of Biology, 84: 2, 2009, pp.
131–176.
[23]West, Stuart A, et al., «Sixteen Common Misconceptions About the Evolution of Cooperation in
Humans», Evolution and Human Behavior, 32: 4, 2011, pp. 231–262.
[24]Darwin, Charles (1872), p. 428.
[25]Heylighen (1999).
[26]Valentine, J. W., et al., «Morphological Complexity Increase in Metazoans», Paleobiology, 20: 2,
1994, pp. 131–142.
[27]Bonner (1988), p. 5.
[28]Gould (2004).
[29]Ibíd.
[30]Ibíd.
[31]Borowsky, R. y Wilkens, H., «Mapping a Cave Fish Genome: Polygenic Systems and Regressive
Evolution», J Hered, 93: 1, 2002, pp. 19–21.
[32]http://www.bio.sci.osaka-u.ac.jp/~hfuruya/dicyemids.html. Consultado el 24 de febrero de 2011.
[33]Simpson (1949).
[34]Bains, William, «Evolutionary Paradoxes and Natural Non-Selection», Trends in Biochemical
Sciences, 12, 1987, pp. 90–91.
[35]Nitecki (1988).
[36]Gould, Stephen Jay, «On Replacing the Idea of Progress with an Operational Notion of
Directionality», en Evolutionary Progress, editado por Matthew H. Nitecki, Chicago; Londres, University
of Chicago Press, 1988, p. 319.
[37]Bains (1987).
[38]Mayr (1988), pp. 251–252.
[39]Simpson (1949), p. 262.
[40]Huxley (1923), p. 40.
[41]Dobzhansky (1956), p. 86.
CAPÍTULO 22. HIPÓTESIS COMPLEMENTARIAS Y
EN COMPETENCIA 1: EL INCREMENTO DE LA
COMPLEJIDAD

Si se pudiera demostrar que existe algún órgano complejo que no se hubiera formado a través de
numerosas, sucesivas, y sutiles modificaciones, mi teoría se desmoronaría por completo.

CHARLES DARWIN, 1872

Durante la primera mitad del siglo XX, los biólogos estaban ansiosos por
convertir su especialidad en una ciencia respetable, como la física, cuyas teorías
se expresaban en ecuaciones matemáticas que permitían predicciones precisas y
verificables. Este deseo nació en los años veinte y treinta, con las formulaciones
matemáticas de adaptación evolutiva de Ronald Fisher, los diez documentos que
publicó J. B. S. Haldane bajo el título de A Mathematical Theory of Natural and
Artificial Selection [Una teoría matemática de la selección natural y artificial] y
los cálculos de paisajes adaptativos y deriva genética de Sewall Wright. Este
enfoque, que proporcionó la base teórica de la genética de poblaciones, estaba
enraizada en el determinismo newtoniano.
El modelo neodarwinista combinó este enfoque con los métodos analíticos de
la genética molecular. La ciencia de la biología observacional, que hasta el
momento había sido cualitativa, se endureció para pasar al determinismo y el
reduccionismo genético, con hipótesis expresadas como ecuaciones matemáticas
o modelos estadísticos.
Paradójicamente, la física experimentó al mismo tiempo un cambio de
paradigma y se alejó del determinismo para adentrarse en la teoría de la
relatividad y la indeterminación de la teoría cuántica con su no localización, su
principio de incertidumbre, sus entrelazamientos cuánticos y sus interpretaciones
holísticas. Sin embargo, la mayoría de las hipótesis presentadas para explicar los
patrones de las evidencias que el paradigma neodarwinista no explica adoptan el
enfoque general de ese paradigma y utilizan modelos matemáticos. Una minoría,
no obstante, adopta un punto de vista holístico y defiende que las formas de vida
están integradas por componentes colocados en distintos niveles jerárquicos que
interactúan entre sí y también con su entorno.
Las hipótesis van desde aquellas que buscan complementar o ampliar el
modelo neodarwinista hasta las que lo desafían. En este capítulo, examinaré las
presentadas para explicar el rápido incremento de complejidad y en el siguiente,
las presentadas para explicar la colaboración.

Diseño inteligente

En el capítulo 15 vimos que el bioquímico de la LeHigh University, Michael


Behe, afirmaba que la complejidad irreducible de la primera célula indicaba que
debía de haber tenido un diseño inteligente aunque, por otro lado, aceptaba
también la evolución biológica posterior.[1] Siguiendo el libro de Behe, que
ayudó a poner en marcha el movimiento del diseño inteligente, el biólogo
Jonathan Wells, que había estado realizando labores de investigación en la
Universidad de California, Berkeley, publicó un libro Icons of Evolution:
Science or Myth [Iconos de la evolución: ¿ciencia o mito?] que considera diez
casos de estudio icónicos utilizados para enseñar la evolución darwiniana y llega
a la conclusión de que han sido exagerados, distorsionados e incluso,
falsificados.[2]
La respuesta de los biólogos evolucionistas fue unánimemente hostil y
acusaron a Wells de tergiversar de forma deshonesta y fraudulenta las evidencias
para fomentar sus creencias religiosas.
Seis de estos casos de estudio han sido examinados en capítulos anteriores de
este libro. Wells acierta al decir, por ejemplo, que (a) el experimento de Miller-
Urey no consigue demostrar la emergencia de la vida a partir de materia
inanimada;[3] (b) no existe árbol filogenético darwinista capaz de demostrar la
descendencia con modificación (en particular, porque no existe acuerdo entre los
biólogos sobre cómo, y en base a qué, debería construirse ese árbol de la vida);
[4] (c) las evidencias de la estasis de las especies en el registro fósil contradicen
el gradualismo darwinista;[5] ni (d) los «pinzones de Darwin» de las islas
Galápagos[6] ni (e) el oscurecimiento de las polillas moteadas en zonas
industriales muestran la evolución de las especies (como algo distinto al cambio
adaptativo reversible) y, en este último caso, las fotografías de Kettlewell de
polillas llamativas posadas en troncos de árboles son en realidad polillas muertas
pegadas a esos árboles;[7] y (f) no existen pruebas de que hayan evolucionado
nuevas especies según el mecanismo darwinista (neodarwinista, de hecho).[8]
Pero destacar hipótesis incorrectas y experimentos u observaciones no
concluyentes, defectuosas e, incluso, falsas (aunque creo que lo que
imprudentemente pretendía Kettlewell era que sus fotografías fueran ilustrativas
más que engañosas), no refuta el fenómeno de la evolución biológica. A pesar de
que las nueve categorías de evidencias examinadas en los capítulos 17 y 18 no
ofrecen por sí mismas evidencias indiscutibles de la evolución biológica, vistas
en conjunto ofrecen la evidencia abrumadora de que el hombre evolucionó a
partir de las primeras formas de vida de la Tierra. Lo que subrayan estos casos es
la insuficiencia de la hipótesis neodarwinista como única explicación del
fenómeno. El hecho de que estos ejemplos sigan utilizándose en los libros de
texto para demostrar la evolución biológica ilustra uno o ambos puntos
siguientes: que los libros de texto están anticuados, o que están basados en
creencias más que en ciencia. Los defensores de la ortodoxia actual responden
con una actitud defensiva institucional que no reconoce todos los defectos del
modelo neodarwinista que el conflicto de datos deja en evidencia e ignora otras
hipótesis consistentes con esos datos. Paradójicamente, esta actitud defensiva no
sirve más que para dar argumentos a los creacionistas.
En un libro más reciente, The Edge of Evolution: the Search for the Limits of
Darwinism [Los confines de la evolución: la búsqueda de los límites del
darwinismo],[9] Behe acepta el fenómeno de la evolución biológica; de hecho,
llega a decir que la selección natural es el mecanismo evidente por el cual las
variantes de los genes adaptativos se extienden entre una población. Sostiene que
la mutación aleatoria, junto con la selección natural, no es un motor lo bastante
potente como para impulsar la evolución de la innovación biológica y el
incremento de complejidad. Su argumento se basa en la escasa probabilidad de
que un organismo experimente dos o más mutaciones simultáneas que le resulten
ventajosas, lo cual es correcto. Sin embargo, llega también a la conclusión de
que la mayoría de las mutaciones realmente importantes tienen que estar
dirigidas por un agente inteligente. Estamos ante una falacia lógica. Que la
hipótesis neodarwinista no logre explicar las innovaciones biológicas más
importantes y el incremento de complejidad —lo cual es cierto—, no implica
que otras hipótesis científicas puedan proporcionar una explicación adecuada
ahora o en el futuro; este capítulo resume las actuales hipótesis.
Para resumir, los defensores del diseño inteligente no consiguen ofrecer
explicaciones verificables de sus creencias, lo que coloca el diseño inteligente
fuera del ámbito de la ciencia.

Equilibrio puntuado

En 1995, el paleontólogo Niles Eldredge declaró que las tres respuestas de


los miembros de la población de una especie a un cambio en su entorno son, en
orden de probabilidad:

1. Búsqueda de hábitat.
Los miembros migran a un hábitat en el que estén bien adaptados.
2. Extinción.
Cuando los miembros no son capaces de encontrar un hábitat
adecuado.
3. Transformación muy lenta y gradual de la población para adaptarse al
entorno cambiado.
Esta tercera respuesta, menos probable, es el único mecanismo de
especiación reconocido por el modelo neodarwinista.

Por otro lado, George C. Williams, biólogo evolucionista teórico


neodarwinista, rechaza la búsqueda de hábitat y la considera pura fabulación, a
pesar de que Eldredge ofrece una cantidad destacada de evidencias para
sustentar su hipótesis.[10]
En el emblemático artículo que publicaron en 1972 desafiando el
gradualismo del modelo neodarwinista por considerar que entra en conflicto con
el registro fosil,[11] Eldrege y el paleontólogo Stephen Jay Gould, se inspiraron
en la idea de Ernst Mayr, que argumentaba que la especiación era más rápida en
las subpoblaciones pequeñas y aisladas, para proponer la hipótesis del equilibrio
puntuado. Afirmaban que, para una población grande que ocupe una región
geográfica extensa, las mutaciones genéticas nuevas, aun siendo beneficiosas,
quedan diluidas por el tamaño de la población y por factores como los cambios
constantes en el entorno. Se producen pequeñas variaciones adaptativas, pero
también una estabilización general de la morfología, lo cual es consistente con
cambios morfológicos menores que fluctúan alrededor de una media y que
muestra el registro fósil a lo largo de decenas o incluso cientos de millones de
años.
Pero en el caso de un grupo pequeño localizado en la periferia de la región
geográfica, las mutaciones genéticas que codifican rasgos adaptativos
beneficiosos, se diseminarán rápidamente y transformarán el acervo génico de
ese grupo en un periodo geológicamente breve de decenas de miles de años. El
resultado será una nueva especie incapaz de reproducirse con éxito con el grupo
principal.
Richard Dawkins, defensor de Williams, rechazó esta hipótesis
considerándola «una arruga interesante, aunque de escasa importancia, sobre la
superficie de la teoría neodarwinista» que «no merece una cantidad de
publicidad especialmente grande».[12] Lo cual encendió un acalorado
intercambio entre Dawkins y la pareja Eldredge/Gould que sigue vigente en la
actualidad.

Orígenes súbitos

Jeffrey H. Schwartz, antropólogo fisico y filósofo de la ciencia de la


Universidad de Pittsburgh, es un biólogo evolucionista que conserva el cada vez
más anticuado punto de vista de que el papel del científico consiste en verificar
las hipótesis ortodoxas vigentes y los supuestos sobre los que se sustentan contra
las evidencias y, en caso necesario, buscar explicaciones alternativas, en lugar de
buscar o interpretar evidencias para defender esas hipótesis.
Para él, el gradualismo neodarwinista también es incompatible con las
evidencias. Pero en vez de adoptar la hipótesis de Eldredge y Gould, trabajó con
Bruno Maresca, bioquímico de la Universidad de Salerno, para desarrollar una
hipótesis que había concebido anteriormente examinando la expresión de las
proteínas del estrés de las células en respuesta a los cambios físicos del entorno.
Publicada en 2006, su hipótesis del origen súbito afirma que las células impiden
o corrigen el cambio genético y lo hacen, principalmente, a través de los
mecanismos de reparación del ADN; esto produce la homeostasis, o estabilidad
autorreguladora, del ADN y explicaría la estasis morfológica.
El cambio genómico importante solo se produciría cuando situaciones muy
graves de estrés —como un brusco cambio de temperatura, graves cambios en la
alimentación o una sobrepoblación física— sobrepasan esta homeostasis del
ADN durante la formación de las células sexuales (óvulos y espermatozoides), lo
que afectaría el desarrollo del organismo. El colapso de la homeostasis suele
tener consecuencias letales, pero

genera en algunos individuos, y durante un periodo de tiempo relativamente corto (unas pocas
generaciones), restructuraciones importantes y potencialmente no letales (¿y por lo tanto «útiles» ?).
[13]

Así pues, las innovaciones morfológicas no son resultado de una


acumulación gradual de mutaciones a lo largo de muchas generaciones de una
población, como defiende el modelo neodarwinista, ni de la rápida propagación
de mutaciones adaptativamente beneficiosas en una subpoblación aislada, sino
de la interrupción súbita y severa del estado normal de homeostasis del ADN.
Esta hipótesis ofrece una explicación más persuasiva de la causa de la estasis
morfológica seguida por un importante cambio genómico, pero tanto los
biólogos neodarwinistas como los defensores de la hipótesis de Eldredge y
Gouls la han ignorado.
De todos modos, Maresca y Schwarz se muestran difusos en lo referente a la
naturaleza de estas «restructuraciones importantes y potencialmente no letales
(¿y por lo tanto “útiles”?» y en cómo dichas restructuraciones conducen hacia la
especiación o producen transiciones evolutivas o emergencias que muestren un
patrón de incremento de la complejidad.

Selección estabilizadora

Defendiendo el modelo neodarwinista contra la llamada de Eldredge, Gould


y otros paleontólogos exigiendo una revisión fundamental del mismo, el
botánico y genetista G. Leylard Stebbins y el genetista molecular Francisco José
Ayala, argumentaron en 1981 que la transformación del acervo génico de una
población a lo largo de muchísimas generaciones es compatible con una
especiación tanto gradual como puntuada.
Se preguntaron si el fenómeno de la estasis paleontológica es tan común
como se dice. Defendieron que cuando se produce, la evolución molecular puede
seguir produciéndose aunque las morfologías (los únicos cambios que puede
identificar el registro fósil) permanezcan estables, lo cual quedaría explicado por
el concepto de selección estabilizadora de Dobzhansky. Así, los genes que
codifican para una morfología adaptativa exitosa, como la de los tiburones o los
helechos, se seleccionarían naturalmente de forma continuada, de tal modo que
la morfología se estabiliza, mientras que los genes que codifican para otros
caracteres cambian, produciendo incluso sucesos de especiación.[14]
Sus argumentos son principalmente teóricos, y creo que Peter G. Williamson,
paleontologo de la Universidad de Harvard, acierta en su conclusión:

El amplio rango de hábitats que están hoy en día explotados por especies modernas
morfológicamente uniformes aunque extensamente distribuidas, y la estasis morfológica prolongada
(hasta 17 millones de años) que exhiben muchos linajes fósiles en hábitats fluctuantes, es un potente
argumento contra la idea de que la selección estabilizadora es la explicación adecuada para el
fenómeno de la estasis biológica.[15]

Teoría neutral
Desde que en 1968 publicara su artículo introduciendo la idea, Motoo
Kimura lideró un grupo de genetistas de poblaciones que defendían con
argumentos matemáticos que prácticamente todas las mutaciones genéticas que
persisten o alcanzan una frecuencia elevada entre la población a lo largo de
generaciones son selectivamente neutrales; es decir, no tienen un efecto
apreciable sobre la idoneidad o la adaptación morfológica.
Entre las evidencias que aportan a la hipótesis está una especie conocida
como el tiburón de Port Jackson, que ha permanecido morfológicamente similar
durante unos 300 millones de años a pesar de los drásticos cambios
medioambientales que supuestamente han provocado tres extinciones en masa;
subsiste hoy en día como un «fósil vivo» a pesar de su tasa de cambio genético,
calculada por el número de diferencias en los aminoácidos de la globina alfa y la
globina beta (150) que se acerca a la del linaje humano (147). A lo largo del
mismo periodo, por otro lado, los humanos evolucionaron, con muchas
transiciones, a partir de mamíferos con aspecto de reptil. En general, la tasa de
cambio genético es constante para todos los linajes, pero la tasa de cambio
morfológico varía de forma significativa entre distintos linajes.[16],[17]
La teoría neutral es, esencialmente, la hipótesis de la deriva genética de
Sewall Wright, que fue ignorada por los arquitectos del modelo neodarwinista
por ser inconsistente con la transformación del acervo genético de una población
a partir de la selección natural de mutaciones genéticas adaptativamente
beneficiosas.
H. Allen Orr, defensor de la ortodoxia neodarwinista, argumenta que las
nuevas tecnologías que permiten la secuenciación del genoma y los nuevos test
estadísticos que facilitan la distinción entre los cambios neutrales que se
producen en el genoma y los cambios adaptativos, sugieren que los defensores
de la teoría neutral infravaloran la importancia de la selección natural. Cita un
análisis llevado a cabo por David J. Begun y Charles H. Langley, de la
Universidad de California, Davis, con 6.000 genes de dos especies de mosca de
la fruta que divergen de un antepasado común y llega a la conclusión de que la
selección natural positiva —en la que el entorno aumenta la frecuencia de una
mutación beneficiosa que de entrada es muy excepcional— es responsable de al
menos el 19 por ciento de las diferencias genéticas entre las dos especies.[18] De
ser así, no sería un respaldo categórico para un modelo cuyo único mecanismo
para la transformación genética es la selección natural (a pesar de la falacia de
que el entorno selecciona activamente).

Duplicación total del genoma

La acumulación de descubrimientos de casos de polipoidía no solo en plantas


sino también en un amplio abanico de especies animales[19] ha reavivado el
interés por la hipótesis planteada en 1970 por el genetista molecular Susumu
Ohno, que en su momento fue ignorada o rechazada.
Basándose en el tamaño relativo de los genomas y en la observación de que
las especies tetraploides (que poseen cuatro juegos de cromosomas en cada
célula) se producen de forma natural entre peces y anfibios, Ohno especuló que
esta duplicación del número normal de cromosomas era la responsable de las
principales innovaciones evolutivas. Se conoce también como la hipótesis 2R,
puesto que su posterior afinamiento propone dos rondas de duplicación total del
genoma, WGD (del inglés Whole Genome Duplication) cerca de la raíz ancestral
del árbol de los vertebrados. La hipótesis afirma que esta WGR permitió que la
innovación biológica se produjera de forma mucho más eficiente y defiende que
todos los vertebrados, humanos incluidos, son poliploides degenerados.
Se trata de reivindicaciones controvertidas y difíciles de probar debido a lo
poco que sabemos sobre la diploidía, el proceso por el cual una especie
tetraploide degenera para convertirse en diploide. Sin embargo, la hipótesis está
sustentada por la evidencia de que una gran parte del genoma humano, y también
del genoma de la rata, contiene pares de genes en un cromosoma que están
duplicados en tres cromosomas más. En 2007, el patólogo Masanori Kasahara
declaró que los análisis genómicos de destacadas especies de cordados ofrecen
actualmente «evidencias indiscutibles que sustentan la hipótesis 2R».[20]

Epigenética
Las evidencias de herencia de caracteres adquiridos sin que se produzca
ningún cambio genético amplió el interés en la epigenética, que se había estado
utilizando para investigar la embriología y el desarrollo.
Como el darwinismo, el término se utiliza con sentidos distintos. Los
investigadores actuales emplean términos técnicos en sus distintas definiciones,
que podrían resumirse como sigue:

Epigenética: el estudio de los mecanismos de la regulación genética que


causan cambios en el fenotipo de un organismo pero no implican ningún
cambio en las secuencias de ADN de dichos genes.

Incluye mecanismos por los cales las células madre se diferencian en células
con funciones especializadas para formar el cuerpo de un embrión que acabará
desarrollándose en un organismo independiente. Muchos de estos patrones
epigenéticos se reinician cuando los organismos se reproducen, pero las
evidencias obtenidas a lo largo de estos últimos diez años demuestran la herencia
epigénetica.

Herencia epigenética: transmisión de una célula madre a una célula hija,


tanto por replicación asexual como por reproducción sexual, de
variaciones que dan lugar a variaciones en los caracteres de un organismo
pero que no implican variaciones en las secuencias de base del ADN.

Se han identificado los siguientes mecanismos principales:

a. Cambio químico, especialmente la metilación, en la que un grupo metilo


(CH3-) sustituye al hidrógeno (H-) o a otro grupo en una molécula de
ADN o en las proteínas denominadas histonas, que empaquetan ADN en el
núcleo celular en la forma condensada conocida como cromatina.
b. Cambios en el plegado de la cromatina de una célula.
c. Unión específica de ARN pequeño nuclear a secuencias de ADN.
Los distintos mecanismos de activación o silenciamiento génico pueden
actuar de manera independiente o ser interdependientes, en el sentido de que en
cuanto se produzca una modificación para activar o silenciar un gen se
produzcan más modificaciones.
La herencia epigenética, por lo tanto, no implica cambios en los genes en sí,
como sucede con el modelo neodarwinista, sino cambios en cómo se expresan
los genes. Ofrece una explicación molecular para la herencia lamarquiana de
caracteres adquiridos. Por ejemplo, Matthew Anway y sus colegas llegaron a la
conclusión de que el aumento de infertilidad heredado a través de la línea
masculina de ratas sin ningún cambio genético subyacente[21] está asociado con
la metilación.

Homología profunda y evolución paralela

Motivado por el descubrimiento de que los genes reguladores del desarrollo


son muy similares en un amplio rango de especies, el paleontólogo y biólogo
evolutivo Neil Shubin y sus colegas de la Universidad de Chicago, propusieron
en 1997 la hipótesis de la homología profunda. La hipótesis reivindica
básicamente que un antepasado común muy remoto poseía estos genes, o
antiguas versiones de estos genes, y que lo que podrían parecer convergencias
evolutivas independientes son en realidad evoluciones paralelas. Además, los
proponentes afirman que su hipótesis se ha visto reforzada por el descubrimiento
de muchas más homologías profundas a lo largo de los doce años siguientes a su
anuncio.[22]
En el caso de los ojos, por ejemplo, Shubin afirma que todas las variaciones
modernas de sensibilidad a la luz que presentan animales bilaterales se remontan
a la existencia de células fotosensibles en un antepasado común, con el Pax-6 y
otros factores de transcripción ocupando una vía reguladora génica que conduce
a la producción de proteínas opsinas.
A pesar de que Shubin defiende que esos circuitos reguladores antiguos
proporcionan un sustrato al partir del cual se desarrollan estructuras nuevas, no
explica ni por qué se desarrollan ni por qué la regulación por parte de los genes
de la familia Hox producen planes orgánicos tan distintos en los animales
bilaterales.

Convergencia evolutiva

Simon Conway Morris, paleontólogo de la Universidad de Cambridge,


afirma que el principio adaptativo y la herencia restringen la evolución biológica
a resultados limitados. Sustenta su hipótesis de la convergencia evolutiva con
ejemplos que abarcan la totalidad de la jerarquía biológica, desde las moléculas
hasta los órganos pasando por los sistemas sociales y los procesos cognitivos.
[23]
La cantidad de aminoácidos es muy amplia, pero en los distintos organismos
solo encontramos 20. Si tenemos en cuenta que una proteína pequeña consta de
una cadena de 100 aminoácidos, se deduce que las proteínas podrían combinarse
potencialmente de 20100, o 10130 maneras distintas, una cifra astronómica, pero
en los organismos solo encontramos una fracción infinitesimalmente pequeña de
todas esas posibilidades. De un modo similar, en sus funciones metabólicas están
plegadas en solo una minúscula parte de todas las formas posibles.[24]
En lo referente a los órganos, Conway Morris afirma que el ojo similar a una
cámara monofocal ha evolucionado independientemente un mínimo de seis
veces en especies que van desde los pulpos hasta los mamíferos, mientras que en
un amplio espectro de especies se produce una «convergencia desenfrenada» en
otros órganos, como los responsables del olfato, el oído, la ecolocalización y la
electrorecepción. Defiende que en las restricciones que acompañan el desarrollo
de órganos sensoriales «podemos abordar el problema más amplio de la
evolución de sistemas nerviosos, cerebros y tal vez, por último, de la
consciencia».
También la conducta exhibe convergencia evolutiva. La eusocialidad,
organización en la que solo hay una hembra reproductora mientras los demás
miembros de la colonia llevan a cabo funciones especializadas, ha evolucionado
independientemente no solo en muchas especies de hormigas, abejas, avispas y
termitas, sino también en camarones y ratas topo lampiñas. A pesar de que no
todas las especies de insectos son eusociales, Conway Morris afirma que las que
lo son dominan entorno, es decir, tienen mayor éxito adaptativo y han llevado a
la extinción a sus equivalentes no eusociales. La agricultura ha evolucionado de
manera independiente, desde las hormigas cultivadoras de hongos de
Centroamérica y América del Sur hasta los humanos.
Conway Morris reconoce que, al estar los árboles filogenéticos en un estado
de flujo constante, puede resultar complicado distinguir entre evolución
convergente independiente y evolución paralela. Pero sostiene que los casos que
cita son de especies muy distintas para de este modo minimizar la probabilidad
de evolución paralela. Considera que el papel de los genes conservados que
regulan el desarrollo en un amplio rango de especies, como el Pax-6 para los
ojos, está excesivamente subrayado, ya que el Pax-6 está implicado también en
el desarrollo de otros órganos. Se expresa también en nematodos sin ojos y, por
mucho que el desarrollo de los ojos esté controlado por el Pax-6, las estructuras
de los ojos en sí han evolucionado por convergencia.
Concluye con que la convergencia evolutiva permite predicciones de primer
orden de la emergencia de importantes propiedades biológicas en la Tierra. Y
una de ellas es el progreso.

Lo que vemos a lo largo del tiempo geológico es la emergencia de mundos más complejos […] en
los animales vemos la emergencia de cerebros más grandes y más complejos, de vocalizaciones
sofisticadas, de ecolocalización, de percepción eléctrica, de sistemas sociales avanzados (incluyendo
la eusocialidad), de la viviparidad [parir crías vivas], de la sangre caliente y de la agricultura, todo lo
cual es convergente; a mí, todo esto me suena a progreso.

Además:

Las restricciones de la evolución y la ubicuidad de la convergencia hacen casi inevitable la


emergencia de algo como nosotros.

El ecologista especializado en animales, Rob Hengeveld, de la Universidad


de Ámsterdam, atacó esta hipótesis argumentando que Conway Morris es
selectivo en sus ejemplos e ignora el número inmensamente mayor de
divergencias que aparecen en la evolución biológica. Además, afirma que
muchas de las supuestas convergencias son cuestionables. Por ejemplo, solo
unos pocos peces exhiben forma de torpedo en contraposición con los muchos
miles de especies con otras formas.
Considero que Hengeveld tiene razón al criticar algunas supuestas
convergencias. Además, la supuesta evolución independiente de la agricultura en
las hormigas cultivadoras de hongos y los humanos, por ejemplo, combina la
conducta instintiva de las hormigas con la conducta inteligente y con propósito
del hombre.
Hengeveld lleva asimismo la razón cuando subraya el patrón de la
divergencia evolutiva, que Conway Morris ignora en gran medida. Por otro lado,
Conway Morris acierta al identificar el patrón de incremento de complejidad.
Ambos patrones son compatibles: ha habido una gran cantidad de linajes
animales divergentes; el proceso de incremento de complejidad se ha producido
en todos ellos, desde procesos comparativamente pequeños hasta mucho más
grandes, hasta alcanzar la estasis (y comúnmente la extinción) al final de cada
linaje, y hasta la máxima complejidad mayor de los humanos.
Conway Morris atribuye la causa de la convergencia evolutiva al «principio
adaptativo» y a las «restricciones de la evolución», que es «la tendencia
recurrente de la organización biológica para llegar a la misma “solución” para
una “necesidad” concreta», en gran parte debida a la «herencia». Pero todo esto
describe el patrón que sigue un fenómeno, no una causa de ese patrón.
Si el principio adaptativo y la herencia tienen que ir más allá de la tautología
o la descripción, deberían estar enmarcados como un principio específico o una
ley aplicable a todos los fenómenos biológicos, cosa que en este momento no
sucede.

Teoría de la emergencia

En el capítulo 15 tratamos la propuesta de Harold Morowitz como otra


explicación de la emergencia de la vida.[25] Morowitz identifica 19 emergencias
de complejidad creciente en la evolución de la vida, desde las procariotas hasta
la filosofía. Para explicar por qué en cada una de estas importantes fases de
transición evolutiva emergen relativamente pocas entidades habiendo
incontables posibilidades, Morowitz busca reglas de selección, los equivalentes
biológicos al principio de exclusión de Pauli, que seleccionan de entre la miríada
de posibles niveles de energía de los electrones de un átomo, aquellos que
producen el menor número de elementos presentes en la naturaleza.[26]
Morowitz afirma que en algunos casos «en el competitivo dominio
darwinista» el «principio de selección dominante es la idoneidad definida como
replicación y supervivencia», lo cual es una tautología, y en otros casos, el
principio de selección «no es en absoluto evidente».
La idea de una o más reglas de selección subyacentes para explicar las
emergencias de incremento de complejidad que Morowitz identifica resulta
atractiva. Sin embargo, igual que sucede con su explicación de la emergencia de
la vida, no ha avanzado más allá de la pura descripción del fenómeno.

Complejidad auto-organizada

Stuart Kauffman avanzó esta hipótesis como explicación de la aparición de la


vida.[27] La aplica para explicar no solo la embriología y el desarrollo del
organismo, sino también la evolución de las especies.[28]
Por lo que al primer punto se refiere, Kauffman dice que la razón por la que
las células madre con genomas idénticos se diferencian en células especializadas
—como las células hepáticas, las células musculares, etc.— es porque en cada
una de esas células madre solo está activada una cantidad relativamente pequeña
de genes, que son distintos en cada célula. Propone que un genoma opera como
una red en la que cada gen regula la actividad de los demás y donde ninguno de
ellos actúa como coordinador, y que esta conducta auto-organizativa constituye
un sistema dinámico no lineal.
Su modelo de simulación asume que cada gen es un nodo (N), que está
activado o desactivado, y que cada gen está vinculado mediante un número de
conexiones (K) a otros genes que regulan si el gen nodo está activado o no.
Suponiendo que esta red NK está gobernada por un tipo especial de lógica
booleana, que en este caso establece unas normas de conexión conocidas como
funciones canalizadoras (activado o desactivado), entonces cuando K = 1, el
sistema tiende a paralizarse. Si K es mayor que 2, el sistema se vuelve caótico.
Pero cuando K = 2, el sistema alcanza espontáneamente la estabilidad al borde
del caos. Concretamente, se establece en un patrón que repite un ciclo de estados
en el que la duración de cada ciclo de estado es igual a la raíz cuadrada de N. Por
lo tanto, si un genoma tuviera 100 genes y cada uno de ellos estuviera conectado
con otros dos genes, se establecería en un ciclo repetitivo de 10 pasos (puesto
que 10 es la raíz cuadrada de 100); durante cada paso, se conectaría una
maquinaria química distinta para producir una célula con una función distinta,
una célula muscular o una célula hepática, por ejemplo.
Kauffman afirma que el número de pasos de cada ciclo de estado es
aproximadamente igual al número de tipos de especialización de las células. Así
pues, en el caso del genoma humano que supone integrado por 100.000 genes, la
raíz cuadrada de 100.000 es 316, por lo que el modelo predice que el número de
tipos distintos de células especializadas debería ser 316, que se acerca al número
real, 254.[29] (En la actualidad se estima que el hombre tiene como máximo
25.000 genes, y la raíz cuadrada de 25.000 es 158.)
Kauffman compara el número de tipos distintos de células con la raíz
cuadrada del número de genes de distintos organismos, desde las bacterias hasta
el hombre, y descubre una estrecha correlación. Esto, afirma, es la confirmación
empírica de su hipótesis.
Que los genes de una célula madre organicen espontáneamente la producción
de las distintas células especializadas según una regla implícita que dicta que el
número de conexiones de un gen con otros genes es dos, resulta una idea
atractiva. Parece identificar un equivalente biológico al principio de exclusión de
Pauli.
Sin embargo, el modelo de Kauffman no explica por qué los genes empiezan
a interactuar. Tampoco explica por qué el número de conexiones es dos (aunque
el principio de exclusión de Pauli tampoco explica por qué no existen dos
electrones en un átomo o una molécula que tengan los mismos cuatro números
cuánticos).
Pero mientras que el principio de exclusión de Pauli predijo con precisión la
existencia de los nuevos elementos que se han ido descubriendo posteriormente,
la reivindicación de precisión predictiva de Kauffman queda cuestionada por lo
que sabemos en la actualidad sobre los genes y los genomas. Sus correlaciones
asumen que el número de genes de un organismo es proporcional a la cantidad
de su ADN, pero la tabla 18.1[30] muestra que no es precisamente el caso.
Y aun a pesar de que los genes están, efectivamente, regulados por redes,
estas redes implican no solo los genes que comprenden el 2 por ciento del
genoma, sino también la mayoría del restante 98 por ciento del ADN del
genoma.
Sirviéndose de razonamientos, supuestos y modelos de simulación similares,
defiende que una red compleja de especies que interactúen entre ellas y con su
entorno, y sujeta a la fuerza de la selección natural (aquí, parece aceptar la idea
equivocada de que la selección natural es una causa), evolucionará de forma
natural hacia una fase de transición al borde del caos. Una vez ahí, en
homeostasis, la evolución biológica se producirá con rapidez porque la red posee
estabilidad pero sus partes están conectadas con la holgura suficiente como para
que un cambio en una o más de sus partes provoque un cambio en la totalidad de
la red interactiva.
Kauffman planteó esta idea en 1991, y desde entonces, matemáticos,
científicos informáticos y físicos del campo del estado sólido han refinado sus
modelos de simulación. Pero los avances han sido insuficientes en cuanto a basar
los diversos modelos en datos biológicos. Por lo tanto, igual que sucede con su
explicación sobre la aparición de la vida, la idea no ofrece, por el momento, más
que la esperanza de que sus modelos acaben produciendo nuevas leyes de la
evolución biológica más profundas o una ley fisicoquímica, o ley de forma, que
imponga restricciones a las, por otro lado, ilimitadas posibilidades biológicas.

Leyes de la evolución del genoma

Más recientemente, en 2011, Eugene Koonin, biólogo evolutivo informático


del US National Institutes of Health, defendió que la investigación en genómica
evolutiva cuantitativa y en biología de sistemas ha llevado al descubrimiento de
cuatro patrones universales en la evolución del genoma y el fenoma de todos
aquellos linajes evolutivos de los que tenemos datos genómicos, lo que incluye
diversos grupos de bacterias, arqueas y eucariotas.
Koomin afirma que estos patrones estadísticos tremendamente técnicos no
solo resultan sorprendentes, sino que pueden además explicarse mediante
modelos matemáticos simples muy similares a los utilizados por la física
estadística. Uno de estos modelos es el de nacimiento-muerte-innovación, que
comprende solo tres procesos elementales: (1) genes nacidos (duplicación), (2)
genes muertos (eliminación) y (3) innovación (adquisición de una nueva familia,
por ejemplo, a través de transferencia genética horizontal). Estos modelos no
incorporan la selección natural. De ahí que Koonin llegue a la conclusión de que
estos modelos no están conformados por la selección natural neodarwinista sino
que son propiedades emergentes de conjuntos de genes.
Reconoce que el proceso y el transcurso de la evolución biológica dependen
de forma crítica de la contingencia histórica e implican importantes «remiendos»
adaptativos, por lo que una teoría física completa de la biología evolutiva resulta
inconcebible. De todos modos, asevera Koonin, la universalidad de varios
patrones de genoma y de la evolución del fenoma molecular, y la capacidad de
modelos matemáticos simples de explicarla, sugieren que podrían extraerse leyes
de biología evolutiva de categoría comparable a las leyes de la física.[31]
De estar Koonin en lo cierto, este enfoque ofrecería un camino
potencialmente fructífero para que la investigación intente determinar cómo es
que los resultados de la evolución biológica están restringidos a unos pocos
teniendo en cuenta la cantidad casi ilimitada de posibilidades. Un test podría
consistir en utilizar estos modelos para predecir la futura evolución de especies
que cambian con rapidez, como la mosca de la fruta.

Ingeniería genética natural

También en 2001, James Shapiro, profesor del departamento de Bioquímica y


biología molecular de la Universidad de Chicago, desafió la ortodoxia
neodarwinista que aboga que la evolución biológica está causada por cambios
genéticos generados aleatoriamente en genomas que, por lo demás, se muestran
estáticos. Shapiro defiende que las células poseen una capacidad innata para
reorganizar sus genomas como respuesta a centenares de inputs distintos.
Para sustentar lo que denomina «ingeniería genética natural», se inspira en
las evidencias examinadas en los capítulos 17 a 19, junto con las hipótesis
discutidas en este capítulo, además de sus propias ideas. Concretamente,
defiende que el éxito en la hibridación entre miembros de distintas especies,[32]
los transposones (genes saltarines),[33] la epigenética, la transferencia horizontal
de genes,[34] la duplicación total del genoma y la simbiogénesis (la
combinación de dos organismos distintos para formar un nuevo organismo, que
se examina en el siguiente capítulo), junto con los estudios sobre el modo en que
las células realizan la regulación, la reproducción, la transmisión y la
reestructuración de sus moléculas de ADN, demuestran que los genomas no son
únicamente sistemas de memoria tipo solo lectura sujetos a cambios
accidentales; sino que son también orgánulos de almacenamiento de información
lectura-escritura en todas las escalas del tiempo, desde el ciclo de la célula hasta
los eones evolutivos. A medida que avanza la evolución, lo hace también la
«evolutibilidad»: los organismos vivos son seres que se modifican a sí mismos y
son intrínsecamente teleológicos.
El actual paradigma biológico, desarrollado por genetistas de poblaciones y
zoólogos que trabajan en laboratorios, no explica la rapidez y la variedad del
incremento de complejidad biológico; además, las mutaciones aleatorias
graduales presentan más probabilidades de degradar que de crear. Integrar la
ciencia biológica con un enfoque basado en la información —y en sistemas de
información—, dice Shapiro, producirá un nuevo paradigma para el siglo XXI.
[35]
Las críticas de Shapiro al actual paradigma ortodoxo neodarwinista están
bien fundamentadas. Sin embargo, no aporta un nuevo paradigma, sino más bien
una agenda a seguir para un paradigma basado en el concepto de la auto-
modificación de los organismos que sea más consistente con las evidencias que
el actual paradigma.

Biología de sistemas
La biología de sistemas nació a mediado de la década de los años 60 como un
enfoque multidisciplinario que, a diferencia del reduccionismo del
neodarwinismo, adopta una visión holística del fenómeno natural y pretende
descubrir propiedades emergentes.
Los biólogos reclutaron científicos informáticos, matemáticos, físicos e
ingenieros para estudiar los seres vivos como una red integrada e interactiva de
genes, proteínas y reacciones bioquímicas que da lugar a la vida y es responsable
de la forma y las funciones de los organismos. Estas propiedades emergentes,
defendieron, no son atribuibles a ninguna parte única del sistema que es, en
consecuencia, una entidad irreducible. Según lo expresó uno de sus fundadores,
Denis Noble, profesor emérito y codirector de Fisiología computacional de la
Universidad de Oxford:

La biología de sistemas […] consiste en unir más que en separar, en integración más que reducción.
Exige que desarrollemos formas de pensar sobre esa integración que sean tan rigurosas como lo son
nuestros programas reduccionistas, pero distintas […]. Se trata de cambiar nuestra filosofía, en el
sentido más completo del término.[36]

Al principio, los programas de investigación se centraron básicamente en la


ciencia médica. Un ejemplo de ello es la investigación del sistema inmunitario
de los organismos, que no son resultado de un único mecanismo o gen, sino de
las interacciones de numerosos genes, proteínas, mecanismos y del entorno
externo del organismo, el cual produce respuestas inmunes para combatir
infecciones y enfermedades.
La biología de sistemas se expandió y desarrolló en una subdisciplina propia
a principios del siglo XXI, cuando los desarrollos tecnológicos permitieron la
secuenciación de genomas completos. El intento de comprender el volumen
exponencialmente creciente de datos de secuenciación molecular dio como
resultado la dependencia de la bioinformática y de especialidades como la
genómica, la epigenómica, la transcriptómica, la proteómica, etc.
En 2010, el biólogo molecular y galardonado con un Nobel, Sydney Brenner,
atacó la biología de sistemas diciendo que estaba condenada al fracaso porque
deducir modelos de funcionamiento a partir de la conducta de un sistema
complejo es un problema inverso imposible de solventar. Lo que creo que quiso
decir es que para un sistema complejo como es una célula, existe una cantidad
inmensurable de modelos posibles y no tenemos manera de deducir cuál es el
correcto.
Los biólogos de sistemas, sin embargo, intentan encontrar reglas que
seleccionen los modelos funcionales de entre todas las posibilidades.
Normalmente lo hacen utilizando algoritmos en modelos de simulación que
llevan a la emergencia de una o más propiedades nuevas que se sitúan más
próximas a la emergencia de las propiedades nuevas observadas en el nivel
superior de la biología.
Brenner contraataca diciendo que «la mayor parte de las observaciones
realizadas por los biólogos de sistemas son fotografías estáticas y sus mediciones
son erróneas […]. Cualquier no linealidad en el sistema es garantía de que los
modelos se volverán inestables y de que no coincidirán con las observaciones».
[37]
Como subdisciplina, la biología de sistemas está tan solo en su infancia y es
demasiado temprano para rechazarla. Más bien al contrario, su enfoque
filosófico acierta al tratar cosas como las células y los niveles superiores, como
los organismos, y los niveles más altos aun, como las colonias de hormigas,
como partes interrelacionadas de todos irreductibles que interactúan con su
entorno. El principal peligro en el futuro es que, en su deseo de ser tan rigurosos
como los reduccionistas, los biólogos de sistemas acaben centrándose en exceso
en la investigación especializada de las partes y pierdan el foco en el todo.

La hipótesis de Gaia

Muy similar en concepto, pero más amplia en su aplicación, puesto que


abarca la Tierra entera, es la hipótesis de Gaia que originó en los años 60 el
científico independiente británico, James Lovelock. Propone que la biosfera, la
atmósfera, los océanos y el suelo de la Tierra forman un sistema interactivo y
autorregulado que produce un entorno físico y químico óptimo para la aparición
de la vida.[38]
Desde que Lovelock desarrollara su hipótesis en colaboración con Lynn
Margulis, los nuevos datos y las críticas iniciales han hecho que el argumento se
ramificara en multitud de formas defendidas por diversos proponentes.
Por lo que a la evolución biológica se refiere, la hipótesis de Gaia rechaza el
modelo neodarwinista de una adaptación muy gradual de las poblaciones a su
entorno físico. Ese entorno físico está conformado por una red de sistemas vivos
capaz de innovar, lo que da como resultado la co-evolución a nivel planetario
con esas redes inanimadas. Según lo expresa Lovelock: «La evolución de los
organismos vivos está tan estrechamente ligada a su entorno, que juntos
constituyen un único proceso evolutivo».[39]
Por intuición, todo esto tiene sentido, y gran parte de las sencillas
simulaciones por ordenador de la hipótesis de Gaia se asientan sobre datos
atmosféricos, oceánicos y biológicos a nivel global. Sin embargo, tal y como está
actualmente desarrollada, la hipótesis no ofrece una explicación lo bastante
tangible de la evolución de las especies.

Causación formativa

La hipótesis epigenética examinada previamente sugiere cómo se producen


los cambios no genéticos, pero no explica por qué se producen: por qué un grupo
metilo sustituye al hidrógeno o por qué un mecanismo epigenético hace que las
células madre se diferencien en células hepáticas, células nerviosas, etc. y luego
se desarrollen en un adulto independiente, un proceso conocido como
morfogénesis.
La hipótesis de causación formativa del biólogo especializado en células
vegetales, Rupert Sheldrake, que hemos visto en el capítulo 13 al examinar las
ideas sobre qué es la vida, propone no solo cómo se producen la morfogénesis y
la evolución biológica, sino también por qué lo hacen: la naturaleza es habitual.
[40]
En opinión de Sheldrake, las leyes universales inmutables, es decir, los
conceptos deterministas newtonianos, no existen. (¿Cuál es la causa de leyes
universales? Según Newton, la causa es Dios.) Propone que la memoria está
inherente por naturaleza en la forma de los campos mórficos universales que
causan el desarrollo de formas de todos los niveles de complejidad, de
estructuras y de organizaciones, desde los átomos hasta la conducta y la mente, y
que estos campos mórficos evolucionan a medida que el universo evoluciona.
Por lo tanto, la morfogénesis está gobernada por un campo morfogenético
que impone un patrón a lo que, de no tenerlo, sería una actividad aleatorio o
indeterminado. Este campo está generado por el patrón de, por ejemplo, todas las
células madre previas que se han diferenciado en células hepáticas, células
nerviosas, etc., lo cual sucede cuando distintos conjuntos de genes en genomas
idénticos se conectan durante periodos determinados. El campo morfogenético
impone este patrón de desarrollo característico a través de lo que Sheldrake
denomina «resonancia mórfica», por analogía con la resonancia energética. Por
ejemplo, para producir su espectro de absorción característico, los átomos y las
moléculas solo absorben ondas luminosas de determinadas frecuencias. Los
núcleos atómicos colocados en un campo magnético fuerte solo absorben ondas
de radio de determinadas frecuencias, un fenómeno conocido como resonancia
magnética nuclear. En cada uno de estos casos, el sistema responde, o resuena,
solo a frecuencias seleccionadas.
Así pues, cada célula madre resuena hacia el campo morfogenético para
producir su desarrollo específico. El mecanismo por el cual se regulan los genes
podría muy bien ser la metilación o cualquier otro mecanismo epigenético. La
conducta diferenciadora de las nuevas células madre repercute por resonancia al
campo morfogenético universal, incorporando con ello nueva información, de
modo que el campo evoluciona.
Esta hipótesis ofrece una respuesta a la búsqueda de un principio de
selección en todos los casos considerados hasta el momento, donde las
teóricamente ilimitadas posibilidades quedan constreñidas a una pequeña
cantidad de resultados observador. Por ejemplo, la diferenciación inicial,
probablemente aleatoria, de una célula madre en lo que acabará convirtiéndose
en una célula hepática genera un campo morfogenético que refuerza esta
tendencia. Millones de años más tarde, y debido al hecho de que el número de
células madre que se diferencian para dar lugar a células hepáticas es tan
inmenso, el patrón impuesto a la conducta de cualquier célula madre nueva será
tan grande que parecerá que existe una ley que lo gobierna. Pero no se trata de
un principio, en el sentido de una ley universal aplicable en todo momento. Los
pequeños cambios en la conducta de las nuevas células madre se van
incorporando al campo morfogenético; con el tiempo, estos cambios se
acumulan y causan la evolución de este campo y, en consecuencia, de la ley
observada y de la conducta de las células madre posteriores.
Sheldrake aplica el concepto de formación causativa a todos los aspectos de
la evolución biológica, ofreciendo una explicación al fenómeno que entra en
conflicto con la ortodoxia neodarwinista, y afirma tener base empírica. En el
caso de la herencia de caracteres adquiridos, por ejemplo, William Agar y sus
colegas de la Universidad de Melbourne informaron en 1954 de un experimento
diseñado para eliminar los fallos de experimentos previos de entrenamiento de
ratas. El equipo introdujo una especie de rata en una pecera con agua con dos
posibles vías de escape. La salida «correcta» estaba oscura y la salida «mala»
estaba iluminada. Las ratas que elegían la salida mala recibían una descarga
eléctrica. Los investigadores alternaron la salida correcta y la salida mala en las
diversas repeticiones del experimento, y las ratas fueron aprendiendo lentamente
a utilizar la salida correcta.
Durante un periodo de 20 años o, lo que es lo mismo, 50 generaciones
sucesivas, Agar realizó mediciones del aprendizaje de ratas entrenadas y
entrenadas. Descubrió una marcada tendencia en las ratas del linaje entrenado a
aprender con mayor rapidez a medida que avanzaban las generaciones, en
conformidad con la explicación epigenética de la herencia lamarquiana de
caracteres adquiridos. Pero descubrió también la misma tendencia en el linaje de
ratas no entrenadas, lo cual no queda explicado por la herencia lamarquiana, y
mucho menos por el modelo neodarwinista.[41]
Sheldrake tiene una mentalidad lo bastante abierta como para reconocer que,
a pesar de que el experimento es consistente con la hipótesis de causación
formativa, no sirve para demostrarla, puesto que esta mejoría en el nivel de
aprendizaje que exhiben las ratas no entrenadas con el paso de las generaciones
podría ser debida a alguna causa que desconocemos.
La falta de verificación experimental de la hipótesis desde que Shelldrake la
planteó en 1981 es atribuible a la escasa mentalidad abierta de la clase científica.
[42]

Después de considerar las hipótesis que amplían o desafían los principios del
neodarwinismo, principalmente para explicar el patrón empírico de rápido
incremento de la complejidad y de la innovación biológica, haré lo mismo para
las hipótesis que pretenden explicar el patrón de colaboración que encontramos
de forma ubicua en toda la naturaleza.
[1] Véase página 371.
[2]Wells (2000).
[3] Véase página 365.
[4] Véase página 523.
[5] Véase página 540.
[6] Véase página 498.
[7] Véase página 493.
[8] Véase página 541.
[9]Behe (2007).
[10]Eldredge (1995), pp. 64–66.
[11]Eldredge, Niles y Gould, Stephen J., «Punctuated Equilibria: An Alternative to Phyletic
Gradualism», pp. 82-115 en Models in Paleobiology, Freeman Cooper, San Francisco, 1972.
[12]Dawkins (1996), pp. 250–251.
[13]Maresca, B. y Schwartz, J. H., «Sudden Origins: A General Mechanism of Evolution Based on
Stress Protein Concentration and Rapid Environmental Change», The Anatomical Record Part B: The New
Anatomist, 289B: 1, 2006, pp. 38–46.
[14]Stebbins, G. Ledyard y Ayala, Francisco J., «Is a New Evolutionary Synthesis Necessary?»,
Science, 213: 4511, 1981, pp. 967–971.
[15]Williamson, Peter G., «Morphological Stasis and Developmental Constraint: Real Problems for
Neo-Darwinism», Nature, 294, 1981, pp. 214–215.
[16]Kimura (1983).
[17] Véase página 527 para ejemplos similares aportados por Christian Schwabe en 1986.
[18]Orr, H. Allen, «Testing Natural Selection», Scientific American, 300, 2009, pp. 44–51.
[19] Véase página 438.
[20]Kasahara, Masanori, «The 2R Hypothesis: An Update», Current Opinion in Immunology, 19: 5,
2007, pp. 547–552.
[21] Véase página 493.
[22]Shubin, Neil, et al., «Deep Homology and the Origins of Evolutionary Novelty», Nature, 457:
7231, 2009, pp. 818–823.
[23]Conway Morris (2005).
[24] Véase páginas 353 a 362.
[25] Véase página 392.
[26] Véase página 232.
[27] Véase página 387.
[28]Kauffman, Stuart A., «Antichaos and Adaptation», Scientific American, 1991, pp. 78–84 y
Kauffman (1996).
[29] Kauffman propone en realidad 370, y no 316. El número de tipos distintos de células depende del
criterio de clasificación; la mayoría de clasificaciones establece entre 210 y 260, pero agrupan todas las
neuronas del sistema nervioso central como un solo tipo.
[30] Véase página 505.
[31]Koonin, Eugene V., «Are There Laws of Genome Evolution?», PLoS Comput Biol, 7: 8, 2011,
e1002173.
[32] Véase página 452.
[33] Véase página 503.
[34] Véase página 491.
[35]Shapiro (2011).
[36]Noble (2006), p. 21.
[37]Brenner, Sydney, «Sequences and Consequences», Philosophical Transactions of the Royal Society
B: Biological Sciences, 365: 1537, 2010, pp. 207–212.
[38] Véase página 301.
[39]Lovelock (1991), p. 99.
[40] Véase página 323.
[41]Sheldrake (2009), pp. 222–229.
[42] Véase página 325.
CAPÍTULO 23. HIPÓTESIS COMPLEMENTARIAS Y
EN COMPETENCIA 2: COLABORACIÓN

Uno de los mayores problemas de las ciencias biológicas y sociales es explicar conductas sociales
como la cooperación.

STUART WEST, 2011

Gran parte de lo que Darwin dijo está, en detalle, equivocado. Si Darwin lo leyera [El gen egoísta]
apenas reconocería en él su teoría original.

RICHARD DAWKINS, 1976

La vida no se extendió en el planeta a base de batallas, sino gracias al networking.

LYNN MARGULIS, 1987

Sociobiología

Los intentos de explicar la colaboración y el altruismo en términos del


modelo neodarwinista han ocupado a entomólogos, zoólogos, etólogos,
genetistas de poblaciones y otros biólogos desde la formulación del mismo,
puesto que la única conducta que reconoce ese modelo es la competencia. La
conducta social de muchas especies de insectos puso el problema en el blanco de
todas las miradas y fue uno de los entomólogos más punteros, Edward O.
Wilson, quien, en 1975, puso formalmente en marcha la nueva subdisciplina de
la sociobiología con la publicación de su libro Sociobiology: the New
Synthesis[1]. En él, Wilson revisaba las hipótesis planteadas por especialistas en
distintos campos y pedía su integración para producir un «estudio sistemático de
la base biológica de toda la conducta social», incluyendo la humana. Plantea el
axioma central de que la conducta del individuo está conformada por sus genes
y, por lo tanto, es hereditaria y sujeta a selección natural.[2]

Selección de grupo

Mucho antes de que se elaborara la síntesis neodarwinista, Darwin había


reconocido el conflicto entre su hipótesis, que está enraizada en el egoísmo
competitivo, y la ética humana. Y había llegado a la conclusión de que, a pesar
de que los hombres con estándares éticos elevados tienen nula o escasa ventaja
sobre los demás de la misma tribu, una tribu que disponga de hombres
dispuestos a ayudarse mutuamente y a sacrificarse por el bien común, saldrá
victoriosa sobre las demás tribus «y esto sería selección natural».[3]
Aunque Darwin había estado considerando que la conducta humana estaba
regida por la razón, en un libro publicado en 1962 y titulado Animal Dispersion
in Relation to Social Behaviour [Dispersión animal en relación a la conducta
social], el zoólogo Vero Wynne-Edwards aplicó la idea de selección de grupo a
la conducta animal, argumentando que muchas conductas son adaptaciones del
grupo más que adaptaciones del individuo.
El biólogo evolucionista teórico, George C. Williams, atacó esta hipótesis en
el influyente libro que publicó en 1966 bajo el título Adaptation and Natural
Selection [Adaptación y selección natural] en el que afirmaba que «las
adaptaciones a nivel de grupo en realidad no existen».[4]
Williams no criticaba la fusión entre conducta animal instintiva y conducta
humana intencionada. Más bien al contrario, aplicó el enfoque reduccionista a
animales y humanos declarando que «el objetivo de la reproducción de un
individuo es […] maximizar la representación de su propio plasma germinal, en
relación con el de otros miembros de la misma población».[5] Williams ayudó a
sentar las bases de la visión radical de la conducta centrada en el gen, que adoptó
a partir de entonces la mayoría de sociobiólogos.

Altruismo por parentesco o aptitud inclusiva


No sé si se trata de un mito urbano, pero se dice que esta hipótesis tiene sus
orígenes en un pub británico a mediados de la década de los 50, cuando al
genetista J. B. S. Haldane le preguntaron si daría la vida por su hermano.
Después de hacer unos cuantos cálculos, respondió que solo daría la vida por dos
hermanos u ocho primos. Su razonamiento era el siguiente: teniendo en cuenta
que cada hermano compartía la mitad de sus genes, y que cada primo hermano
compartía una octava parte de sus genes, solo podía garantizar la supervivencia
de las copias de sus genes si un mínimo de dos hermanos u ocho primos
sobrevivían después de su muerte.
Publicó estas conclusiones en 1955,[6] pero fue otro genetista teórico,
William D. Hamilton, quien formalizó la hipótesis en 1964[7] en forma de un
complejo modelo matemático basado en supuestos sobre genes que llevaría a los
individuos a comportarse según una fórmula que acabó conociéndose como la
Regla de Hamilton:

r x B > C

Donde r es el grado de relación genética (nivel de parentesco) entre el


altruista y el beneficiario, B es el beneficio reproductivo (en número de
descendientes) conseguido por el receptor de la conducta altruista, y C es el
coste reproductivo (en número de descendientes) que sufre el individuo que se
comporta altruistamente.
En el caso de hermanos, r es ½ porque tienen en común la mitad de sus
genes, mientras que en primos hermanos r es 1/8, porque tienen una octava parte
de sus genes en común. El altruismo por parentesco dice explicar la conducta
altruista en humanos y animales, como el de las hormigas obreras que
prescinden de su capacidad reproductora para colaborar en el incremento de
capacidad reproductora de la reina, que es su madre.
Hamilton lo denominó «aptitud inclusiva», un fenómeno que los genetistas
teóricos definieron como la capacidad de un organismo de transmitir sus genes a
la siguiente generación. Según Hamilton, podría realizarse directamente a través
de la reproducción sexual, por la que se transmiten la mitad de los genes a la
descendencia, o también indirectamente fomentando la reproducción de genes
idénticos en otros organismos. De este modo, su aptitud inclusiva incluía
métodos tanto directos como indirectos.
George Price, fisicoquímico norteamericano, desarrolló un teorema
matemático para ampliar y demostrar la idea de Hamilton. Pero Price reconoció
que una prueba matemática de que la conducta altruista era resultado de que los
genes conservaban copias de sí mismos a través de los parientes más próximos,
no era una prueba empírica de que el altruismo funcionara así en el mundo real.
Para demostrarlo, empezó a donar sus posesiones a gente con quien no tenía
ningún tipo de parentesco genético: vagabundos, alcoholicos y drogadictos. Al
final, fue desahuciado de la vivienda que tenía alquilada y después de vivir en
varios edificios ocupados del norte de Londres, acabó suicidándose.[8]
La hipótesis del altruismo por parentesco, o la aptitud inclusiva, presenta seis
principales problemas.
En primer lugar, no aborda la conducta de las especies más numerosas del
planeta, los organismos unicelulares, como los procariotas, que se replican
produciendo clones de sí mismos y pueden utilizar la transferencia genética
horizontal para obtener genes o transmitir genes a especies con las que no
guardan ningún parentesco.
En segundo lugar, los modelos matemáticos asumen que todos los miembros
de un grupo se comportarán de la misma manera si comparten los mismos genes.
Pero en la realidad, la relación entre genes y conducta es mucho más compleja.
La variación conductual entre grupos puede ser grande aun cuando la variación
genética entre ellos sea pequeña.[9]
En tercer lugar, la mayoría de conductas animales citadas a modo de ejemplo
no son altruistas. En las sociedades de insectos, por ejemplo, la pérdida de
capacidad reproductora de las obreras para ayudar a la reina es forzada, y a
menudo mediante métodos salvajes.[10]
En cuarto lugar, confunde conducta animal instintiva con conducta humana
intencionada.
En quinto lugar, no explica la conducta altruista en los humanos. El altruismo
de Price fue excepcional solo en magnitud. Muchas monjas y monjes adoptan
expresamente el celibato y consagran su vida a actos altruistas en los que no hay
transmisión de genes, directa o indirecta, a la siguiente generación. En un
ejemplo más común, cuando un ciudadano británico dona 1.000 libras a las
víctimas del terremoto de Haití de 2010, no se produce una transmisión de
genes, directa o indirecta, a la siguiente generación.
En sexto lugar, incluso reconociendo que la inmensa mayoría de ejemplos
que encontramos de este tipo de actos en animales constituye una colaboración
forzada o instintiva más que altruista, el parentesco genético de los primos
segundos es 1/128 (uno de cada 128 genes).
A ese nivel, la reproducción indirecta de genes idénticos es mínima y, más
allá de este grado de parentesco, es desdeñable. Pero con todo y con eso,
abundan evidencias de colaboración entre miembros remotamente emparentados
de la misma especie, así como entre miembros de especies distintas.[11]

«Altruismo recíproco»

Robert Trivers, sociobiólogo teórico de la Universidad de Harvard, propuso


el concepto de «altruismo recíproco» para solventar estos dos últimos
problemas. Sostiene que animales y humanos se comportan altruistamente
porque en el futuro su gesto se verá reciprocado con otro acto altruista.
Su trascendental documento, «The Evolution of Reciprocal Altruism»[12]
[La evolución del altruismo recíproco], desarrolla la Regla de Hamilton con
formulaciones matemáticas de los beneficios y los costes netos de los distintos
actos altruistas de cada individuo, controlados por distintos genes con distintas
frecuencias de población en momentos distintos. Estableciendo en su modelo un
coste muy bajo para los altruistas y un beneficio muy alto para los receptores,
Trivers argumenta que los tramposos (individuos que se benefician del altruismo
pero que no lo devuelven) podrían acabar cobrando ventaja; sin embargo, la
selección natural acabaría favoreciendo a los individuos que discriminan contra
los tramposos y que colaboran con los individuos que los han ayudado en el
pasado. Aporta tres casos como base de su hipótesis: (a) las simbiosis
limpiadoras, (2) los gritos de alerta entre aves, y (3) el altruismo recíproco
humano.
La hipótesis, sin embargo, tiene un defecto de base fundamental. La
definición universalmente aceptada de altruismo podría resumirse como:
Altruismo: conducta caracterizada por la preocupación desinteresada por
el bienestar de los demás.

El «altruismo recíproco» es terminológicamente contradictorio. Si un acto


recibe una respuesta recíproca deja de ser un acto altruista. Se convertiría en lo
que Kropotkin describió setenta años antes como apoyo mutuo.
Las simbiosis limpiadoras, mencionadas en el capítulo 19, ejemplifican el
apoyo mutuo entre individuos de especies distintas: los pequeños peces
limpiadores, como los lábridos, se alimentan de los parásitos de la boca de peces
anfitriones de mayor tamaño que ellos, como el mero. Los beneficios que
obtienen ambas partes son inmediatos y no retardados, como insinúa la hipótesis
de Trivers: no ofrece evidencias de discriminación contra los tramposos ni de
colaboración selectiva entre individuos que los han ayudado en el pasado.
El segundo caso ya estaba documentado por Kropotkin: unas cuantas aves
actúan como centinelas para el resto de la bandada mientras esta come y lanza
gritos para llamar la atención a los depredadores, haciéndose vulnerables a ellos.
Tampoco aquí Trivers ofrece evidencias de que un ave no actúe como centinela
para aquellas aves que se han negado a actuar como centinelas en el pasado, o de
que solo actúe para aquellas que le han ofrecido este servicio en el pasado.
En el tercer caso, Trivers no hace ninguna distinción entre el apoyo mutuo
entre humanos, como sucede con las sociedades mutuas y cooperativas, y el
altruismo. El ejemplo de un altruista británico que dona 1.000 libras a las
víctimas del terremoto de 2010 en Haití no solo refuta la hipotesis del altruismo
por parentesco, sino que refuta también el «altruismo recíproco»: ningún
donante espera que las víctimas del terrorismo les devuelvan la ayuda
enviándoles 1.000 libras en un futuro, ni tampoco existen muchas probabilidades
de que puedan ayudarlos de otra manera.
A pesar de estos defectos conceptuales, el documento de Trivers fue muy
influyente entre los sociobiólogos. Sus ideas, junto con las de Hamilton, Price y
Williams, consolidaron un enfoque centrado en el gen y estimularon un aluvión
de artículos teóricos que la figura 23.1 encapsula como una matriz de cuatro
conductas básicas basadas en las ganancias y las pérdidas en la aptitud evolutiva
para el donante y el receptor. La conducta en la que tanto el donante como el
receptor ganan es cooperativa, aquella en la que el donante pierde y el receptor
gana es altruista, aquella en la que tanto el donante como el receptor pierden es
rencorosa y, por último, aquella en la que el donante gana y el receptor pierde es
egoísta.

Teoría de juegos

Para sustentar sus hipótesis, muchos sociobiólogos acuden a la teoría de


juegos. Esta teoría fue desarrollada principalmente por el matemático John von
Neumann y el economista Oskar Morgenstern en su libro The Theory of Games
and Economic Behavior [La teoría de juegos y comportamiento económico]
(1944) para predecir el comportamiento económico; se utilizó asimismo para
diseñar estrategias militares después de la Segunda Guerra Mundial. Un juego
consiste en entre dos y n jugadores colocados en una situación competitiva. Cada
jugador recibe diversas opciones, elegidas por el diseñador del juego, y juega
siguiendo unas reglas, elegidas también por el diseñador del juego, con el
objetivo de maximizar sus recompensas o minimizar las recompensas de sus
oponentes.
Con su número arbitrario de jugadores, elecciones, reglas, recompensas y
castigos, estos juegos teóricos solo pueden evaluarse por el éxito de sus
predicciones. Su trayectoria en juegos de guerra diseñados por el Pentágono y
aplicados en Corea, Vietnam, Camboya, Irak y Afganistán, y en la economía,
donde no lograron predecir el colapso del mercado de las hipotecas sub-prime, la
pérdida de liquidez de los grandes bancos, la crisis financiera global de 2007-
2008 y el auge de China como potencia económica, inspira escasa confianza.
El juego adoptado por la mayoría de sociobiólogos es el del dilema del
prisionero que Hamilton, junto con el científico político Robert Alexrod,
utilizaron para intentar demostrar cómo seleccionan la cooperación los grupos
sociales. En el caso clásico, dos prisioneros acusados, por ejemplo, de robo a
mano armada tienen que cumplir, por ejemplo, una sentencia de diez años. Las
reglas son que el fiscal no dispone de pruebas suficientes para realizar una
condena sin previa confesión, de modo que separa a ambos prisioneros y les
ofrece la elección de confesar o no confesar sin que sepan cuál será la elección
del otro prisionero. Si los dos confiesan, ambos serán condenados pero con una
sentencia reducida de, por ejemplo, seis años; si ninguno de los dos confiesa,
ambos serán condenados pero por un crimen menor como, por ejemplo, posesión
ilegal de armas y cumplirán, por ejemplo, dos años de cárcel; si el Prisionero A
confiesa y el otro no, el Prisionero A será recompensado con la libertad, mientras
que su confesión servirá para condenar al Prisionero B, que cumplirá la
sentencia completa de diez años; lo mismo aplica al Prisionero B.
El Prisionero A estará en una situación mejor si confiesa,
independientemente de lo que decida hacer el Prisionero B; lo mismo aplica al
Prisionero B. Por lo tanto, un prisionero racional que actúe por interés propio,
confesará. Pero en una sociedad de dos prisioneros, el resultado social de que
cada prisionero persiga su propio interés es el peor de todos (12 años de cárcel
total para el grupo); si cooperan y ambos se niegan a confesar, el resultado será
el mejor de todos (4 años de cárcel total para el grupo. De ahí, se argumenta, que
la conducta cooperativa beneficia a la sociedad y es la seleccionada.
La implicación clara es que la cooperación se selecciona cuando los
prisioneros no actúan racionalmente pensando en su propio interés. Lo cual
contradice el dogma neodarwinista que defiende el propio interés competitivo
como fuerza impulsora de la evolución.
Posteriormente, Alexrod concibió una versión más sofisticada, el dilema del
prisionero iterado, en el que el juego se practica repetidamente en un ordenador
de modo que, por ejemplo, la elección de un jugador dependa de la elección
anterior del otro jugador.
Tampoco en este caso los prisioneros pueden comunicarse entre ellos para
decidir cómo actuar. Pero la cooperación significa trabajar juntos, lo cual exige
comunicación entre los cooperantes. Impedir la comunicación es impedir la
cooperación, lo que convierte el juego en una tontería.
En términos generales, diseñando las reglas del juego y estableciendo valores
numéricos específicos para las recompensas y los castigos es posible demostrar
que a ambos jugadores les puede interesar cooperar por egoísmo o que a uno de
los jugadores le puede interesar actuar altruistamente por egoísmo porque ganará
a largo plazo. Los sociobiólogos adoptaron estos juegos para explicar no solo la
conducta humana sino también la animal.
En un grupo de animales, naturalmente, no habrá solo dos miembros, y
mucho menos dos genes, jugando un juego según unas reglas simplistas
diseñadas por un trascendental diseñador de reglas que da a cada jugador solo
dos alternativas, determina las recompensas y los castigos y no permite ni
comunicación entre los jugadores ni interacción con otros miembros, otros
grupos, otras especies o con su entorno. Estos juegos, diseñados en los años 70,
tienen tanta relación con la realidad como los juegos que se jugaban en los
ordenadores ZX Spectrum de 16 kilobytes o en el Commodore 64 de aquella
época. Pero, a pesar de ello, los biólogos evolucionistas siguen utilizándolos hoy
en día.

Prueba empírica

En cuanto a una prueba empírica antes que un modelo de ejemplos, el


ejemplo icónico de «altruismo recíproco» son los murciélagos vampiro. A
principios de los 80, el especialista en conducta animal, Gerald S. Wilkinson,
entonces en la Universidad de California, San Diego, llevó a cabo un estudio de
esos murciélagos, que suelen regurgitar parte de su última comida para alimentar
a los murciélagos que no han conseguido encontrar alimento con sangre (o que
en el caso del experimento, Wilkinson impidió encontrar alimento con sangre).
Llegó a la conclusión de que dar comida depende igual e independientemente del
grado de parentesco y del índice de oportunidad de reciprocidad, y que la
reciprocidad opera en grupos donde hay tanto parientes como no parientes.[13]
Sin embargo, sus datos no muestran evidencias de que algún murciélago
vampiro se negara a alimentar a un ejemplar que previamente se hubiera negado
a alimentar a otro, ni de cómo un murciélago vampiro puede saber que el favor
le será devuelto en el futuro. Los datos más bien sugieren que compartir
alimento es más frecuente entre padres y crías y que los demás casos están
determinados en gran parte por la necesidad de los ejemplares desnutridos, que
morirían en el caso de no poder ingerir alimento con sangre durante más de dos
noches.
El psicólogo y biólogo evolutivo Marc Hauser, y sus colegas de la
Universidad de Harvard, revisaron intentos más recientes de entrenar a
arrendajos y chimpancés en el juego del dilema del prisionero, junto con los
experimentos del mismo Hauser realizados con monos tití cabeza blanca
genéticamente no emparentados, con el objetivo de obtener pruebas empíricas
del «altruismo recíproco».
Uno de los problemas del caso es que la Universidad de Harvard confirmó en
2010 que, después de tres años de investigación, había encontrado a Hauser
culpable de ocho delitos de mala praxis científica. Entre los cargos de los que se
le acusaba destacaba la falsificación de datos de la conducta del tití cabeza
blanca. La Office of Research Integrity de los Estados Unidos llegó en 2012 a la
conclusión de que Hauser era además culpable de mala praxis investigadora y de
que había inventado datos de uno de los estudios y descrito con falsedad la
metodología de otras investigaciones. Hauser nunca reconoció ni negó las
acusaciones, pero dimitió de su puesto.[14]
En el artículo publicado en 2009, Hauser y sus colegas llegaron a la
conclusión de que:

Darwin sabía que el altruismo, y la ética en el sentido más general, representaba un auténtico
rompecabezas para su teoría de la selección natural. Pero si adoptamos el punto de vista del gen,
estos actos altruistas dejan de ser un reto para la lógica de Darwin. Los costes del altruismo quedan
neutralizados por el parentesco o por la perspectiva de una relación altruistamente recíproca. Pero a
pesar de que esta perspectiva teórica funciona, no logra explicar la práctica ausencia de altruismo
recíproco y rencor entre los vertebrados sociales [la cursiva es mía].[15]

Es decir, que el modelo teórico no consigue explicar lo que se observa.


Stuart West y sus colegas lo confirmaron en la revisión de la literatura
existente que hicieron en 2011. «En general, después de cuarenta años de
entusiasmo, se aprecia la carencia de un ejemplo claro de reciprocidad en
especies no humanas».[16]
Por lo que a la conducta rencorosa se refiere (véase figura 23.1), Andy
Gardener, de la Queen’s University, Ontario, y sus colegas, desarrollaron un
modelo teórico para abejas poliembriónicas (genéticamente idénticas).
Produjeron abejas soldado que no defienden sino que actúan como mediadoras
(el donante pierde) y que son estériles (el receptor pierde). Con una destreza
semántica de la que George Orwell se habría sentido orgulloso, argumentaron
que se trata de «un candidato supremo de conducta rencorosa» pero que «otras
interpretaciones, como altruismo o altruismo indirecto, serian también válidas».
[17]
La conclusión de Edward O. Wilson sobre la selección por parentesco aplica
igualmente al «altruismo recíproco» y a cualquiera de los modelos matemáticos
diseñados para explicar los cuatro modelos básicos de conducta animal y
humana. Está «construido para llegar a prácticamente cualquier resultado
imaginable y, como resultado de ello, está vacío de contenido. Sus parámetros
abstractos pueden improvisarse para que encajen con cualquier conjunto de datos
empíricos, pero no está construido para predecirlos en ningún nivel de detalle».
[18]

El gen egoísta

Richard Dawkins popularizó y desarrolló el enfoque centrado en el gen en


dos libros destacados, The Selfish Gene[19] y The Extended Phenotype [El
fenotipo extendido] (1982).
Dawkins explica que «El argumento en [El gen egoísta] es que tanto nosotros
como el resto de animales somos máquinas creadas por nuestros genes». La
competencia que se da en la naturaleza no es entre organismos sino entre genes
para su propia supervivencia y replicación. «Defiendo que una de las cualidades
predominantes que cabe esperar en un gen exitoso es un egoísmo despiadado».
[20]
Apodado a menudo como el rottweiler de Darwin, Dawkins es lo bastante
honesto como para reconocer que Darwin a duras penas reconocería su teoría en
la hipótesis del gen egoísta, tal y como muestra la cita que aparece debajo del
título de este capítulo. Sin embargo, sostiene que «es un vástago lógico del
neodarwinismo ortodoxo». Creo que la mejor manera de describirlo sería:

Ultradarwinismo: cualquier hipótesis que emplee el concepto de la


evolución de cosas que no sean organismos por medio de la selección
natural y en la que el efecto acumulativo de pequeñas variaciones
aleatorias en los caracteres de esas cosas, o en los caracteres causados por
esas cosas, las haga, a lo largo de numerosas generaciones, cada vez
mejor adaptadas para competir por la supervivencia y la reproducción en
su entorno.

Un único gen egoísta «intenta hacerse más numeroso en el acervo génico».


[21] Este egoísmo genético «dará habitualmente lugar a una conducta individual
con egoísmo. Sin embargo […] hay circunstancias especiales en las que un gen
puede alcanzar mejor sus objetivos egoístas fomentando una forma limitada de
altruismo a nivel de los animales individuales. “Especiales” y “limitada” son las
palabras importantes en esta última frase».[22]
Estas excepciones especiales y limitadas son el altruismo por parentesco y el
«altruismo recíproco» que hemos comentado previamente, en los que los genes
pueden alcanzar también su objetivo egoísta ayudando a la supervivencia y la
replicación de genes idénticos en otros cuerpos.
Además, «los efectos fenotípicos de un gen no se limitan solo al organismo
que lo transporta. Efectivamente, en principio, y también de hecho, el gen se
extiende más allá de la pared corporal del individuo y manipula objetos del
mundo exterior, algunos de ellos inanimados, otros seres vivos, algunos de ellos
tremendamente remotos […]. El alcance de un gen no conoce fronteras».[23]
Por ejemplo, a pesar de que «no queda del todo claro cuál es su propósito
darwinista [el de las presas de los castores], es evidente que debe de haber uno,
puesto que los castores dedican mucho tiempo y energía a construirlas […] el
lago de un castor […] es un fenotipo, igual que lo son los dientes del castor y su
cola, y ha evolucionado bajo la influencia de la selección darwiniana. Aquí, la
elección debe de haber sido entre lagos buenos y lagos menos buenos […]. Los
lagos de los castores son efectos fenotípicos extendidos de los genes del castos
[la cursiva es mía]».[24] Confieso que no queda del todo claro por qué tendría
que ser así; las afirmaciones sin base no son ni buena ciencia ni buena lógica.
En este caso, estoy utilizando más citas directas de lo habitual porque
Dawkins se queja con frecuencia de que los escépticos no suelen leer más allá
del título de El gen egoísta. Y por si acaso alguien piensa que estoy citando ideas
de 1976 (actualizadas en la edición de 1986 que estoy utilizando) que han
quedado descartadas, Dawkins declaró en 2006 que «poca cosa hay que correría
a borrar ahora o a disculparme por haberlo dicho».[25]
A pesar de esta declaración, la hipótesis del gen egoísta presenta problemas
teóricos y empíricos.
Los genes egoístas son segmentos de ADN que codifican para proteínas.
Dawkins no rechaza como basura el restante 98 por ciento del genoma humano,
pero dice: «La forma más simple de explicar el excedente de ADN es
suponiendo que es un parasito o, en el mejor de los casos, un pasajero inofensivo
o inútil que viaja gratis en la máquina de supervivencia creada por el resto de
ADN».[26] La más simple, tal vez, pero errónea. La mayoría de este ADN está
implicada en redes que regulan los genes, y esta regulación determina el fenotipo
del organismo tanto como lo determinan sus genes.[27]
Dawkins dice también: «Si nos permitimos la licencia de hablar de los genes
como si tuviesen propósitos conscientes, asegurándonos siempre de que será
factible traducir nuestro impreciso lenguaje a términos respetables si así lo
deseamos…».[28] Pero él nunca traduce este lenguaje impreciso a términos
respetables, ni explica qué metáfora representa el gen egoísta si es que en
realidad es una metáfora, ni explica qué es lo que lleva a los genes a comportarse
como si fueran egoístas. De hecho, afirma que «La unidad fundamental, el motor
principal de toda la vida, es el replicador […] el cuerpo individual […] no
tendría que existir».[29] El filósofo Peter Koslowski argumenta que Dawkins
«concede a los genes capacidad de aspiración, intencionalidad y consciencia.
Con ello, cae en el animismo genético, que asigna percepción y decisión a los
genes».[30]
Gould realiza una crítica similar. «La identificación errónea de los
replicadores como los agentes causales de la selección —el fundamento del
enfoque centrado en el gen— se asienta en un error lógico que puede
caracterizarse como una confusión de la causalidad con la contabilidad».[31]
Dejando aparte el error conceptual de atribuir intenciones a los segmentos de
un ácido (ADN, ácido desoxirribonucleico), el test científico de la hipótesis del
gen egoísta consiste en ver si las evidencias la sustentan.
Recurriendo al lenguaje de Dawkins, podría decirse que los genes del cáncer
son los genes egoístas más exitosos. Hacen que las células que ocupan se
repliquen incontrolablemente, produciendo una cantidad increíble de copias de sí
mismas. Su éxito puede llegar a ser tan grande que el cuerpo, su máquina de
supervivencia, muere, llevándoselas así con él. Resulta complicado entender si
esto es de verdad un éxito.
En un momento del capítulo 3 de El gen egoísta, Dawkins reconoce que en el
desarrollo embrionario, los genes «colaboran e interactúan de formas
inextricablemente complejas, tanto entre ellos como con el entorno exterior».
[32] Pero en el resto del libro regresa a la tesis de que el «gen es la unidad básica
del egoísmo»[33] y los ejemplos citados asumen que cada gen codifica para un
carácter. Sin embargo, la mayoría de caracteres surge de la colaboración de
muchísimos genes.[34] Esta evidencia empírica de colaboración de genes (y no
de excepciones especiales y limitadas) contradice el axioma de competencia
entre genes que presenta la hipótesis.
Antes de dedicarse a popularizar la ciencia, Dawkins trabajaba como etólogo
(su tesis de doctorado, supervisada por Niko Tinbergen, lleva por título
«Selective Pecking in the Domestic Chick» [Picoteo selectivo en la cría del
pollo], por lo que podríamos asumir que se mueve en terreno seguro a la hora de
buscar bases empíricas de la conducta. Dice que «Si C es mi gemelo idéntico [y
por lo tanto tiene genes idénticos a los míos], entonces debería cuidar de él el
doble que cuido de cualquiera de mis hijos [que tienen la mitad de mis genes], de
hecho, tendría que valorar su vida tanto como la mia».[35] Esta predicción de la
teoría del gen egoísta queda contradicha por las evidencias conductuales.
Dawkins intenta explicarla diciendo que los animales podrían no estar seguros
de sus relaciones de parentesco. ¿Pero cómo aplica esta explicación a la
conducta humana?
Dawkins utiliza el argumento de Trivers que dice que, debido a que el macho
produce un gran número de pequeños espermatozoides y la hembra produce un
número pequeño de óvulos relativamente grandes, el macho deja la crianza de la
descendencia en manos de la hembra para poder marchar a mantener relaciones
sexuales con todas las hembras posibles y, de este modo, producir el máximo
número de copas de sus genes posible. «Como veremos, los machos de diversas
especies consiguen este estado de cosas, pero los machos de otras especies se
ven obligados a compartir a partes iguales la carga de criar a los hijos».[36] Es
decir, que hay evidencias que apoyan su postura con respecto a los machos
mientras que otras la contradicen. De hecho, exceptuando las especies
monógamas, hay diversos grupos de aves, como los falaropos (aves zancudas de
pequeño tamaño), en los que la hembra deja al macho al cargo de la incubación
de los huevos y la crianza de los polluelos.
Dawkins reconoce que en las especies que viven en rebaños o en manadas,
una hembra no emparentada puede adoptar una cría que ha quedado huérfana.
«En la mayoría de casos, podríamos considerar la adopción […] como el fracaso
de una regla inherente. Y es así porque, cuidando del huérfano, la hembra
generosa no está haciéndoles ningún favor a sus genes […]. Es presumiblemente
un error que sucede con tan poca frecuencia que la selección natural no se ha
“tomado la molestia” de cambiar la regla haciendo el instinto maternal más
selectivo [la cursiva es mía]».[37] Parece un poco desconsiderado por parte de la
selección natural, quién quiera que esta sea.
Otra evidencia reconocida por Dawkins en un programa de televisión que
realizó para Channel 4 en 2009 contradice también la hipótesis del gen egoísta,
pero en vez de cambiar la hipótesis para tener en cuenta estas contradicciones,
Dawkins las atribuye también a «fallos» de genes sin explicar cuál es la causa de
esos fallos.[38]

El gen genial

La bióloga evolutiva de la Universidad de Stanford, Joan Roughgarden,


utilizó también la teoría de juegos, pero esta vez para desafiar los supuestos de la
hipótesis de la inversión parental de Trivers y la hipótesis del gen egoísta.
Recurrió a un juego económico distinto, cuyas reglas posibilitan que los
jugadores puedan comunicar, regatear y pago de compensaciones. En 2009,
publicó The Genial Gene: Deconstructing Darwinian Selfishness [El gen genial:
desmontando el egoísmo darwiniano], que llega a la conclusión de que la única
manera de que un progenitor pueda criar con éxito a su descendencia y, en
consecuencia, conseguir la aptitud evolutiva, es a través de un grado elevado de
cooperación.[39]
Resulta tentador concluir que el resultado que obtiene Roughgarden con su
modelo ilustra una tercera ley newtoniana de la biología: para cada modelo
matemático de la biología existe un modelo igual y opuesto.

Selección multinivel

En 2010, Edward O. Wilson tuvo la perspicacia y la valentía de decir que se


había equivocado y que la sociobiología había seguido un camino erróneo en los
años 60. David Sloan Wilson y él (no guardan ningún parentesco) habían llegado
de forma independiente a la idea de la selección multinivel. Esta hipótesis afirma
que la selección natural no opera en ningún nivel privilegiado, sea este gen,
célula, organismo, grupo o ecosistema. En el mundo complejo de la biología, un
nivel puede ser más significativo que otro, pero ese nivel cambia para cada
especie con el tiempo y el entorno. Además, las transiciones evolutivas
importantes se producen cuando hay un cambio en el nivel de selección, por
ejemplo, cuando las células eucariotas individuales colaboraron para formar
organismos pluricelulares. De un modo similar sucede con los insectos
eusociales, en los que la selección natural ha cambiado a los insectos
individuales para transformarlos en una sociedad de partes colaboradoras
integrada por una cabeza (la reina) y unos grupos de insectos con diversas
funciones especializadas; la sociedad de insectos se comporta como un
organismo individual pluricelular.
Los neodarwinistas y los ultradarwinistas han atacado esta propuesta —
Richard Dawkins con especial acritud[40]— que ofrece un relato de la evolución
biológica consistente con las hipótesis del apoyo mutuo y de la simbiogénesis
que se tratan en la sección siguiente.
Los modelos matemáticos de los sociobiólogos que ampliaron los principios
neodarwinistas constituyen la explicación ortodoxa actual para aquellas
conductas sociales que entran en conflicto con el paradigma competitivo. Los
modelos matemáticos pueden ser una herramienta potente para insinuar leyes
naturales más profundas cuando estos modelos proyectan patrones sobre la
conducta real, y las ecuaciones matemáticas pueden expresar leyes naturales con
elegancia y predecir la conducta futura de un sistema cuando se conocen los
parámetros de dicho sistema. Pero las ecuaciones y las teorías de juego de los
años 50, simplistas, fallidas, le hacen un flaco favor a la biología porque están
divorciadas de la realidad biológica, no pueden diseñarse para producir
resultados, carecen de valor predictivo y se contradicen con las observaciones de
los animales en libertad y de los humanos.

Colaboración

Stuart West considera que el hecho de que la explicación de la colaboración


sea uno de los principales problemas a los que se enfrentan las ciencias
biológicas y sociales es un problema autoimpuesto causado por la adopción del
modelo neodarwinista, que está enraizado en la competencia. Las dos hipótesis
siguientes solventan este problema mediante el sencillo dispositivo de reconocer
que la colaboración supera en importancia a la competencia como causa de la
evolución biológica.

Apoyo mutuo

En un documento titulado «The Evolution of Society» [La evolución de la


sociedad], donde cuatro líderes de la especialidad presentaron sus quince
contribuciones a una reunión de dos días organizada en 2009 por la Royal
Society, aparecían diversas citas de pasajes de Darwin donde el autor destacaba
que muchos animales viven en grupo y cooperan entre sí.[41] El capítulo 16 de
este libro apunta que Darwin realizó estas observaciones en un capítulo de El
origen del hombre, donde dice que las comunidades que cuenten con un mayor
número de miembros empáticos prosperarán por encima de las demás y tendrán
más descendientes. Pero en el capítulo 16 hemos dicho también que la mayor
parte de los libros de Darwin contradice este punto de vista y favorece el de la
naturaleza en guerra, siendo las peores luchas las que se producen entre
miembros de la misma especie o de especies similares. Y ahí está la base de las
hipótesis darwinistas y neodarwinistas.
El documento «The Evolution of Society» defiende que Darwin «anticipa
avances teóricos (sobre la evolución de las sociedades animales y humanas) que
no se producirán hasta cien años más tarde» y que estudios de importancia
comparable no empezaron a llevarse a cabo hasta principios de los años 60.
Omite, sin embargo, cualquier mención a la obra de Peter Kropotkin.
Como hemos visto en el capítulo 16, el libro de Kropotkin Mutual Aid: A
Factor of Evolution (publicado por primera vez en Inglaterra en 1902 y con una
edición final en 1914), ofrece numerosas evidencias en distintas especies
animales que sustentan sus descubrimientos de que los animales seleccionados
naturalmente —los que sobreviven más tiempo y crían más— adoptan
estrategias para evitar la competencia: colaboran para conseguir el sustento, para
protegerse de los depredadores, para emigrar temporal o permanentemente a
hábitats más favorables y para crían y a veces entrenar a su descendencia.[42]
Koprotkin concluye: «Los más adaptados son pues los animales más sociables, y
la sociabilidad parece ser el principal factor de la evolución, tanto directamente,
garantizando el bienestar de las especies y disminuyendo a la vez la pérdida de
energía, como indirectamente, favoreciendo el crecimiento de la inteligencia».
[43]
Después de examinar, en el capítulo 19, las evidencias de las que disponemos
actualmente con referencia a la conducta de las especies, llegué a la conclusión
de que sustentan más si cabe la hipótesis de Kropotkin:

Dentro de cada clase, el aumento de aprendizaje social está correlacionado con un aumento de la
complejidad cerebral, que va a su vez acompañado por un aumento de la inteligencia, medida por el
nivel de invención de soluciones novedosas para los problemas que se presentan.[44]

Y de que, en general:

La colaboración juega un papel más relevante que la competencia en la supervivencia y en la


propagación de la vida, desde el nivel de los genes hasta los organismos unicelulares, en los
orgánulos de las células eucariotas, en las células eucariotas de los organismos pluricelulares, y en la
conducta de plantas y animales, desde los insectos hasta los primates.[45]

Simbiogénesis

El capítulo 16 esboza la hipótesis de la simbiogénesis concebida por


Konstantin Mereschkovsky, Ivan Wallin y otros a principios del siglo XX
siguiendo las ideas simbióticas avanzadas en las décadas previas.[46] Este
proceso evolutivo se inicia con la simbiosis.

Simbiosis: asociación física de dos o más tipos distintos de organismos a


lo largo de la mayor parte de la vida de uno de ellos.

En algunos casos, su interacción metabólica produce una endosimbiosis.

Endosimbiosis: asociación en la que un organismo pequeño vive en el


interior de uno más grande, normalmente en condiciones de colaboración,
en las que un organismo se alimenta de la excreción metabólica del otro.

Que puede evolucionar hacia la simbiogénesis.

Simbiogénesis: fusión de dos tipos distintos de organismos para formar


un nuevo tipo de organismo.

Unos cuarenta años más tarde, una adjunta del departamento de Biología de
la Universidad de Boston, Lynn Margulis (Lynn Sagan por aquel entonces),
desarrolló esta hipótesis. Su artículo fue rechazado por una quincena de revistas
antes de que el Journal of Theoretical Biology decidiera publicarlo en 1967.
Margulis siguió desarrollando sus ideas en un libro publicado en 1970, Origin of
Eukaryotic Cells [El origen de las células eucariotas].[47] Como sucediera en su
momento con las hipótesis de Kropotkin y de los primeros proponentes de la
simbiogénesis, las propuestas de Margulis fueron rechazadas o ignoradas por los
neodarwinistas, que dominaban la biología evolutiva.
Basándose en los estudios de las bacterias y de las protoctistas (especies de
eucariotas unicelulares y sus descendientes pluricelulares carentes de tejidos
especializados, como el alga kelp gigante) actuales, que viven en un entorno
anaeróbico (sin oxígeno), Margulis propuso que hacia finales del eón arcaico
(hace entre 3,8 y 2,5 miles de millones de años), cuando en los océanos y la
atmósfera apenas había oxígeno, las bacterias nadadoras antepasadas de las
actuales espiroquetas se unieron a las arqueobacterias (a las que comúnmente
nos referimos como arqueas) que vivían en un entorno rico en sulfuro y
formaron una asociación simbiótica en la que se alimentaban mutuamente de sus
productos de desecho metabólico. Algunas de estas espiroquetas arcaicas
penetraron la membrana de las arqueobacterias en busca de sustento. Es probable
que el parasitismo de estos antepasados de las espiroquetas provocara la muerte
de muchas arqueobacterias pero, en otros casos, la asociación se desarrolló para
dar lugar una endosimbiosis y, con el paso de millones de años, a una
simbiogénesis, en la que el ADN de los dos organismos se combinó.
Durante el eón proterozoico (hace entre 2,5 miles de millones de años y 540
millones de años), esta combinación generó diversas secuencias evolutivas:
alrededor del genoma combinado creció una membrana y se formó el núcleo de
una célula; se desarrollaron entonces orgánulos para dar motilidad (movimiento
independiente) a la célula, como podrían ser cilios y flagelos; el proceso de la
mitosis evolucionó y el cromosoma del interior del núcleo de la célula se duplicó
y el núcleo y el citoplasma se dividieron para producir dos nuevas células
genéticamente idénticas a la original. En algunas células, los cromosomas se
duplicaron una sola vez, pero el núcleo y el citoplasma se dividieron dos veces
para formar cuatro células sexuales —óvulos o espermatozoides—, conteniendo
cada una de ellas la mitad del número de cromosomas de la célula original y
facilitando con ello la reproducción sexual en la que una célula sexual se fusiona
con una célula complementaria de otro organismo para crear un nuevo individuo
que posee genes de ambos progenitores.
Estos nuevos organismos nucleados de mayor tamaño eran protoctistas
anaeróbicas, la raíz de todas las eucariotas. Durante ese mismo eón proterozoico,
se produjo una segunda y luego una tercera fusión simbiótica, que dieron como
resultado los reinos de animales, hongos y plantas (véase figura 23.2).
La segunda fusión se produjo entre las protoctistas anaeróbicas nucleadas y
bacterias que habían evolucionado para respirar oxígeno en su metabolismo y se
habían vuelto aeróbicas; el resultado fueron protoctistas aeróbicas unicelulares
en las que las antiguas bacterias independientes se convirtieron en mitocondrias.
La imposibilidad de separarse de algunas de estas células reproductoras dio lugar
a muchos tipos de eucariotas multicelulares. Algunas perdieron la capacidad de
moverse de forma independiente y formaron la base del reino de los hongos.
Otras conservaron la motilidad y formaron la base del reino animal. La fusión de
una célula sexual nadadora (un espermatozoide) con una célula sexual que había
conservado la capacidad de dividirse pero no de nadar (un óvulo) dio lugar a la
reproducción sexual con dos géneros.
La tercera fusión tuvo lugar cuando protoctistas aeróbicas ingirieron
bacterias capaces de realizar la fotosíntesis, que posteriormente perdieron su
capacidad de existir de forma independiente y se convirtieron en cloroplastos. La
fusión produjo un nuevo tipo de eucariota capaz de utilizar la luz del sol como
fuente de energía, protoctistas algales verdes. Entre ellas, algunas perdieron la
capacidad de moverse independientemente y sentaron las bases del reino vegetal.
[48]
Análisis genéticos realizados en los años 70 y 80 revelaron que los genes
cloroplásticos de algunas especies de algas se parecían muy poco a los genes de
los núcleos de las algas y sí se parecían a los genes de cianobacterias
fotosintéticas, mientras que otras evidencias del ADN sugerían que las
mitocondrias derivaban de proteobacterias alfa similares a unas bacterias
actuales conocidas como rickettsias. Todo esto aportó una base genética al
origen simbiogenético de los cloroplastos y las mitocondrias en las células
eucariotas.
Pese a que la mayoría de biólogos evolutivos acepta hoy en día que la
simbiogénesis ofrece la explicación más plausible para el origen de las
mitocondrias y los cloroplastos en las células eucariotas, no aceptan la hipótesis
de Margulis para el origen de las células eucariotas y la evolución de los reinos
taxonómicos.
Margulis contrataca argumentando que, aparte de en los modelos
matemáticos, no se ha demostrado nunca que la acumulación gradual de
mutaciones genéticas aleatorias que defienden los neodarwinistas haya
producido un nuevo órgano o una nueva especie, mientras que la simbiosis, la
endosimbiosis y la simbiogénesis están generalizadas en la naturaleza. Algunas
especies de hormigas viven en relaciones simbióticas con pulgones: las hormigas
comen la ligamaza azucarada que excretan los pulgones después de absorber la
savia de las plantas y a cambio protegen a los pulgones de los depredadores y los
transportan de plantas marchitas a plantas sanas. La endosimbiosis es la norma:
por ejemplo, un cuerpo humano está integrado por aproximadamente 100
billones de células, pero alberga en sus intestinos una cantidad de bacterias que
triplica esa cifra; las distintas especies de esas bacterias llevan a cabo funciones
útiles, como la síntesis de las vitaminas B y K. Un ejemplo conocido de
simbiogénesis son las más de 15.000 especies de líquenes. A pesar de que su
aspecto recuerda el de las plantas, no tienen antepasados vegetales; están
formados por la simbiogénesis entre miembros de dos reinos distintos: hongos y
bacterias fotosintéticas (cianobacterias) o protoctistas (algas).
Según Margulis, a pesar de que la simbiogénesis no es la única causa de la
innovación evolutiva, sí es la principal. Cuando dos o más tipos de organismos
fusionan sus respectivas identidades, el proceso genera conductas y morfologías
novedosas: nuevos tejidos, nuevos órganos o vías metabólicas, y nuevos grupos
de organismos, incluyendo nuevas especies.
A Margulis le costó publicar su trabajo en las revistas científicas y biológicas
conocidas porque, como explicó en 2011, la biología evolutiva está acaparada
por genetistas de poblaciones, zoólogos experimentales y biólogos moleculares
anglo-americanos de la escuela neoodarwinista que «bloquean cuatro quintas
partes de la información de la biología [ignorando bacterias, protoctistas, hongos
y plantas] y toda la información de la geología. No saben nada sobre sistemas
biológicos como la fisiología, la ecología y la bioquímica […]. Son
reduccionistas ad absurdum».[49]
El destacado neodarwinista, Jerry Coyne, se apresuró a responder estos
comentarios en su página web a través de un artículo titulado «Lynn Margulis
disses evolution in Discover magazine, embarrases both herself and the field»
[Lynn Margulis humilla a la evolución en la revista Discover y deja la materia y
a sí misma en una situación bochornosa]. Después de reconocer la contribución
de Margulis a la explicación del origen de las mitocondrias y los cloroplastos,
destaca que Margulis coincide con los creacionistas en su visión de la ineficacia
del paradigma neodarwinista, y comenta que «al menos ella no está tan loca
como para aceptar a Dios como explicación científica. Aunque sí que lo está lo
bastante como para postular su teoría “alternativa” que, naturalmente, es la
simbiosis [la cursiva es de Coyne]». Repite las bases del modelo neodarwinista y
concluye diciendo que «cuando discute la biología evolutiva, Margulis se
muestra dogmática, ignorante e intelectualmente deshonesta».[50]
El título que Coyne eligió para su respuesta es indicativo. Margulis era una
evolucionista comprometida; su falta de respeto no era hacia la evolución, sino
hacia el modelo neodarwinista de la evolución biológica. Al equiparar evolución
con neodarwinismo, Coyne revela parte del problema de la biología evolutiva
contemporánea, puesto que cualquier cuestión que ponga en duda la ortodoxia
actual suscita una respuesta desdeñosa que queda a menudo muy lejos de la ética
científica.
El consenso de la biología evolutiva actual es que la vida se dividió en
primer lugar en bacterias y arqueas, y de ahí en eucariotas que evolucionaron a
partir de las arqueas o de antepasados parecidos a arqueas. Posteriormente, las
eucariotas adquirieron genes de las bacterias dos veces, obteniendo la
mitocondria a partir de proteobacterias alfa y los cloroplastos a partir de
bacterias fotosintéticas, como Margulis defiende, y los tres dominios de
bacterias, Arqueas y Eucariaotas se bifurcaron en árbol de la vida darwiniano
descendiente gracias, principalmente, a la transmisión sexual y la acumulación
de mutaciones genéticas aleatorias dentro de las poblaciones de las distintas
especies.
De esta hipótesis se extrae la conclusión de que en las arqueas no deberían
encontrarse genes típicamente bacterianos, y que los únicos genes bacterianos de
las eucariotas deberían ser los del ADN mitocondrial o cloroplástico o los
transferidos al núcleo desde los precursores bacterianos de esos orgánulos, y
deberían estar implicados en la respiración o la fotosíntesis. Sin embargo,
secuenciaciones recientes de genomas completos han confundido esta hipótesis
al revelar transferencias horizontales desenfrenadas de múltiples genes. Muchas
arqueas poseen una reserva importante de genes bacterianos. Los genes
nucleares de las eucariotas codifican procesos no respiratorios y no fotosintéticos
que son críticos para la supervivencia de la célula. Además, muchos genes
eucariotas no se parecen en nada a los de cualquier arquea o bacteria conocida;
por ejemplo, los genes implicados en dos características definitorias de las
eucariotas, el citoesqueleto y el sistema de membranas internas.[51]
Esta evidencia genómica sugiere con fuerza que durante los primeros dos mil
millones de años de la evolución biológica, las fusiones de genomas y las
transferencias horizontales de genes resultantes de colaboraciones y
simbiogénesis entre distintas especies jugaron un papel mucho más importante
en la evolución biológica que la herencia vertical neodarwinista de genes
mutados aleatoriamente.
Durante los 1,5 miles de millones de años posteriores, la transferencia
horizontal siguió siendo probablemente el mecanismo de transmisión de genes y
especiación más importante de las procariotas. Dentro del reino taxonómico de
los animales, la hipótesis del apoyo mutuo —la colaboración en el seno de una
especie y entre miembros de distintas especies (simbiosis)— ofrece una
explicación más factible que la competencia neodarwinista para el patrón
evolutivo de las especies que sobrevivieron y se reprodujeron con éxito dentro
de cada clase y exhibieron habilidades cognitivas crecientes obtenidas a través
del aprendizaje social.
Mis conclusiones al final de la segunda parte incluirán las conclusiones
extraídas desde el capítulo 21 hasta el 23 más las del siguiente capítulo.
[1] Publicado en español como Sociobiología, Ediciones Omega, Barcelona, 1980.
[2]Wilson (2000).
[3]Darwin, Charles (1882), pp. 131–132.
[4]Williams (1996), p. 93.
[5]Ibíd, p. vii.
[6]Haldane, J. B. S., «Population Genetics», New Biology, 18, 1955, pp. 34–51.
[7]Hamilton, W. D., «The Genetical Evolution of Social Behaviour 1», Journal of Theoretical Biology,
7: 1, 1964, pp. 1–16.
[8]Harman (2010).
[9]Wilson, David Sloan y Wilson, Edward O., «Survival of the Selfless», New Scientist: 3 de noviembre
de 2007.
[10] Véase página 517.
[11] Véase página 520.
[12]Trivers, Robert L., «The Evolution of Reciprocal Altruism», The Quarterly Review of Biology, 46:
1, 1971, pp. 35–57.
[13]Wilkinson, Gerald S., «Reciprocal Food Sharing in the Vampire Bat», Nature, 308: 5955, 1984, pp.
181–184; Wilkinson, Gerald S., «The Social Organization of the Common Vampire Bat», Behavioral
Ecology and Sociobiology, 17: 2, 1985, pp. 123–134.
[14]Véase http://harvardmagazine.com/2010/08/harvard-dean-details-hauser-scientificmisconduct, 20
de agosto de 2010; http://www.thecrimson.com/article/2010/9/14/hauser-lab-research-professor/?
page=single, 14 de septiembre de 2010; y http://grants.nih.gov/grants/guide/notice-files/NOT-OD-12-
49.html «Findings of Research Misconduct», 10 de septiembre de 2012.
[15]Hauser, Marc, et al., «Evolving the Ingredients for Reciprocity and Spite», Philosophical
Transactions of the Royal Society B: Biological Sciences, 364: 1533, 2009, pp. 3255–3266.
[16]West, Stuart A., et al., «Sixteen Common Misconceptions About the Evolution of Cooperation in
Humans», Evolution and Human Behavior, 32: 4, 2011, pp. 231–262.
[17]Gardner, Andy, et al., «Spiteful Soldiers and Sex Ratio Conflict in Polyembryonic Parasitoid
Wasps», The American Naturalist, 169: 4, 2007, pp. 519–533.
[18]Wilson, Edward O., «One Giant Leap: How Insects Achieved Altruism and Colonial Life»,
BioScience, 58: 1, 2008, pp. 17–25.
[19] Puvblicado en español como El gen egoísta, Salvat Editores, Barcelona, 1993.
[20]Dawkins (1989), p. 2.
[21]Ibíd, p. 87.
[22]Ibíd, p. 2.
[23]Ibíd, pp. 265–266.
[24]Ibíd, p. 248.
[25]Dawkins, Richard, «It’s All in the Genes», Sunday Times, Londres, 19 de marzo de 2006; libros
43–44.
[26]Dawkins (1989), p. 45.
[27] Véase página 503.
[28]Ibíd, p. 88.
[29]Ibíd, p. 264–266.
[30]Koslowski (1999), p. 308.
[31]Gould (2002), p. 614.
[32]Dawkins (1989), p. 37.
[33]Ibíd, p. 36.
[34] Véase página 513.
[35]Ibíd, p. 105.
[36]Ibíd, p. 140.
[37]Ibíd, p. 101.
[38]Dawkins, Richard, «The Genius of Charles Darwin, Episode 2», The Genius of Charles Darwin,
Gran Bre taña, Channel 4 Television, 4 de octubre de 2009.
[39]Roughgarden (2009).
[40]Dawkins, Richard, «Genes Still Central», New Scientist, 15 de diciembre de 2007.
[41]Clutton-Brock, T, et al., «The Evolution of Society», Philosophical Transactions of the Royal
Society B: Biological Sciences, 364: 1533, 2009, pp. 3127–3133.
[42] Véase páginas 429 a 434.
[43]Kropotkin (1978), p. 69.
[44] Véase página 479.
[45] Véase página 478.
[46] Véase página 434.
[47]Margulis (1970).
[48]Margulis, Lynn, et al., «“Imperfections and Oddities” in the Origin of the Nucleus», Paleobiology
31 (sp5), 2005, pp. 175–191, más comunicaciones personales del 8 de Agosto al 3 de octubre de 2011.
[49]Teresi, Dick, «Lynne Margulis», Discover Magazine, abril de 2011, pp. 66–71.
[50]http://whyevolutionistrue.wordpress.com/2011/04/12/lynn-margulis-dissesevolution-in-discover-
magazine-embarrasses-both-herself-and-the-field/, 12 de abril de 2011.
[51]Doolittle, W. Ford, «Uprooting the Tree of Life», Scientific American, 282, 2000, pp. 90–95.
CAPÍTULO 24. LA EVOLUCIÓN DE LA
CONSCIENCIA

La consciencia es un misterio tan grande para nuestra especie que no podemos ni siquiera empezar a
elucubrar sobre su existencia en otras.

LEWIS THOMAS, 1984

Los humanos somos algo más que los caracteres fenotípicos resumidos en la
clase taxonómica Homo sapiens. Somos seres conscientes. Filósofos, psicólogos,
antropólogos y neurocientíficos no se ponen de acuerdo en cuanto a qué es la
consciencia humana. La mayoría lo estudian como algo en sí mismo, y trataré
más sobre la consciencia humana en la tercera parte. Sugiero, sin embargo, que
del mismo modo que el fenotipo humano evolucionó a partir de las primeras
formas de vida de la Tierra, también lo hizo la consciencia humana, y podremos
llegar a comprenderla mejor, o como mínimo comprender sus correlaciones
físicas, si somos capaces de seguir su trayectoria evolutiva a lo largo del linaje
humano.
Para ello, utilizaré una definición amplia de la consciencia que aplica en
cualquier forma de ser vivo incipiente o rudimentario y que lo distingue de la
materia inanimada.

Consciencia: la percepción del entorno, de otros organismos y de uno


mismo que incentiva a la acción.

La consciencia así definida puede plasmarse según las acciones consiguiente,


es decir, según la conducta de los organismos, y, en consecuencia, debemos
trazar la evolución de la conducta del organismo a lo largo del linaje humano.
La evolución de la conducta

Los fósiles rara vez insinúan conductas y, por lo tanto, la única manera de
trazar el recorrido de esta evolución consiste en examinar la conducta de
aquellas especies vivas que de un modo más razonable se asemejan a los fósiles
datados en su estimada primera aparición en las categorías taxonómicas que van
desde los dominios de Bacterias y Arqueas hasta la especie Homo sapiens, según
se muestra en la tabla 20.1.

Bacterias y arqueas

Las especies más parecidas a las primeras formas de vida de la Tierra son las
procariotas: bacterias y arqueas. Estos sencillos organismos actúan respondiendo
directamente a estímulos externos e internos para sobrevivir.
Los estímulos externos son el calor, la luz, los elementos químicos del
entorno y la presencia de otros organismos; pueden ser fuente tanto de sustento
como de peligro. Las bacterias y las arqueas responden moviéndose hacia los
elementos químicos y los organismos que pueden utilizar para su mantenimiento
y alejándose de aquellos que pueden resultarles nocivos. En el capítulo 19 vimos
un ejemplo de bacterias que respondían a otras bacterias emitiendo moléculas de
señalización hacia su entorno inmediato y con puntos receptores para esas
moléculas. Cuando sus receptores registraban una cantidad de señales suficiente
—lo que les daba una medida de la densidad de población local—, se
desencadenaba una respuesta directa y colaborativa, como un intercambio de
genes, que llevaba a la producción y excreción de polisacáridos para un biofilm
comunitario o enzimas para digerir las presas.[1]
Las bacterias muestran también una percepción rudimentaria de sí mismas al
responder directamente a estímulos internos. Un daño importante a su ADN
desencadena lo que se conoce como la respuesta SOS: el encendido de genes
SOS, normalmente en silencio, que activa un mecanismo reparador del ADN.

Eucariotas: unicelulares
Una eucariota sencilla unicelular, como una ameba, actúa también con una
respuesta directa sencilla a un estímulo externo, por ejemplo, formando
extensiones temporales de su citoplasma (conocidas como pseudópodos, o falsos
pies) para impulsarse hacia los elementos químicos que desprenden los
alimentos o alejarse de los elementos químicos nocivos.
Las eucariotas unicelulares más complejas presentan un sistema de respuesta
directo más complejo y utilizan orgánulos, o partes especializadas de la célula,
tanto a modo de receptores de estímulos como a modo de efectores de respuesta.
Entre los receptores destacan los filamentos sensoriales rígidos de los ciliados y
los puntos fotosensibles de los flagelados. Entre los efectores destacan los cilios
(apéndices múltiples con aspecto de pelo que surgen de la superficie de la célula
y son capaces de golpear al unísono) y los flagelos (cilios más alargados que se
asemejan a látigos) que impulsan la célula, junto con otros orgánulos que atraen
alimento.

Eucariotas: animales

A medida que la vida evolucionó en la Tierra, produciendo un mundo más


complejo con más y distintos depredadores, competidores y colaboradores, los
organismos multicelulares del reino animal desarrollaron un segundo sistema de
respuesta que permite una respuesta más rápida, variada y flexible a los
estímulos externos. Su conducta puede clasificarse en cinco tipologías que se
solapan entre sí: respuesta directa, innata, aprendida, social e innovadora.

a. Respuesta directa
Las respuestas directas a los estímulos vinculadas a la supervivencia
constituyen la parte principal de la conducta de animales sencillos, como
los invertebrados, pero persisten como un componente destacado del
repertorio conductual de animales más complejos y de evolución reciente,
tal y como queda ejemplificado en el humano que retira rápidamente la
mano del fuego.
La conducta de respuesta directa incluye los reflejos, que son
respuestas involuntarias a los estímulos. A medida que los animales se
vuelven más complejos en su linaje, también se vuelven más complejas sus
respuestas reflejas, que suelen implicar varios grupos musculares. Por
ejemplo, en los humanos, el reflejo de doblar la rodilla se produce cuando
un golpe en el tendón rotuliano produce una sacudida en los músculos de
la parte delantera del muslo lo suficientemente fuerte como para extender
la parte inferior de la pierna a partir de la rodilla.

b. Respuesta innata
Las conductas vinculadas a la respuesta directa y a la respuesta innata
se solapan en lo que podría agruparse como conductas instintivas, que son
respuestas no aprendidas a estímulos concretos. Incluyen cosas como la
necesidad de mantener relaciones sexuales estimulada por determinadas
visiones u olores, la respuesta de devolver el ataque o huir ante un ataque,
etc.
Creo que resulta útil distinguir entre la respuesta directa de
supervivencia que un individuo pueda tener ante un estímulo, de las
acciones heredadas, predecibles y fijas que un miembro de una especie
realice en distintos entornos (que ofrecen distintos estímulos) y que no
necesariamente le aportan un beneficio —de hecho, podría incluso tener un
coste para él—, pero que sí sirven para la preservación de su especie.
En los insectos, descendientes de antiguos artrópodos, encontramos
algunos de los ejemplos más sorprendentes de este tipo de conducta innata.
En unas 47 especies de hormigas cortadoras de hojas de Centroamérica y
América del Sur, por ejemplo, la casta encargada de buscar el alimento
colabora para cortar una hoja, luego la corta en trocitos y la transporta por
el bosque o, en algunas especies, por terrenos desérticos hasta el nido,
donde los trocitos se trituran, se convierten en pulpa y se utilizan como
mantillo para el huerto de hongos del nido.[2] Esta conducta no es una
respuesta directa al hambre de una hormiga concreta. Realizada por todas
las hormigas cortadoras de hojas en sus respectivas colonias, ayuda a
preservar la especie produciendo y almacenando sustento para las
necesidades futuras de la colonia.
Desconocemos prácticamente por completo el mecanismo genético, o
posiblemente epigenético, de estas conductas hereditarias fijas que tal vez
no benefician en nada al individuo. En el último capítulo vimos que las
hipótesis socio-biológicas no ofrecen un relato convincente. Lo cual queda
además subrayado por el hecho de que muchas conductas innatas no son
acciones colaborativas de un grupo, independientemente de que haya en él
parentesco o no, sino que se realizan a nivel individual.
Esta conducta innata individual está extendida entre los descendientes
de los vertebrados más primitivos, como los peces del periodo cámbrico.
La mayoría de especies actuales de salmón, después de pasar entre uno y
nueve años en el mar, migran hacia aguas dulces donde tienen sus zonas de
puesta de huevos. Para hacerlo, el salmón debe primero localizar un río y
luego librar una batalla contracorriente, a menudo superar cascadas, y
recorrer hasta mil kilómetros con desniveles de hasta doscientos metros. Es
complicado entender todo esto como la respuesta de un individuo a su
supervivencia; de hecho, el salmón del Pacífico muere poco después del
desove. Su cortejo y su conducta reproductora constituyen asimismo una
espinosa y complicada serie de acciones que ni son una respuesta directa
simple ni una respuesta aprendida.
Discernir qué conductas humanas son innatas es cuestión de largos
debates. El filósofo y lingüista Noam Chomsky afirma que el veloz
aprendizaje del lenguaje por parte de los niños sería imposible sin una
capacidad para el lenguaje biológicamente innata, o unas reglas innatas de
gramática universal, a diferencia de lo que sucede, por ejemplo, con el
aprendizaje del juego del ajedrez.[3] Por otro lado, Michael Tomasello,
psicólogo evolutivo, rechaza este argumento y propone una teoría basada
en el uso que defiende que los niños aprenden estructuras lingüísticas
leyendo las intenciones y encontrando patrones en sus interacciones
discursivas con los demás.[4]
A medida que la especie evoluciona por el linaje humano y se vuelve
más compleja, también se vuelven más complejas sus conductas y las
conductas aprendidas, sociales e innovadoras pasan a desempeñar un papel
cada vez más importante.

c. Respuesta aprendida
Son acciones que modifican respuestas directas o conductas innatas. En
forma rudimentaria, se observan ya en los animales más sencillos y
primitivos, como los moluscos, a través de la habituación. En este caso,
cuando la respuesta repetida a un estímulo deja de producir el resultado
que producía, el animal deja de responder al estímulo. La actitud contraria
sería la sensibilización: las respuestas a un estímulo producen resultados
más intensos y el animal acaba respondiendo a un estímulo reducido.
Con la evolución biológica dando lugar a especies de mayor
complejidad morfológica, la imitación empieza a adquirir un papel cada
vez más relevante en la adquisición de la conducta aprendida. En el
capítulo 19 se ofrecieron ejemplos de peces que aprenden por imitación; la
evidencia indica que se trata de una conducta hereditaria, lo que sugiere
que la conducta aprendida podría volverse innata.
En el capítulo 19 se citaba también un estudio que demostraba no solo
como imitan las suricatas, pequeños mamíferos no primates, sino también
cómo los ejemplares adultos enseñan habilidades de caza a sus pequeños.
[5] La imitación se observa en primates no humanos, sobre todo en los
jóvenes que imitan las habilidades de supervivencia practicadas por los
progenitores o por parientes próximos.
Considero que debería hacerse una distinción entre los animales que
imitan, o incluso que son enseñados, por miembros de su propia especie —
para lo cual es necesario disponer de más trabajos de campo— y los
animales enseñados o entrenados por humanos. Esto último ha dado lugar
a muchas hipótesis sobre la conducta animal en las que el acuerdo no es ni
mucho menos unánime. Los experimentos que llevó a cabo Ivan Pavlov
con perros a principios del siglo XX le llevaron a proponer que «el reflejo
condicionado», asociado con determinadas áreas del córtex cerebral,
explicaba toda la conducta, incluyendo la humana, y sus teorías tuvieron
gran peso en el campo de la psicología y la psiquiatría. Sus experimentos,
sin embargo, simplemente nos dicen que es posible entrenar a animales
para que ofrezcan la misma respuesta cuando el estímulo original se
sustituye por otro; no aporta grandes ideas sobre la evolución de la
conducta en la naturaleza.
Los experimentos del psicólogo B. F. Skinner con ratas y palomas
intentaron llegar más lejos en la explicación del aprendizaje de nuevas
conductas. Su hipótesis del condicionamiento operante sostiene que un
animal responde a su entorno con una serie de acciones aleatorias y
variadas. Una de esas acciones (por ejemplo, presionar una palanca de su
caja de experimentación) podría ofrecerle una recompensa (una bolita de
comida). Este refuerzo positivo da como resultado que el animal aprenda a
repetir esta acción concreta en el futuro. Skinner lo calificó de selección
natural darwiniana de conducta a lo largo de la vida del animal comparable
con la selección natural darwiniana de caracteres físicos a lo largo de
muchas generaciones, y consideró que sería igualmente aplicable a la
conducta humana; rechazó fenómenos no observables como la mente y la
intención. La hipótesis obtuvo una aceptación considerable en el siglo XX.
Sin embargo, una analogía más adecuada sería con la selección artificial.
El experimentador humano es quien diseña el experimento y ofrece la
recompensa. La hipótesis es poco más que un ejemplo de animales que
aprenden mediante el entrenamiento de la sensibilización y la habituación,
y la reivindicación de Skinner de que esto explica la conducta humana
carece de una base de evidencias consistente.
Mientras que la habituación y la sensibilización a nivel individual
podrían suponer una pequeña contribución al aprendizaje humano (si
pones la mano en el fuego y te quemas, aprendes a no volver a hacerlo), la
imitación y la enseñanza juegan un papel mucho más destacado. Hablaré
más sobre esto en la tercera parte.

d. Respuesta social
Estas acciones incluyen conductas por respuesta directa, innata y
aprendida, pero van más allá de la supervivencia individual y de la
descendencia, que imita las habilidades para la supervivencia de sus
padres. Incluyen todas las formas de interacción que se producen entre los
animales que viven en un grupo.
Como vimos en el capítulo 19, los animales forman comunidades que
van más allá de los padres y su descendencia cuando los animales
colaboran para su supervivencia —defensa contra los elementos (cobijo y
construcción del nido), defensa contra los depredadores y competidores, y
labores de caza— y para el cuidado de las crías. Esta vida social ofrece
además oportunidades de apareamiento. Los grupos sociales de animales
se basan principalmente, aunque no de forma exclusiva, en el parentesco, y
muchos de estos grupos colaboran para formar grupos temporales más
grandes con fines de supervivencia, como sucede con las migraciones
estacionales o permanentes hacia hábitats más idóneos.
Las interacciones de los miembros de un grupo social de animales son
sensoriales: tacto, olfato, gusto, vista y oído.
A medida que la complejidad morfológica de las especies aumenta con
el tiempo evolutivo y a lo largo del linaje humano, estas interacciones
sensoriales cambian. En particular, el olor, el gusto y el tacto, que tienen
una gama corta, disminuyen gradualmente en importancia. Con el
incremento de complejidad de la vocalización en los primates para
comunicar una mayor variedad de mensajes a otros miembros del grupo
(amenazas, placer, gritos de alerta, etc.), el oído se desarrolla mediante la
evolución de un oído interno que permite la resolución de complejos
patrones información de frecuencias y momentos. La vista aumenta en
complejidad con el desarrollo de la visión estereoscópica, que lleva a que
los ojos se adelanten en los primates y aumente su percepción espacial.
Estos desarrollos permiten a los miembros del grupo interactuar de formas
más complejas y a distancias mayores.
El valor de las interacciones sociales en la supervivencia puede ser
directo o indirecto. El juego de algunos mamíferos, como los castores, y el
acicalamiento, como el de los chimpancés, sirve para reforzar la cohesión
de su único grupo social y, por lo tanto, tiene un valor indirecto para la
supervivencia.

e. Respuesta innovadora
Estas acciones se diferencian de las típicas respuestas directas, innatas
o aprendidas de las especies y se presentan comúnmente como respuestas a
circunstancias desafiantes y nuevas. El grado de innovación puede
utilizarse como medida de inteligencia y a veces se conoce como habilidad
cognitiva.
Inteligencia: capacidad de adquirir conocimientos y aplicarlos con éxito
con un objetivo, especialmente en situaciones desafiantes y nuevas.

En el linaje humano se observa poca innovación hasta que emergen los


primates. (Considero aquí solo el linaje que lleva hasta los humanos, y no
aquellos que llevan hasta otras especies que hacen gala de inteligencia,
como la familia del cuervo ola de mamíferos marinos como los delfines.)
Una vez más, considero de utilidad distinguir entre primates, como los
chimpancés, sometidos a «test de inteligencia» concebidos por humanos, y
primates que se comportan de forma innovadora en la naturaleza. Esto
último sería la medida más precisa de la evolución de las conductas
innovadoras. Aunque resulta complicado confirmar resultados sin
ambigüedades a partir de estudios de investigación que utilizan criterios,
metodologías y supuestos subyacentes distintos.
En 2002, los biólogos del comportamiento Simon Reader y Kevin
Laland investigaron los principales artículos publicados sobre primates y
encontraron 533 casos de innovación (definida como soluciones
aparentemente novedosas a problemas medioambientales o sociales), 445
observaciones de aprendizaje social (adquisición de información aportada
por otros individuos) y 607 episodios de uso de utensilios. Después de
corregir factores como las diferencias en el esfuerzo investigador dedicado
a las distintas especies, llegaron a la conclusión de que la innovación, el
aprendizaje social y el uso de utensilios estaban correlacionados con el
volumen relativo y absoluto del cerebro ejecutivo relativo de las distintas
especies. El cerebro ejecutivo es básicamente el neocórtex.[6] Examinaré
más adelante esta correlación.

Patrón evolutivo

A medida que a lo largo del linaje humano las especies se vuelven


morfológicamente más complejas, se vuelven también más complejas sus
conductas. Y a pesar de que la respuesta directa y las conductas innatas
persisten, las conductas aprendidas, sociales e innovadoras desempeñan un papel
cada vez más importante. Su mayor variedad y flexibilidad marcan el aumento
de consciencia.

Correlaciones físicas del aumento de consciencia

La existencia de una consciencia rudimentaria en las procariotas y en las


eucariotas unicelulares queda demostrada por las acciones que llevan a cabo para
sobrevivir en respuesta a estímulos externos e internos. Acciones tan simples
como esas están influidas por un sistema fisicoquímico de respuesta directa.

El sistema nervioso

La evolución de los animales pluricelulares llevó al desarrollo de un segundo


sistema de respuesta capaz de permitir una respuesta más rápida y variada a los
estímulos externos. Se trata del sistema nervioso electroquímico, que utiliza unas
células especializadas eléctricamente excitables llamadas neuronas para llevar a
cabo la transmisión unidireccional a alta velocidad de impulsos eléctricos de una
región del cuerpo del animal a otra. El sistema nervioso coordina además las
respuestas fisicoquímicas más lentas, aunque más duraderas, a los estímulos
internos.

Sistema nervioso: un grupo organizado de células, llamadas neuronas,


especializadas en la conducción de estímulos electroquímicos a través de
una red nerviosa, desde un receptor sensorial hasta un efector, lugar en el
cual se produce una respuesta.

Neurona: célula eucariota especializada en responder a la estimulación y


la conducción de impulsos electroquímicos.
A pesar de que presentan una diversidad de tamaños y formas, la figura 24.1
muestra la estructura esencial de la mayoría de las neuronas. Las dendritas son
prolongaciones ramificadas de la pared celular que reciben impulsos
electroquímicos y los conducen hacia el cuerpo de la célula. El cuerpo de la
célula contiene el núcleo y el citoplasma que lo rodea. El axón es una
prolongación relativamente larga de la pared celular que transmite los impulsos
eléctricos desde el cuerpo de la célula hacia las terminales que se ramifican al
final del axón. Las dendritas y los axones se conocen comúnmente como fibras
nerviosas.

En los animales más grandes y complejos, como los vertebrados, el axón


puede ser muy largo y estar aislado mediante una vaina de mielina, un
recubrimiento graso constituido por una serie de células gliales, o de soporte,
conocidas como células de Schwann. En los espacios vacíos que se producen
entre las células de Schwann, lo que se conoce como nodos de Ranvier, el axón
no está aislado, lo que permite que el pulso eléctrico se transmita aun con mayor
rapidez.
Las neuronas pueden agruparse según tres categorías funcionales:

a. Neuronas sensoriales
Reciben la estimulación de las células receptoras sensoriales o de un
órgano (de las células que forman la capa exterior del animal o de un ojo,
por ejemplo), y transmiten directamente un impulso eléctrico a las
neuronas motoras o a las interneuronas coordinadoras. En este último caso,
reciben también el nombre de neuronas aferentes.
b. Neuronas motoras
Transmiten un impulso eléctrico a una célula efectora o a un órgano (un
músculo, por ejemplo). Se conocen también como neuronas eferentes.
c. Interneuronas
Reciben impulsos de las neuronas sensoriales y controlan, coordinan y
transmiten respuestas a las neuronas motoras.

La transmisión de impulsos eléctricos de una neurona a otra o a una célula


efectora suele producirse en las regiones microscópicas que se crean entre ellas,
conocidas como sinapsis, a través de unos elementos químicos llamados
neurotransmisores. La comunicación eléctrica directa puede producirse
asimismo cuando las membranas se fusionan; las sinapsis eléctricas se producen
principalmente en invertebrados y vertebrados primitivos.
A través de sus dendritas y de sus axones terminales, las neuronas pueden
recibir impulsos y enviar impulsos a muchas otras neuronas, formando de este
modo una red. La figura 24.2 muestra esquemáticamente cómo se conectan los
distintos tipos de neuronas entre sí y con células sensoriales y efectoras en un
animal con sistema nervioso central.
Las interneuronas se conectan también entre sí y juntas integran, coordinan y
controlan muchos reflejos individuales, de tal modo que la respuesta del animal
es algo más que la simple suma de reflejos individuales: su conducta se
caracteriza por la flexibilidad y la adaptabilidad a las circunstancias cambiantes.
El incremento de consciencia a lo largo del linaje humano se correlaciona
con la evolución del sistema nervioso. Esto no significa que todos los sistemas
nerviosos evolucionaran siguiendo la misma trayectoria lineal, como daba a
entender el modelo del cerebro triúnico puesto en boga por el neurocientífico y
psiquiatra Paul MacLean, y que fue muy influyente en los años 70 y 80.
Las evidencias acumuladas por la neuroanatomía comparativa a lo largo de
los últimos treinta años sugiere que los distintos sistemas nerviosos
evolucionaron a lo largo de los distintos linajes animales provocando, por
ejemplo, que algunos pulpos, aves y mamíferos marinos actuales tengan sistemas
nerviosos estructuralmente distintos de los de los primates no humanos, aunque
con capacidades cognitivas comparables. Pero nuestro viaje se centra en la
evolución del hombre, razón por la cual intentaré seguir la evolución del sistema
nervioso que dio como resultado el de los humanos.
El sistema nervioso en el linaje humano

Las neuronas no dejan fósiles. La única manera de realizar el seguimiento de


la evolución del sistema nervioso a lo largo del linaje humano consiste en
examinar el sistema nervioso de las especies vivas morfológicamente más
similares a los fósiles datados según su estimada primera aparición en las
categorías taxonómicas del reino Animalia hasta llegar a la especie Homo
sapiens, tal y como muestra la tabla 20.1.

Sistema nervioso difuso

Los primeros fósiles animales son radialmente simétricos, como los cnidarios
de la fauna ediacárica.[7] Los sistemas nerviosos más primitivos actuales los
encontramos en animales radialmente simétricos muy simples, como los
cnidarios (hidroides, medusas, anémonas de mar, corales), y se los conoce como
sistemas nerviosos difusos porque las células nerviosas están distribuidas por
todo el organismo, normalmente bajo la capa epidérmica externa, de la que
probablemente evolucionaron. Sus conexiones forman una red neural, o red
nerviosa, que queda ilustrada por la hidra de la figura 24.3.
Sistemas nerviosos central y periférico

Los platelmintos se cuentan entre los primeros invertebrados que mostraron


simetría bilateral, con lados derecho e izquierdo que son imágenes
aproximadamente especulares.[8] Se cuentan asimismo entre los primeros que
mostraron un sistema nervioso central rudimentario y un sistema nervioso
periférico, tal y como ilustra la figura 24.4.
El sistema nervioso del platelminto refleja su bilateralidad morfológica. Dos
grupos de interneuronas interconectadas forman un cerebro rudimentario del que
emergen dos cordones de fibras nerviosas que corren a lo largo de los lados
derecho e izquierdo del cuerpo; estos cordones están conectados entre sí
mediante nervios transversales que recuerdan los peldaños de una escalera de
mano. El conjunto constituye un sistema nervioso central primitivo. A partir de
los cordones, se extienden hacia los lados pequeños nervios que dan lugar a
redes entrelazadas de nervios periféricos que forman un sistema nervioso
periférico. Estos nervios periféricos están asociados con órganos sensoriales
repartidos por todo el cuerpo. Los ocelos que responden a la luz están situados
cerca del cerebro, mientras que la boca se encuentra en la zona central del
cuerpo. Las neuronas motoras están asimismo repartidas por el cuerpo.
La evolución de los animales bilaterales muestra un patrón de aumento en el
número de neuronas así como un proceso de centralización por el cual los grupos
de neuronas sensoriales se acercan progresivamente a un cerebro de mayor
tamaño.
El linaje humano sigue un camino evolutivo que conduce hasta los
vertebrados. Su sistema nervioso central comprende un cerebro protegido por un
cráneo y cordones nerviosos protegidos por una columna vertebral segmentada.
El patrón de centralización continúa con la cefalización: los grupos de neuronas
sensoriales (por ejemplo, las que se estimulan mediante los olores o los sonidos)
se aglutinan cerca del cerebro en el extremo donde se sitúa la cabeza, mientras
que los cordones nerviosos están constituidos por grupos de fibras nerviosas que
transmiten señales hacia y desde un cerebro formado por dos grupos
interconectados y más grandes de interneuronas controladoras y coordinadoras.
El sistema nervioso periférico de los vertebrados se divide en dos. El sistema
nervioso autónomo comprende fibras nerviosas motoras que conectan con los
órganos efectores internos, como el cerebro, los pulmones y las glándulas
endocrinas (que producen y segregan unos elementos químicos, conocidos como
hormonas, hacia el sistema circulatorio que los conduce hasta células objetivo
alejadas donde regulan el metabolismo celular), principalmente para mantener la
homeostasis, es decir, el funcionamiento regular del animal adulto. Está regulado
por la parte más antigua del sistema nervioso central, el tallo encefálico (que los
humanos comparten con descendientes de los primeros reptiles), que responde
automáticamente a los estímulos. El sistema nervioso somático comprende fibras
nerviosas motoras que conectan con los órganos efectores, como los músculos,
situados principalmente en o cerca de las capas exteriores del animal; se activa
mediante el sistema nervioso central que responde a estímulos externos y
sensoriales y está bajo control voluntario.
La evolución de los vertebrados muestra también un patrón de aumento de la
complejidad. El incremento en el número de interneuronas que controlan las
respuestas en las especies morfológicamente más complejas lleva al cerebro a
desarrollar tres nuevos elementos interconectados, asociados cada uno de ellos a
un sentido concreto: un cerebro anterior asociado con el olfato, un cerebro medio
asociado con la visión y un cerebro posterior asociado con el sonido y el
equilibrio. La evolución posterior a lo largo del linaje humano da como resultado
un par de elementos interconectados que emergen del cerebro anterior para
formar los hemisferios cerebrales, un elemento que emerge del cerebro medio
para formar un «techo» del cerebro medio, o téctum, y un elemento en forma de
bola corrugada de tejido nervioso que emerge del cerebro posterior y da lugar al
cerebelo («cerebro pequeño» en latín). La figura 24.5 ilustra estas estructuras
junto con las que se describen a continuación que evolucionaron para formar el
cerebro humano.

La incorporación de estos centros nerviosos al tallo encefálico primitivo


permite una mayor coordinación y asociación entre las fibras sensoriales y
motoras. La evolución desde los vertebrados más antiguos hasta los más
recientes presencia un cambio gradual de función que se desplaza del tallo
encefálico situado en la región inferior hacia el córtex cerebral de la región
superior. Este córtex cerebral es la capa exterior que cubre los hemisferios
cerebrales, la materia gris, y está constituida por cuerpos celulares de neuronas
que cubren la materia blanca, construida por axones protegidos por una vaina
blanquecina de mielina.
La emergencia de la clase taxonómica de los mamíferos está marcada por la
incorporación de dos nuevas estructuras cerebrales. El neocerebelo, que parece
un hongo y se desarrolla a partir del cerebelo y el neocórtex, que se desarrolla a
partir del córtex como una nueva y fina capa exterior de aproximadamente 2
milímetros pero cada vez más arrugada.
La figura 24.6 muestra este desarrollo. En la mayoría de los mamíferos,
como el ratón, el neocórtex es pequeño en comparación con el resto del cerebro,
lo que deja el tallo encefálico claramente visible; en un primate no humano,
como el mono, el neocórtex es relativamente más grande y crece en el interior
del cráneo doblándose sobre sí mismo, lo que le da ese aspecto arrugado,
dejando al descubierto parte del tallo encefálico; en el humano, el neocórtex es
mucho más grande, cubre la totalidad del tallo encefálico y está muy arrugado.

Visto en la misma escala, el crecimiento del neocórtex es lo que evidencia el


sorprendente cambio evolutivo. En los humanos, tiene solamente el doble de
grosor que el del ratón, pero su superficie es mil veces mayor, y mientras que
solo es un 15 por ciento más grueso que el del mono, multiplica prácticamente
por diez su superficie.
La incorporación de nuevas regiones especializadas e interconectadas,
concentradas todas ellas en la cabeza, aumentó tanto la centralidad como la
complejidad del sistema nervioso. Además, el aumento de tamaño del cerebro a
lo largo del linaje humano hizo que no solo aumentara el tamaño de neuronas,
sino también el número de conexiones a través de sus dendritas y axones
terminales. Según una estimación realizada en 2009, el cerebro masculino adulto
contiene aproximadamente 86 mil millones de neuronas[9] (que es inferior a la
cifra tradicional de 100 mil millones) que se transmiten señales entre ellas a
través de unos 500 billones (0,5 x 1015) de conexiones sinápticas,[10] lo que lo
convierte en el objeto más complejo del universo conocido. Además, estas
conexiones neurales no son fijas, como se creía en su día. Los estudios llevados
a cabo desde los años 70 muestran la capacidad de las neuronas para cambiar sus
conexiones en respuesta a nueva información y nueva estimulación sensorial,
además de al daño o la disfunción. Este fenómeno, conocido como
neuroplasticidad, aumenta la flexibilidad conductual y se asocia con el
aprendizaje y la innovación.
El aprendizaje y la innovación suelen tomarse como medidas de la capacidad
cognitiva, o inteligencia, características de los niveles superiores de consciencia.
Distintos investigadores utilizan distintas definiciones, distintos métodos y
distintos supuestos (a menudo no verificados) para correlacionar estas conductas
con el sistema nervioso de las especies. Los siguientes son los cuatro enfoques
principales:

1. Tamaño del cerebro


Partiendo del supuesto de que la capacidad cognitiva es función del
número de neuronas y sus conexiones, y de que estas se incrementan con
el tamaño del cerebro, la capacidad craneal se ha venido utilizando como
parámetro de inteligencia. Es, además, el parámetro más fácilmente
mensurable en fósiles y animales muertos.
Un enfoque tan simplista como este, sin embargo, está plagado de
problemas. ¿Cómo tener en cuenta el hecho de que los mamíferos más
grandes tienen un cuerpo más grande y, en consecuencia, una superficie
más grande y, por lo tanto, necesitan un número mayor de interneuronas
controladoras que procesen más neuronas sensoriales y motoras en vez de
neuronas que procesen conductas innovadoras? Esto no explica por qué la
flexibilidad conductual y la capacidad de innovación de los macacos, por
ejemplo, es tan superior a la de ungulados, como las vacas, que tienen un
cerebro entre cuatro y cinco veces mayor que el de esos monos, o por qué
la inventiva del hombre excede considerablemente la de los elefantes, que
poseen un cerebro hasta seis veces mayor.
Si la supuesta correlación entre tamaño absoluto del cerebro
inteligencia se desglosa en órdenes taxonómicos, ¿se mantiene dentro de
un orden como el de los primates? En 2007, Robert Deaner, del
departamento de Psicología de la Grand Valley State University de
Michigan y sus colegas, analizaron toda la literatura relacionada con la
cognición en las especies de primates y llegaron a la conclusión de que
«las medidas del tamaño absoluto del cerebro eran el mejor predictor de la
capacidad cognitiva de los primates».[11]
Sin embargo, en 2011, Marta Mirazon Lahr, antropóloga especializada
en biología de la Universidad de Cambridge, señaló que el registro fósil,
pese a ser incompleto, sugiere que los humanos más antiguos poseían un
cerebro más grande que los humanos actuales. Por ejemplo, un hombre de
Cromañón adulto, que vivió entre 30.000 y 25.000 años antes que
nosotros, era alto y musculoso, con un peso corporal de entre 80 y 90 kilos
y un volumen cerebral medio de 1.500 centímetros cúbicos
(aproximadamente el mismo volumen que el de los neandertales, que se
extinguieron más o menos por la misma época). Este tamaño cerebral se
mantuvo aproximadamente igual hasta hace unos 10.000 años, cuando
empezó a reducirse hasta alcanzar el tamaño del humano actual, que tiene
un volumen cerebral medio de 1.350 centímetros cúbicos, lo que
representa una reducción de un 10 por ciento (con el correspondiente 10
por ciento de reducción del peso corporal).[12]
No creo que nadie vaya a sugerir que los humanos de hace 10.000 años
exhibían un 10 por ciento más de conducta innovadora que los actuales
humanos. O que las mujeres son menos innovadoras e inteligentes que los
hombres porque un cerebro femenino adulto es aproximadamente un 10
por ciento más pequeño que el de un varón adulto.

2. Proporción entre el cerebro y el peso corporal


En 1973, el neuroanatomista Hartwig Kuhlenbeck comparó distintas
especies por la proporción entre el peso del cerebro y su peso corporal.
Pero este criterio no sirvió para superar otros problemas. Los animales
terrestres necesitan la activación neural de los músculos para superar la
fuerza de la gravedad que se opone a sus movimientos, mientras que la
flotabilidad del agua anula en gran manera esta fuerza y beneficia a los
peces y los mamíferos marinos. Además, gran parte de la masa de las
ballenas, por ejemplo, es aceite neuralmente inerte que las aísla del frío del
mar.

3. Cociente de encefalización
Aquel mismo año, Harry Jerison, del departamento de Psiquiatria y
ciencias conductuales de UCLA, especializado en el estudio de fósiles y su
capacidad craneal, propuso el cociente de encefalización, o EQ (del inglés,
Encephalization Quotient), como una medida mejor del tamaño efectivo
del cerebro en las especies mamíferas. Se basa en la relación entre peso del
cerebro y peso corporal para distintas especies de mamíferos corregida por
una función de potencia derivada de las mediciones de distintos mamíferos
y demuestra que el tamaño del cerebro aumenta menos que el tamaño del
cuerpo a medida que el tamaño del cuerpo aumenta; permite realizar un
cálculo para predecir la masa cerebral de cualquier especie.
El EQ indica qué cantidad de la masa cerebral observada de una
especie se desvía del valor que cabría esperar por su masa corporal: un EQ
de 1 muestra que la masa cerebral observada es igual a la masa esperada;
un EQ mayor que 1 significa que el tamaño del cerebro de esa especie es
mayor de lo que cabría esperar por su masa corporal. Comparados con la
clase de los mamíferos, los humanos tienen el EQ mayor con diferencia,
entre 7 y 8. Comparados con la familia de los homínidos, los humanos
tienen un EQ de más de 3; los gorilas y los orangutanes tal vez sean más
grandes que los humanos, pero su cerebro tiene un tercio del tamaño del
humano.
El EQ es el estándar más utilizado. Sin embargo, la fórmula para
predecir la masa cerebral depende de la combinación de especies
observada. Además, su correlación con la inteligencia asume que cuánto
más grande es el cerebro en relación con el cuerpo, más peso cerebral
queda disponible para tareas cognitivas complejas: cabría esperar que los
animales con cerebro pequeño y EQ grande tengan más inteligencia que
los animales con cerebro grande y EQ inferior. Pero, a pesar de que el
mono capuchino tiene un EQ muy superior al de los gorilas, el rendimiento
cognitivo de estos últimos los supera con creces.
En resumen, a pesar de suponer una mejora con respecto a la
proporción entre cerebro y peso corporal, el EQ sigue siendo una medida
demasiado burda que no tiene en cuenta qué partes concretas del cerebro
son responsables de la conducta innovadora.

4. Neocórtex
En 1969, Heinz Stephan, del Max Planck Institute for Brain Research y
O. J. Andy, del departamento de Neurocirugía del University of
Mississippi Medical Center, llegó a la conclusión de que todos los
primates, así como muchos, sino todos, los órdenes más recientes de
mamíferos placentarios, descienden de antiguos insectívoros, pequeños
mamíferos comedores de insectos.
Quince años más tarde, Stephan, junto con Pierre Jolicoeur y sus
colegas del departamento de Ciencias biológicas de la Universidad de
Montreal, examinaron las diferencias en el cerebro de 28 especies actuales
de insectívoros, 63 especies de quirópteros (el orden de los murciélagos) y
48 especies de primates. Descubrieron que el componente del cerebro que
experimenta el mayor incremento volumétrico relativo desde los
insectívoros hasta los primates es el neocórtex, que está 150 veces más
desarrollado en el Homo sapiens que en un hipotético insectívoro basal del
mismo peso corporal.[13]
Por lo tanto, la característica más distintiva de la evolución del cerebro
humano con respecto a otros mamíferos y especies de primates es el
crecimiento del neocórtex, la parte del cerebro de evolución más reciente,
que procesa funciones cognitivas superiores como la memoria a corto
plazo, la asociación, la innovación, el lenguaje, el racionamiento y la
introspección, características todas ellas de niveles superiores de
consciencia.
El aspecto arrugado del neocórtex es importante por tres motivos. En
primer lugar, los dobleces del tejido neural proporcionan una
centralización incluso mayor: en el mismo volumen pueden caber más
neuronas, lo que consigue una mayor densidad neuronal. En segundo lugar,
y como consecuencia de lo primero, la longitud de las fibras que conectan
estas neuronas es inferior que si las neuronas estuvieran más distanciadas,
lo que reduce la transmisión interneuronal y el tiempo de respuesta del
cerebro. En tercer lugar, todo esto implica que la cabeza no tiene que
crecer para acomodar más volumen de cerebro. Como resultado de este
tercer factor, el tamaño del animal no tiene por qué aumentar; de ahí que la
cantidad y la longitud de las fibras nerviosas que conectan con el tejido
sensorial, como la piel, y con el tejido efector, como los músculos, situados
en partes remotas del cuerpo no necesita aumentar. Esto reduce el tiempo
de transmisión neural; y da también como resultado un porcentaje mayor
de neuronas asociadas a funciones cognitivas avanzadas con respecto a
neuronas asociadas a funciones motoras o de mantenimiento. En términos
generales, optimiza la proporción cerebro-cuerpo para una respuesta más
flexible y más rápida y para funciones cognitivas avanzadas, como la
innovación. Todo esto no es resultado de la selección natural entre un
abanico prácticamente ilimitado de posibilidades aleatorias, sino de las
leyes de la física.
[1] Véase página 510.
[2]Conway Morris, pp. 197–200.
[3]Chomsky (2006).
[4]Tomasello (2003).
[5] Véase página 519.
[6]Reader, Simon M. y Laland, Kevin N., «Social Intelligence, Innovation, and Enhanced Brain Size in
Primates», Proceedings of the National Academy of Sciences of the United States of America. 99: 7, 2002,
pp. 4436–4441.
[7] Véase página 462.
[8] Por qué los animales evolucionaron bilateralmente en vez de hacerlo, por ejemplo, trilateralmente o
cuadrilateralmente es una pregunta que rara vez se formula y que nunca se ha respondido de manera
satisfactoria. El «principio adaptativo» no lo hará: el entorno posee tres dimensiones espaciales.
[9]Azevedo, Frederico A. C., et al, «Equal Numbers of Neuronal and Nonneuronal Cells Make the
Human Brain an Isometrically Scaled-up Primate Brain», The Journal of Comparative Neurology, 513: 5,
2009, pp. 532–541.
[10]Kendrick, Keith, «Understanding the Brain: A Work in Progress», Gresham College Lecture,
Londres, 22 de noviembre de 2010.
[11]Deaner, R. O., et al, «Overall Brain Size, and Not Encephalization Quotient, Best Predicts
Cognitive Ability across Non-Human Primates», Brain, Behavior and Evolution, 70: 2, 2007, pp. 115–124.
[12]Lahr, Marta Mirazon, «African Origins – the Morphological and Behavioural Evidence of Early
Humans in Africa», Human Evolution, Migration and HistoryRevealed by Genetics, Immunity and
Infection, Royal Society, Londres, 6 de junio de 2011.
[13]Jolicoeur, Pierre, et al, «Brain Structure and Correlation Patterns in Insectivora, Chiroptera, and
Primates», Systematic Zoology, 33: 1, 1984, pp. 14–29.
CAPÍTULO 25. REFLEXIONES Y CONCLUSIONES
SOBRE EL ORIGEN Y LA EVOLUCIÓN DE LA VIDA

En la era post-copernicana de la historia de la humanidad, ninguna persona racional y bien informada


podría imaginarse que la Tierra ocupa una posición única en el universo.

MICHAEL ROWAN-ROBINSON, 2004

Nuestra existencia presentaba en su día el mayor de los misterios, pero ha dejado de ser un misterio
porque está solucionado. Lo solucionaron Darwin y Wallace, aunque deberíamos seguir durante un tiempo
incorporando notas a pie de página a su solución.

RICHARD DAWKINS, 1986

Nullius in verba (En las palabras de nadie) (No aceptes nada por autoridad).

LEMA DE LA ROYAL SOCIETY

Reflexiones

Una de las alegrías de este viaje ha sido descubrir cosas que no me esperaba.
Los cosmólogos ven el planeta Tierra como una de las cosas más insignificantes
de una galaxia integrada por miles de millones de estrellas, muchas de las cuales
tienen su propio sistema planetario, y esa galaxia no es más que una entre las
cien mil millones de galaxias del universo visible que es, según la cosmología
ortodoxa actual, una parte increíblemente mínima de la totalidad del universo.
Sin embargo, desde la relativamente nueva ciencia de la astrobiología es
posible deducir seis condiciones necesarias para que las moléculas más
complejas de 13 átomos del espacio interestelar y los asteroides evolucionen
hasta crear seres tan complejos como el hombre. Estas seis condiciones reducen
dramáticamente los lugares en una galaxia y en un sistema solar donde una
evolución como esta podría tener lugar en conformidad con las leyes físicas y
químicas conocidas. La superficie de la Tierra ofrece estas condiciones pero —y
aquí llega la sorpresa— solo las ofrece porque se produce en ella una
coincidencia de hechos estelares y planetarios de lo más poco común. Si no es
única, lo que sí que es la Tierra es un lugar excepcional para albergar vida
inteligente en esta galaxia.
Otra sorpresa es la ausencia de una definición generalmente acordada del
concepto de vida. Las definiciones propuestas no son ni suficientes ni necesarias
para distinguir los seres vivos de los que no lo están, y muchas de ellas excluyen
seres vivos, como las mulas, que no se reproducen. Confío en que la definición
sugerida en el capítulo 13 ofrezca una distinción viable y muestre que existe una
frontera irreversible, aunque trazada con imprecisión, que marca una importante
transición evolutiva de la materia inanimada a la vida.
Estoy muy agradecido a los astrobiólogos y los geólogos que corrigieron los
errores de hecho u omisión y comentado mis conclusiones en los borradores de
los capítulos. Lo hicieron con mentalidad abierta y sin dogmatismo, siguiendo la
mejor tradición de la ciencia. Tal vez sea así porque la astrobiología es una
ciencia nueva y emergente y la geología vivió un cambio de paradigma en los
60, después de que cincuenta años de testarudez ortodoxa rechazando la
hipótesis de la deriva continental cayeron bajo el peso de las evidencias que
sustentaban el mecanismo de las placas tectónicas, cuyos detalles siguen
investigándose hoy en día.
Por desgracia, en lo referente a la investigación de la evolución de la vida,
gran parte de las respuestas a mis preguntas y mis borradores fueron similares a
las posturas de los cosmólogos y los físicos teóricos ortodoxos comentadas en el
capítulo 11, al final de la primera parte. Estas respuestas podrían agruparse en
cinco tipologías:

a. Imperiosamente despectivas.
b. Educadamente despectivas.
c. Usted desconoce los hechos.
d. Usted parece conocer los hechos pero no entiende nada.
e. El neodarwinismo es compatible con todas las evidencias y con las
distintas hipótesis.

Una respuesta imperiosamente despectiva a una petición de revisar el


borrador de un capítulo que empezaba afirmando que en los últimos cuarenta
años ha habido muy pocos estudios sobre las especies vivas diseñados para
investigar si la evolución biológica se produce o no, empezaba con «No he
pasado [sic] de la primera fase de su artículo […]. Lo que usted dice no podría
estar más lejos de la verdad». Continuaba diciendo que ha habido miles de
estudios experimentales diseñados para investigar si la evolución biológica se
produce o no, y añadía «No puedo evitar la sensación de que cualquiera que sea
objetivo y esté debidamente informado debería conocerlos». Y proseguía
recomendándome un libro publicado en 1986 o cualquier libro de texto
universitario sobre la evolución.
Fue precisamente porque reconozco mi ignorancia en su campo que le pedí
que me corrigiera los errores de hecho u omisión en el borrador de aquel
capítulo. Pero resulta que aquel libro de 1986 no examina si la evolución
biológica se produce o no, sino los métodos para investigar su mecanismo
neodarwinista, que era precisamente lo que decían la segunda y la tercera frase
del borrador; el resto del borrador hablaba sobre los ejemplos proporcionados en
los actuales textos universitarios. Esta respuesta supone un ejemplo extremo de
los biólogos evolutivos que equiparan el fenómeno de la evolución biológica con
el mecanismo neodarwinista, que no es más que uno de sus supuestos
mecanismos.
Un destacado miembro de la élite biológica de los Estados Unidos respondió
en cuestión de horas el mensaje de correo electrónico en el que le pedía si podía
revisar el borrador de mi capítulo diciendo: «He realizado una lectura rápida del
texto que me ha enviado […]. Lo que ha escrito resulta ingenuo a veces,
incompleto y sesgado en su totalidad, no está actualizado en muchos casos y
lleno de errores de hecho y atribución, así como de teoría».
39 de las 60 referencias citadas, y correctamente atribuidas, en el borrador
eran artículos publicados a lo largo de los seis años anteriores, incluyendo una
larga entrada de una enciclopedia redactada por él mismo y publicada online
aquel mismo año. Le respondí diciéndole que me preocupaban mucho sus
comentarios y que le estaría agradecido si pudiera aclararme dónde estaba mi
sesgo e indicarme los principales errores y atribuciones erróneas. A pesar de que
posteriormente le envié un recordatorio, sigo aún esperando respuesta.
Las respuestas educadamente despectivas me decían que no estaban de
acuerdo con mis conclusiones pero que me deseaban lo mejor. Algunos
insinuaban que estaba atacando la teoría evolutiva —una interpretación errónea
de mis intenciones, que había dejado muy claras— y me daban a entender que
era prácticamente un creacionista. Me vi por ello obligado a realizar un prefacio
en mis solicitudes posteriores, declarando que no creía ni en el creacionismo ni
en el diseño inteligente y que en capítulos previos había llegado a la conclusión
de que ambos quedaban fuera del territorio de la ciencia.
En el libro trazo brevemente el desarrollo de la teoría científica en cada
campo para ilustrar la evolución de la ciencia en respuesta a las evidencias y las
ideologías más novedosas antes de iniciar el examen de la teoría ortodoxa actual,
que suscribe la amplia mayoría de los investigadores del campo en cuestión.
Uno de los consultados mostró sus objeciones ante el uso de la palabra
«ortodoxia», basándose en que es un término que implica creencia. Dos
ejemplos de la ortodoxia vigente en la biología son la hipótesis de la aptitud
inclusiva y la del «altruismo recíproco», que invocan los sociobiólogos para
explicar cómo es posible que un fenómeno tan extendido como la colaboración
sea compatible con la competencia neodarwinista.
Edward O. Wilson, considerado en términos generales su fundador, tuvo la
perspicuidad de decir que la sociobiología había dado un giro equivocado en los
años 60 y 70. En 2010, y junto con dos biólogos matemáticos evolutivos, publicó
un artículo en Nature argumentando que la teoría de la aptitud inclusiva había
demostrado ser de escaso valor para explicar el mundo natural. Cinco meses más
tarde, Nature publicó un comentario firmado por 138 biólogos evolutivos
proclamando: «Creemos que sus argumentos se basan en una comprensión
fallida de la teoría evolutiva y en una interpretación errónea de la literatura
empírica [la cursiva es mía]». Una nota al pie decía que varios científicos más
que habían contribuido de forma importante al documento no aparecían listado
porque aparecían nombrados en distintos cometarios. 17 académicos más
firmaron otros cuatro comentarios atacando distintos aspectos del artículo de
Wilson. Que 155 biólogos evolutivos suscriban un artículo declarando que creen
que el fundador de la sociobiología no entiende sus teorías, me parece que ilustra
bien a qué me refiero cuando hablo de la ortodoxia y de la mentalidad grupal que
con frecuencia engendra.
En el capítulo 23 se comenta lo mucho que le costó a Lynn Margulis ser
publicada en las principales revistas de ciencias y biología revisadas por sus
colegas, a pesar de las evidencias genéticas que demostraban sin ninguna duda
que al menos varias de sus hipótesis eran válidas.
El modo en que la clase dirigente de los biólogos trata a los disidentes de
dentro y a los de fuera que se hacen preguntas recuerda en exceso lo que sucede
con la clase dirigente cosmológica. Sospecho que se debe en gran parte a los
mismos motivos. En el campo de la biología, la clase dirigente está dominada
por una escuela que integra, por un lado, teóricos que utilizan la estadística de
los genetistas de poblaciones y, por el otro, por zoólogos experimentales que
trabajan principalmente en el laboratorio con la mosca de la fruta y que
extrapolan sus descubrimientos no solo a todos los demás animales sino también
a las plantas, los hongos, las protoctistas y las bacterias. Esa escuela ha hecho
grandes contribuciones en el campo de la biología y sus hipótesis han explicado
gran parte de lo que conocíamos en su momento.
Pero más de sesenta años después, la situación se ha osificado en una cultura
que equipara evolución biológica con modelo neodarwinista y que fusiona
pruebas matemáticas con pruebas empíricas. Las evidencias contradictorias,
especialmente las proporcionadas por el registro fósil y por las observaciones de
un amplio rango de especies en la naturaleza, se ignoran o se contratacan con
afirmaciones carentes de base, falacias lógicas o modelos matemáticos cuyos
parámetros arbitrarios pueden ajustarse para producir los resultados deseados.
Otras hipótesis son descartadas de entrada o se acusa a sus proponentes de atacar
la evolución biológica.
Un factor específico de los biólogos, y muy especialmente en los Estados
Unidos, es su respuesta al intento de enseñar en las escuelas, junto con la
evolución biológica, tanto el creacionismo como el diseño inteligente.
Paradójicamente, ignorar o negar las evidencias que contradicen el
neodarwinismo da alas a los creacionistas y al movimiento que defiende el
diseño inteligente.
Quiero expresar mi agradecimiento a todos aquellos que entablaron lo que
acabó a menudo siendo un largo diálogo conmigo aun sosteniendo su punto de
vista ortodoxo. Me remitieron a algunos artículos de los que no estaba al
corriente y me llamaron la atención hacia partes del borrador donde el
razonamiento no era sólido o había una falta patente de claridad. Algunos, al
final, reconocieron que el borrador tenía varios puntos válidos.
El quinto tipo de respuesta fue la de aquellos biólogos evolutivos que
reconocían contradicciones entre el neodarwinismo y las evidencias de la
naturaleza así como la plausibilidad de hipótesis alternativas. Adoptaron el punto
de vista de que la ciencia avanza y que el neodarwinismo es compatible con
todas las evidencias y las hipótesis. Para citar uno: «Hay neodarwinistas que
creen que el cambio debe ser gradual. Si hubiera equilibrio puntuado, o incluso
saltación, se demostraría que esos puntos de vista concretos de esos científicos
concretos están equivocados, no que el neodarwinismo está equivocado». Pero el
gradualismo es un principio básico tanto para el darwinismo como para el
neodarwinismo.
Una postura tan tolerante, que abarca hipótesis mutuamente contradictorias e
hipótesis que las evidencias contradicen, hace que cualquier teoría pierda
sentido. Una teoría científica se define por sus principios básicos, y Jerry Coyne
tendría que llevarse el mérito por haber definido los principios básicos del
neodarwinismo contemporáneo.
El patrón histórico de las teorías científicas es aquel que muestra pequeños
pasos progresivos hacia el refinamiento y la aplicación de los principios básicos,
seguidos por el aumento de evidencias nuevas y de nuevas ideas que desafían
esos principios básicos, luego por la resistencia defensiva a esos desafíos y,
finalmente, por la aceptación de un nuevo conjunto de principios básicos,
normalmente por parte de los investigadores de la generación más joven. Es lo
que sucedió en la geología y también en la física: Neils Bohr se vio desanimado
a seguir estudiando física porque el punto de vista newtoniano clásico no admitía
discusión y no quedaban más descubrimientos importantes que hacer en ese
sentido. Un punto de vista del que Richard Dawkins se hace eco en la cita que
aparece justo después del título de este capítulo.
La biología evolutiva tiene que pasar aún por este cambio de paradigma. La
humildad frente a lo que aún no sabemos ni entendemos es una cualidad
admirable, aunque no universalmente presente, en los biólogos.
Las evidencias robustas reveladas en el transcurso de los últimos quince años
por la secuenciación rápida de genomas completos de muchas especies, han
generado modelos que reflejan mejor las nuevas evidencias e ideas y que ofrecen
una nueva visión de ideas anteriormente ignoradas o rechazadas que en realidad
son compatibles con dichas evidencias. Confío en que acabe emergiendo una
nueva teoría de la evolución biológica en la que el neodarwinismo, o partes del
mismo, se consideren un caso especial o limitador.
No todos los biólogos evolutivos respondieron a mis borradores del modo en
que he esbozado antes. Un investigador eminente hizo el siguiente comentario:
«He leído la sección de su libro y es, con diferencia, el caso sobre el incremento
de complejidad más completo que he visto nunca». Mientras que otro escribió:
«Aplaudo su esfuerzo por presentar todas las teorías alternativas, etc. de las que
dispone, sobre todo teniendo en cuenta que […] muchas de ellas han sido
ignoradas o no han sido puestas a disposición del gran público […]. En general,
creo que su presentación mantiene un tono de neutralidad que necesitábamos
desde hace mucho tiempo».

Conclusiones

El resumen de los descubrimientos de la segunda parte me lleva a las


siguientes conclusiones:
1. Para que las moléculas orgánicas de 13 átomos que encontramos en el
espacio interestelar y en los asteroides evolucionen hasta transformarse en
seres tan complejos como el hombre, son necesarias seis condiciones: un
planeta con los elementos y las moléculas esenciales, fuentes de energía,
una masa mínima y probablemente también una masa máxima, protección
contra las radiaciones nocivas y los impactos, un rango de temperatura
estrecho justo por debajo y justo por encima de la superficie, y la
estabilidad de esta biosfera a lo largo de miles de millones de años.
(Capítulo 12).
2. La coincidencia excepcional de una serie de factores galácticos, estelares y
planetarios propició estas seis condiciones en la Tierra, produciendo un
flujo de energía cambiante a través de un sistema fisicoquímico que se ha
mantenido estable, aunque alejado del equilibrio termodinámico, durante
aproximadamente 4 mil millones de años. Lo que sugiere que la Tierra, si
no única, es un planeta extraño en la galaxia, y tal vez en el universo, en
cuanto a que posee las condiciones necesarias para la aparición y la
evolución de formas de vida con base carbónica tan complejas como el
hombre. (Capítulo 12).
3. La vida podría definirse como la capacidad de una entidad cerrada de
responder a cambios tanto en su interior como en su entorno, de extraer
energía y materia de su entorno, y de convertir esa energía en actividades
dirigidas internamente, actividades que incluyen el mantenimiento de su
propia existencia. Su aparición marca un cambio de tipología, no
simplemente de grado, a partir de la materia inanimada. (Capítulo 13).
4. Las evidencias fósiles conclusivas de la aparición de la vida se han
identificado en rocas datadas hace 2 mil millones de años, unos 2,5 miles
de millones de años después de que se formara la Tierra. Suponiendo que
estos microorganismos evolucionaran a partir de formas de vida más
simples, la vida habría existido ya antes. Los científicos no se ponen de
acuerdo en la datación del origen de la vida y las estimaciones lo sitúan
hace 3,5 miles de millones de años, o incluso 3,8 o 3,85 miles de millones
de años, en el eón hádico, cuando la Tierra sufrió un bombardeo de
asteroides y otros desechos. Las mejores estimaciones actuales sitúan ese
origen hace 3,5 miles de millones de años. (Capítulo 14).
5. El descubrimiento de extremófilos, organismos que viven en la actualidad
en condiciones extremas similares a las que se cree que debía de haber en
el eón hádico, sugiere que la vida podría haber existido en ese momento,
700 millones de años después de que la Tierra se formara, aunque no lo
demuestra. (Capítulo 14).
6. Debido a la escasez generalizada del registro fósil, y debido a que
prácticamente todas las rocas sedimentarias de los primeros 2 mil millones
de años de la Tierra se han visto subducidas o han sufrido metamorfosis, es
casi seguro que nunca encontraremos evidencias sólidas ni de las primeras
formas de vida ni de cuándo aparecieron en la Tierra. (Capítulo 14).
7. Los análisis genéticos de una amplia variedad de células sugiere con
fuerza, aunque no demuestra, que la vida apareció de forma natural en la
Tierra una sola vez, y que todas las formas de vida actuales —desde los
muchos tipos de bacteria hasta el hombre— evolucionaron a partir de un
único antepasado común. (Capítulo 14).
8. Ninguna hipótesis científica explica por qué las proteínas —moléculas
esenciales para el funcionamiento de toda célula conocida y, por lo tanto,
también de las primeras células independientes— se forman a partir de
combinaciones de hasta 20 aminoácidos concretos, de entre los cerca de
500 aminoácidos conocidos, y por qué solo se utiliza el isómero izquierdo
de cada aminoácido habiendo dos disponibles. (Capítulo 14).
9. Ninguna hipótesis científica explica de forma convincente cómo el número
de átomos y moléculas de los que constan los componentes complejos
esenciales, junto con sus configuraciones cambiantes y su funcionamiento,
que constituyen la forma de vida independiente más simple, y
presumiblemente la más primitiva, emergieron sobre la superficie de la
recién formada Tierra a partir de las interacciones de átomos y moléculas
formadas por hasta 13 átomos. (Capítulo 15).
9.1. El relato de la bioquímica ortodoxa de cómo surgió la vida a partir de
una «sopa primigenia» de estos elementos químicos carece de base
experimental y es inválido porque, entre otras razones, existe una
improbabilidad estadística abrumadora de que reacciones aleatorias en
una solución acuosa pudieran producir moléculas de ARN auto-
replicante o incluso péptidos auto-replicantes, y mucho menos con
aminoácidos levógiros.
9.2. Otras hipótesis —como la de la complejidad auto-organizada, el
replicador de arcilla, el replicador de pirita de hierro o un mecanismo
cuántico en vez de termodinámico— ofrecen posibilidades intrigantes,
pero hasta el momento, carecen de explicaciones de los pasos claves así
como de base empírica.
9.3. Las distintas propuestas de que la vida llegó a la Tierra desde el
espacio exterior posponen la pregunta original, y en su mayoría han
quedado desaprobadas o se sustentan sobre supuestos altamente
cuestionables y sin base alguna.
9.4. El principio antrópico débil no explica nada, mientras que las
interpretaciones del principio antrópico fuerte y las propuestas de un
diseño inteligente de la primera célula no son falsables y, por lo tanto,
quedan fuera del terreno científico.
10. Igual que sucede con la aparición de la materia, es muy probable que la
explicación de la aparición de la vida quede más allá del alcance de la
ciencia. (Capítulo 15).
11. Las evidencias fósiles, o de cualquiera de las estructuras homólogas,
vestigios, embriología, biogeografía, bioquímica, genética y genómica de
las especies vivas, no ofrecen por ellas mismas evidencias indiscutibles del
fenómeno de la evolución biológica. Sin embargo, en conjunto, ofrecen
evidencias abrumadoras de que el hombre evolucionó a partir de las
primeras formas de vida de la Tierra, que se extenderían por la superficie
del planeta para formar una biosfera o, más concretamente, una biocapa.
Además, las evidencias muestran un patrón claro. (Capítulos 17 y 18).
12. El patrón del registro fósil a lo largo del tiempo va de simple a más
complejo: loas procariotas aparecen antes que las eucariotas, las eucariotas
unicelulares antes que las pluricelulares, la simetría radial antes que la
bilateral y la cefalización, los invertebrados antes que los vertebrados, los
peces antes que los anfibios, los reptiles antes que las aves, los mamíferos
antes que los primates y los monos antes que los humanos. (Capítulo 17).
13. No se trata de una progresión lineal sino de una evolución con redes,
fusiones y ramificaciones a partir de un antepasado universal común que se
dividió en muchos linajes que, en su inmensa mayoría, terminaron en la
extinción. (Capítulos 17 y 18).
14. A pesar de que la frontera que marca la aparición de una nueva especie
suele ser borrosa, como sucede siempre que surge algo nuevo, es una
frontera, de todos modos: una vez superada, no hay marcha atrás.
(Capítulo 17).
15. Los linajes alcanzan la estasis, durante la cual la última especie muestra
pocos cambios, bien antes de la extinción bien, menos comúnmente,
durante varias decenas o incluso centenares de millones de años hasta
llegar a la actualidad. (Capítulo 17).
16. Las evidencias indican que la complejidad suele aumentar a lo largo de los
linajes; este es claramente el caso del linaje que lleva hasta el hombre.
(Capítulos 17 y 18).
17. Las especies vivas forman un patrón de complejidad creciente que va
desde las procariotas hasta el hombre. (Capítulo 18).
18. La colaboración juega un papel más importante que la competencia en la
supervivencia y la propagación de la vida, desde los genes que actúan de
forma concertada, pasando por las procariotas que colaboran en colonias
para mantenerse y replicarse, los orgánulos que colaboran en el seno de
una eucariota unicelular para mantener y replicar la célula, los grupos de
células especializadas que colaboran dentro de organismos pluricelulares,
hasta los animales que colaboran en sociedades, como las colonias de
insectos, los bancos de peces, las bandadas de aves, y las familias, clanes,
tropas y otros grupos sociales de muchos mamíferos. La colaboración está
también extendida entre miembros de distintas especies. (Capítulo 19).
19. En especies unicelulares y animales, la colaboración suele adoptar la
forma de un grupo dentro de una especie que comunica y trabaja en
conjunto para construir un refugio comunitario, engendrar y criar la
descendencia, buscar alimento, defenderse, atacar a las presas y migrar
hacia un entorno mejor para su supervivencia y reproducción. En algunos
casos, varios grupos dentro de una misma especie, e incluso entre especies
relacionadas, colaboran también en busca del beneficio propio, sobre todo
en tareas de migración. (Capítulo 19).
20. La colaboración en las especies unicelulares es innata. Entre animales
simples, como muchas especies de insectos, la colaboración también es
innata, aunque más compleja y normalmente forzada; es mejor describir
esta conducta como colectivismo, para distinguirla del cooperativismo, en
el que el beneficio es mutuo o la colaboración es voluntaria. (Capítulo 19).
21. A medida que la complejidad morfológica de las especies aumenta, desde
los peces hasta los primates, el aprendizaje social, que es más eficiente que
el aprendizaje individual por el método de prueba y error, aumenta y
suplementa la conducta innata; las habilidades socialmente aprendidas
pueden ser hereditarias. Además, dentro de cada clase, el aumento el
aprendizaje social se correlaciona con el aumento de la complejidad
cerebral, junto con un aumento de la inteligencia medido por la invención
de soluciones cada vez más novedosas para problemas desafiantes.
(Capítulo 19).
22. La explicación ortodoxa actual del fenómeno de la evolución biológica es
una síntesis actualizada de la selección natural darwinista de caracteres
hereditarios generados aleatoriamente, que hace que los individuos de la
población de una especie estén mejor adaptados para competir por los
recursos limitados de su entorno y, en consecuencia, puedan sobrevivir
más tiempo y reproducirse más; la genética de poblaciones con base
estadística; y el dogma central de la biología molecular, que dice que la
información es un flujo unidireccional que va desde el gen hasta la
proteína de las células. (Capítulo 16).
23. Muchos defensores de este paradigma neodarwinista dicen que la
selección natural es la causa de la evolución biológica, pero no puede ser
una causa a menos que la naturaleza la elija, puesto que seleccionar es
elegir. Tampoco puede ser una metáfora de una ley natural, puesto que sus
defensores no invocan en ningún momento, y mucho menos ofrecen
prueba de la existencia, de una ley natural de la evolución biológica basada
en el gen que aplique a todos los seres vivos. Si la selección natural es algo
más que un argumento circular (los organismos que sobreviven más
tiempo y se reproducen más son aquellos seleccionados naturalmente para
sobrevivir más y reproducirse más), será un registro pasivo de los efectos
causados por otras cosas. (Capítulo 21).
24. Según el modelo neodarwinista, las tres causas principales de la evolución
de las especies son (capítulo 21):
24.1. Mutaciones genéticas generadas aleatoriamente que codifican para
caracteres que dan a un miembro de la población de una determinada
especie una ventaja en la competencia por los recursos limitados y lo
protege contra los depredadores del entorno donde habita la población.
24.2. La competencia, principalmente entre miembros de una población
creciente en un entorno con recursos finitos, lo que permite a los
ganadores sobrevivir más tiempo y tener más descendencia.
24.3. La reproducción sexual que disemina estas mutaciones genéticas
ventajosas a través del acervo génico de la población a lo largo de
decenas o centenares de miles de generaciones.
25. Esta hipótesis ortodoxa neodarwinista explica plausiblemente el patrón
más dominante en las evidencias —las grandes extinciones de especies—
como resultado de una de las causas siguientes, o de una combinación de
las mismas: la competencia mortal entre miembros de una especie en
crecimiento por los recursos limitados del entorno de dicha población, la
depredación por parte de otras especies, la propagación de mutaciones
genéticas nocivas en el acervo génico de una población (puesto que una
sola mutación puede acabar resultando fatal mientras que para producir la
innovación morfológica son necesarias muchísimas mutaciones genéticas)
y la incapacidad de una especie de adaptarse a un cambio en su entorno.
(Capítulos 16, 17, 18, 19, 21 y 22).
26. Muchas especies experimentan variaciones reversibles como respuesta a
cambios ambientales, en su mayoría debidos a cambios en las cantidades
relativas de variaciones genéticas ya presentes en el acervo génico de una
población más que a una acumulación gradual de nuevas mutaciones
genéticas. Pero el cambio reversible no constituye la evolución de una
especie. Para distinguir entre cambio adaptativo reversible y cambio
irreversible, habría que definir la evolución biológica como un proceso de
cambio en organismos que da como resultado una nueva especie.
(Capítulos 18 y 21).
27. No existen evidencias que sustenten la explicación neodarwinista de la
evolución irreversible de las nuevas especies. (Capítulo 18).
28. La hipótesis ortodoxa neodarwinista no explica:
28.1. Por qué el registro fósil de los animales muestra una estasis
morfológica con cambios menores, y a menudo oscilantes, puntuados
por la aparición geológicamente súbita (decenas de miles de años) de
nuevas especies completamente formadas que permanecen sin cambios
durante decenas e incluso cientos de miles de años, hasta que se
extinguen o, más raramente, continúan su existencia hasta nuestros días.
28.2. Por qué la acumulación de mutaciones genéticas es aproximadamente
la misma en los distintos linajes, pero en algunos linajes esto da como
resultado la inexistencia de cambios morfológicos o de especies durante
decenas o centenares de millones de años, a pesar de los cambios
considerables que sufre el entorno.
28.3. Por qué algunas especies con genes muy similares tienen fenotipos
muy distintos, mientras que otras especies que difieren sustancialmente
en sus genes tienen fenotipos similares.
28.4. La especiación inmediata, y no gradual, a través de la poliploidía,
que es un aumento del número normal de cromosomas por célula que se
produce de manera natural en muchas plantas, así como en peces,
anfibios, reptiles e incluso en algunos mamíferos, y que está
probablemente más extendida de lo que suponían los escasos intentos de
investigación del fenómeno.
28.5. Por qué o cómo se heredan los caracteres adquiridos sin que haya
ningún cambio genético subyacente.
28.6. La función de cerca del 98 por ciento del genoma humano que no
consiste en genes definidos como segmentos de ADN codificador de
proteínas y que durante cincuenta años fue ignorado como «ADN
basura» antes de que análisis genómicos mostraran que en su mayoría
está implicado en la regulación de la expresión de redes genéticas, una
función que determina el fenotipo tanto como los genes codificadores de
proteínas.
28.7. Por qué una única célula fertilizada, resultado de la fusión de una
célula sexual masculina y una célula sexual femenina, se replica en
células madre idénticas que luego se diferencian en células
especializadas con funciones distintas, que posteriormente evolucionan
en un adulto independiente y complejo masculino o femenino.
28.8. Por qué o cómo las especies más numerosas del planeta evolucionan;
es decir, las procariotas no se reproducen sexualmente sino que se
replican clonándose y realizando una transferencia genética horizontal, a
veces entre especies muy distintas.
28.9. Por qué o cómo las evidencias de la evolución biológica se
caracterizan por dos patrones importantes y relacionados entre sí: el
aumento de complejidad y la colaboración. (Capítulos 20, 21 y 22).
29. La afirmación de los defensores del diseño inteligente de que la hipótesis
darwinista no puede explicar las innovaciones biológicas importantes y su
patrón de aumento de complejidad está sustentada por una buena cantidad
de evidencias. Sin embargo, llegar a la conclusión de que estas
innovaciones biológicas han sido dirigidas por un agente inteligente es una
falacia lógica. Que la hipótesis neodarwinista no puede explicar estos
fenómenos, no implica que otras hipótesis científicas verificables no
puedan ofrecer una explicación ahora o en el futuro. Los defensores del
diseño inteligente no ofrecen explicaciones verificables de sus creencias,
lo que sitúa el diseño inteligente fuera del terreno de la ciencia. (Capítulo
22).
30. Por lo que se refiere a las otras hipótesis que complementan o desafían el
paradigma neodarwinista, la hipótesis del equilibrio puntuado no se aleja
radicalmente del neodarwinismo pero desafía su método de especiación
basándose en que las mutaciones genéticas de una población diseminada
en un área geográfica grande quedan diluidas por el tamaño de la
población y por los cambios constantes en el entorno, lo que provoca
cambios morfológicos menores que fluctúan alrededor de una media, algo
que evidencia el registro fósil. Propone que las mutaciones genéticas se
propagan rápidamente en subpoblaciones pequeñas aisladas de la periferia
y que eso produce nuevas especies incapaces de reproducirse con éxito con
el grupo principal. (Capítulo 22).
31. De un modo similar, la hipótesis del origen súbito desafía también el
gradualismo neodarwinista. Sustentada sobre evidencias bioquímicas,
afirma de forma persuasiva que el estado normal de los organismos es la
homeostasis, puesto que los mecanismos de reparación celular corrigen
constantemente las mutaciones generadas aleatoriamente e impiden de este
modo el cambio. El estrés relativamente repentino y grave sería lo único
capaz de superar estos mecanismos y de permitir que las mutaciones que
sufren las células sexuales queden sin reparar y provoquen cambios
genómicos que afecten el desarrollo del organismo. La hipótesis, sin
embargo, resulta vaga en cuanto a la manera en cómo esto conduce a la
aparición de especies viables o produce transiciones evolutivas que
muestren un patrón de complejidad creciente. (Capítulo 22).
32. La teoría neutral desafía la acumulación gradual de mutaciones genéticas
que el neodarwinismo defiende como único mecanismo de especiación.
Argumenta que, a nivel molecular, la mayoría de cambios genéticos
acumulados no confiere ventajas adaptativas o competitivas y que la
especiación podría producirse por la acumulación casual de mutaciones
«selectivamente neutras». A pesar de desaprobar la idea del mecanismo
único, la teoría neutral se muestra también vaga en cuanto a la manera en
cómo esto conduce a la aparición de especies viables o produce
transiciones evolutivas que muestren un patrón de complejidad creciente.
(Capítulo 22).
33. La hipótesis de la duplicación total del genoma, o 2R, propuesta por
primera vez en 1970, ofrece una explicación de cómo se ha producido el
cambo evolutivo en los vertebrados mediante el duplicado del número
normal de juegos de cromosomas por célula seguido por la degeneración a
dos juegos de cromosomas por célula pero con el doble de genes. A pesar
de que la hipótesis fue ignorada o rechazada en su momento, la reciente
secuenciación de genomas completos ofrece una base al demostrar, por
ejemplo, que una gran parte del genoma humano comprende cuatro juegos
de genes con estructura similar en distintas regiones cromosómicas.
Esta hipótesis ofrece una explicación plausible para la especiación
relativamente rápida que muestra el registro fósil. Sin embargo, tal y como
se ha desarrollado hasta ahora, no explica cuál fue la causa de la
duplicación del genoma o cuál, de entre varios mecanismos, estuvo
implicado. Es posible que futuros estudios sobre la poliploidía en plantas y
animales revelen respuestas tanto para estas preguntas como a la de hasta
qué punto este mecanismo ha estado presente en la evolución biológica.
(Capítulo 22).
34. La teoría de la epigenética busca ampliar el actual paradigma más allá del
neodarwinismo proponiendo mecanismos no genéticos tanto para la
morfogénesis (la diferenciación de las células madre en células
especializadas que luego evolucionan hasta dar lugar a un individuo
adulto, complejo e independiente) como para la herencia de caracteres
adquiridos, pero no explica por qué se producen estos fenómenos.
(Capítulo 22).
35. La teoría de la convergencia desafía la postura de los neodarwinistas
actuales que afirman que las causas del cambio genético son aleatorias y
que, en consecuencia, sus efectos fenotípicos serán también aleatorios. La
teoría defiende que la herencia a nivel bioquímico y el principio adaptativo
restringen la evolución biológica a un número limitado de resultados
fenotípicos que muestran, entre otras cosas, un patrón de aumento de
complejidad, siendo la aparición del hombre un suceso casi inevitable.
Tal y como está desarrollada en la actualidad, esta hipótesis no
reconoce adecuadamente la evidencia de divergencia en la evolución
biológica (el aumento de complejidad progresivo se da en linajes
divergentes). La distinción entre evolución convergente y evolución
paralela (los órganos, los planes orgánicos o las conductas son similares en
distintas especies porque todos ellos, o versiones anteriores de ellos, están
presentes en un antepasado común) es borrosa porque los genes
reguladores del desarrollo son muy similares en un amplio rango de
especies; por otro lado, los planes orgánicos resultantes de genes tan
similares son muy distintos.
En la evolución biológica hay patrones de divergencia y de
convergencia. Pero atribuir la causa de la convergencia a la herencia
describe un patrón, no la causa de ese patrón, mientras que invocar el
principio adaptativo imposibilita la definición de una ley aplicable a todos
los organismos. (Capítulo 22)
36. La hipótesis de la emergencia busca explicar por qué, de entre
innumerables posibilidades, en la evolución de la vida solo se produce un
número limitado de grandes emergencias de complejidad cada vez mayor.
Mientras que la idea de que existan una o más leyes de selección
subyacentes capaces de explicar esto resulta atractiva, esta ley o leyes
siguen sin estar identificadas. Igual que sucede con su explicación de la
emergencia de la vida, la teoría no ha avanzado más allá de la mera
descripción del fenómeno. (Capítulo 22).
37. La complejidad auto-organizada afirma explicar tanto la diferenciación de
las células madre en células especiales que acaban desarrollándose en un
adulto interdependiente (morfogénesis), como la evolución de las especies,
tratándolas como una red autorregulada gobernada por unas normas de
encendido y apagado que siguen un tipo particular de lógica booleana que
produce estabilidad al borde del caos. Sin embargo, desde su presentación
en 1991, sus predicciones matemáticas se han visto contradichas por
evidencias genéticas y genómicas y, por otro lado, no se ha avanzado en la
labor de aplicar sus diversos modelos de simulación a los datos biológicos.
En consecuencia, igual que sucede con su explicación de la emergencia de
la vida, esta hipótesis no ofrece por el momento más que la esperanza de
que sus modelos corregidos nos conduzcan hacia leyes de la biología
novedosas y más profundas. (Capítulo 22).
38. La hipótesis de que existen leyes naturales de la evolución del genoma fue
presentada en 2011 después del aluvión de datos proporcionado por la
secuenciación rápida de genomas completos. Afirma que los datos
disponibles muestran varios patrones universales en la evolución del
genoma y el fenoma de linajes de grupos tan diversos como las bacterias,
las arqueas y las eucariotas; y que, además, estos patrones pueden
explicarse mediante modelos matemáticos sencillos, similares a los que
utiliza la física estadística. Como que estos modelos no incorporan la
selección natural, los patrones están conformados por propiedades
emergentes de conjuntos de genes. En consecuencia, sugiere la hipótesis,
podrían conseguirse leves de biología evolutiva comparables en categoría a
las leyes de la física.
Este enfoque ofrece una vía de investigación potencialmente fructífera
para intentar determinar de qué modo, entre un mar de infinitas
posibilidades, los resultados de la evolución biológica están limitados a tan
pocas. (Capítulo 22).
39. La hipótesis de la ingeniería genética natural fue presentada también en
2011 como un desafío al paradigma neodarwinista que afirma que la causa
de la evolución biológica son cambios genéticos generados aleatoriamente
en genomas que, por lo demás, se mantienen estáticos. Defiende que las
células poseen una habilidad innata para reorganizar sus genomas como
respuesta a centenares de inputs distintos; además, los genomas no son
solo sistemas de memoria tipo solo lectura sujetos a cambios accidentales,
sino también orgánulos de almacenamiento de información lectura-
escritura en todas las escalas del tiempo, desde el ciclo de la célula hasta
los eones evolutivos. A medida que la evolución avanza, también lo hace
la «evolutibilidad»: los organismos vivos son seres que se modifican a sí
mismos y son intrínsecamente teleológicos. Defiende que el actual
paradigma no logra explicar la rapidez y la variedad del aumento de
complejidad biológica, y que la integración de la ciencia biológica con un
enfoque basado en la información —y en sistemas de información—,
producirá un nuevo paradigma para el siglo XXI.
Esta hipótesis no aporta un nuevo paradigma, sino más bien una agenda
a seguir para un paradigma basado en el concepto de la auto-modificación
de los organismos que sea más consistente con las evidencias que el actual
paradigma. (Capítulo 22).
40. La biología de sistemas desafía el reduccionismo del modelo
neodarwinista adoptando una visión holística de los fenómenos naturales y
aspira a descubrir propiedades emergentes. Estudia los seres vivos como
una red integrada e interactiva de genes, proteínas y reacciones químicas
que da lugar a la vida y es responsable de la forma y las funciones de los
organismos. Estas propiedades emergentes no son atribuibles a ninguna
parte única del sistema vivo que es, por lo tanto, una entidad irreducible.
Este concepto refleja la realidad del mundo biológico mucho mejor que
el modelo simplista neodarwinista y ofrece un enfoque potencialmente
gratificante para una comprensión más completa de las causas y los
mecanismos de la evolución biológica. El principal peligro en el futuro es
que, al basarse en la bioinformática para afrontar un volumen de datos de
secuenciación molecular que crece a ritmo exponencial, y con su deseo de
ser tan rigurosos como los reduccionistas, los biólogos de sistemas se
centren hasta tal punto en la investigación especializada de las partes que
acaben perdiendo el foco en el todo. (Capítulo 22).
41. Similar en concepto pero más amplia al extender su ámbito de aplicación a
toda la Tierra, la hipótesis de Gaia propone que la biosfera, la atmósfera,
los océanos y el suelo de la Tierra constituyen un sistema interactivo
autorregulado; la evolución de los organismos vivos está tan estrechamente
relacionada con la evolución de su entorno, que juntos constituyen un
único proceso evolutivo. Mientras que se trata de un enfoque que tiene
sentido desde un punto de vista intuitivo y tiene, además, cierta base
empírica a nivel global, la hipótesis no ofrece aún una explicación lo
bastante tangible de la evolución de las especies. (Capítulo 22).
42. La hipótesis de la causación formativa propone no sólo cómo tienen lugar
la morfogénesis y la evolución biológica, sino además por qué lo hacen.
Según este punto de vista, no existen leyes universales inmutables, que son
conceptos deterministas newtonianos que no consiguen responder cuál es
la causa de que estas leyes existan. Propone que lo que es habitual es la
naturaleza. Todas las especies recurren y contribuyen a una memoria
colectiva universal evolutiva de sus especies que adopta la forma de
campos mórficos universales evolutivos. Por un proceso de resonancia,
cada campo mórfico impone su patrón de conducta a una actividad que,
por lo demás, sería aleatoria o indeterminada para causar, por ejemplo, que
idénticas células madre humanas se diferencien en células especializadas
que se desarrollan y dan lugar a individuos adultos independientes.
Evidencias experimentales en la conducta de la rata son inconsistentes
tanto con la hipótesis neodarwinista como con la herencia epigenética de
caracteres adquiridos, y son consistentes con la causación formativa. La
ausencia de pruebas experimentales de la hipótesis desde que fue
presentada en 1981 podría atribuirse a la escasa mentalidad abierta de la
clase biológica dominante. (Capítulo 22).
43. Los intentos de explicar según el modelo neodarwinista la conducta no
competitiva de todas las especies, incluyendo la humana, dio como
resultado una visión teórica de la evolución biológica centrada en el gen y
adoptada por la sociobiología. Sus principales hipótesis son las siguientes.
(Capítulo 23).
43.1. Altruismo por parentesco o aptitud inclusiva
Basándose en la teoría matemática, esta hipótesis defiende que la
conducta altruista es resultado de la conducta de los individuos que los
lleva a transmitir copias de sus genes a la siguiente generación no solo
directamente a través de la reproducción sexual, sino también
indirectamente, facilitando el éxito reproductivo de los parientes más
próximos compartiendo parte de sus genes, aunque eso les suponga un
coste.
Sin embargo:
a. No tiene en cuenta la conducta de las especies mayoritarias del
planeta, las procariotas, que se replican clonándose y pueden
transmitir de inmediato sus genes a otras procariotas de especies
muy distintas;
b. Asume que todos los miembros de un grupo se comportarán de la
misma manera si comparten los mismos genes, cuando las
evidencias muestran que la relación entre genes y conducta es
mucho más compleja;
c. Utiliza el término «altruismo», un acto desinteresado, para describir
la colaboración forzada;
d. Confunde conducta animal innata y forzada con conducta humana
intencionada;
e. No explica el altruismo en los humanos;
f. No explica la colaboración entre animales con relaciones más
lejanas que primos hermanos.
43.2. «Altruismo reciproco»
Esta hipótesis afirma que animales y humanos se comportan
altruistamente porque cualquier acto desinteresado acaba siendo
reciprocado en el futuro. Se basa en una contradicción de términos: si
un acto es reciprocado ya no es altruismo; será ayuda mutua o
cooperación. Padece de los cinco primeros fallos de la hipótesis del
altruismo por parentesco. Además, no existen evidencias de especies en
libertad no entrenadas que sustenten sus afirmaciones. Sus «pruebas»
son teóricas, igual que lo son sus extensiones para explicar conductas
cooperativas, egoístas y rencorosas. Se basan en modelos matemáticos
que no plasman patrones de conducta real o en las teorías de juegos
económicas de los años 50, simplistas y de escaso éxito, que están
divorciadas de las realidades biológicas, pueden diseñarse para
producir cualquier tipo de resultado deseado, carecen de valor
predictivo y cambian si no se invierte el significado generalmente
aceptado de las palabras.
43.3. El gen egoísta
Esta hipótesis afirma que los genes son los principales impulsores
de la vida, que los cuerpos individuales no tienen que existir, y que los
genes compiten egoístamente entre ellos para su supervivencia y
replicación. Se basa en el error conceptual de atribuir intenciones a
segmentos de un ácido y está contradicha por una cantidad importante
de evidencias.
43.4. El gen genial
Ilustra la conclusión de que las teorías de juegos pueden diseñarse
para conseguir cualquier tipo de resultado deseado.
43.5. Selección multinivel
Esta hipótesis reconoce que las hipótesis sociobiológicas anteriores
están mal concebidas, ofrece un relato más realista del complejo
mundo de los organismos y de las interacciones entre ellos y su
entorno, y su descripción de cómo surgen las grandes transiciones
evolutivas es consistente con la colaboración como causa principal de
la evolución biológica.
44. El punto de vista de que la colaboración es uno de los principales
problemas que tienen pendientes de explicar las ciencias biológicas y
sociales es un problema autoimpuesto provocado por la adopción del
modelo neodarwinista, que está enraizado en la competencia. Este
problema se solventa reconociendo que la colaboración es extensiva a
todos los niveles de la vida y es la causa principal que lleva a los
organismos a desarrollarse y sobrevivir (capítulo 19):
44.1. Los genes trabajan en colaboración para el desarrollo de un
organismo, a menudo regulados por otros genes que a su vez trabajan en
colaboración;
44.2. Un organismo unicelular consta de diversas partes que realizan
funciones específicas y colaboran entre sí para mantener y replicar dicho
organismo;
44.3. Una célula eucariota consta de un núcleo que controla la
colaboración de las partes de la célula, u orgánulos, que realizan
funciones específicas para el mantenimiento y la replicación de dicha
célula, mientras que un organismo pluricelular consta de una jerarquía
de grupos de células especializadas que colaboran entre sí, con escaso
conflicto, para mantener al organismo con vida y producir descendencia;
44.4. Los organismos, desde las procariotas más simples hasta el hombre,
colaboran para su supervivencia y reproducción.
45. Además, es la colaboración, más que la competencia neodarwinista, lo que
posiblemente causa la evolución biológica, que se caracteriza por el
aumento de complejidad, la innovación y la diversificación de las formas
de vida a partir de las procariotas más simples y primitivas. La
colaboración entre distintos tipos de bacterias arcaicas para su mutua
supervivencia (simbiosis) llevó a que organismos pequeños vivieran dentro
de organismos más grandes (endosimbiosis), a lo que siguió su fusión
(simbiogénesis) para formar las primeras eucariotas unicelulares (más
grandes, más complejas y con células nucleadas). Simbiogénesis
posteriores con otras bacterias arcaicas, seguidas por transferencias
genéticas de endosimbiontes a núcleos, formaron células eucariotas más
grandes y complejas si cabe que contenían los orgánulos colaboradores
característicos de los reinos taxonómicos de los animales, las plantas y los
hongos. Los miembros colaboradores de las colonias de eucariotas
unicelulares se combinaron para formar, dentro de esos reinos, eucariotas
multicelulares todavía más complejas. (Capítulo 23).
46. Más que resultado de una acumulación gradual neodarwinista de
mutaciones genéticas generadas aleatoriamente en el seno de la población
de una especie a lo largo de miles de generaciones, el aumento de
complejidad evolutivo y el reino animal fueron más probablemente
resultado de (capítulos 17, 18, 22 y 23):
46.1. Transposones (genes saltarines) implicados en la regulación de la
expresión del gen que generaron distintos tipos de células y distintas
estructuras biológicas.
46.2. Transferencias horizontales de conjuntos de genes entre especies.
46.3. La fusión de genomas a través de la hibridación.
46.4. La duplicación de genomas completos (a través de la hibridación o
de la polipliodía).
47. La colaboración entre miembros del grupo de una especie para construir
un refugio comunitario, producir y criar descendencia, defenderse, buscar
alimento, atacar a los depredadores y migrar hacia un entorno con mejores
recursos (la hipótesis del apoyo mutuo), junto con la colaboración entre
miembros de distintas especies, es un factor más importante que la
competencia neodarwinista en el aumento de la probabilidad de que esos
miembros sobrevivan y se reproduzcan con éxito. (Capítulos 16 y 23).
48. Igual que sucede con la competencia, la colaboración puede ser tanto
innata —conducta que ha demostrado su éxito para la supervivencia y la
reproducción y se hereda genéticamente, epigenéticamente, o tal vez como
resultado de un campo mórfico— como intencionada, como en el caso de
las sociedades de ayuda mutua y cooperación de los humanos. (Capítulo
23).
49. La colaboración, además, proporciona una explicación más probable que
el de la competencia neodarwinista para el patrón que se observa en
aquellas especies de las clases taxonómicas que muestran un incremento
de las aptitudes cognitivas a través del aprendizaje social. (Capítulos 19 y
23).
50. La evolución de la vida es algo más que evolución biológica. La
consciencia —entendida como percepción del entorno, de otros
organismos y de uno mismo que incentiva a la acción— emerge en
formato rudimentario en las procariotas, las formas de vida más primitivas
y antiguas de la Tierra, tal y como ponen en evidencia las acciones que
llevan a cabo para sobrevivir y que adoptan la forma de una respuesta
directa a estímulos internos y externos. A medida que las procariotas
fueron colaborando en comunidades, evolucionaron las respuestas directas
colaborativas para la supervivencia colectiva. (Capítulo 24).
51. La consciencia se desarrolla a lo largo de los linajes animales, y queda
demostrada por la evolución de acciones más complejas y variadas, en
especial por la incorporación de conductas innatas, aprendidas, sociales e
innovadoras. A medida que a lo largo del linaje humano evolucionan
especies más complejas, las conductas aprendidas, sociales e innovadoras
ganan en importancia. (Capítulo 24).
52. La correlación física de este aumento de la consciencia es la evolución de
animales con un sistema nervioso electroquímico que permite
progresivamente respuestas más rápidas, variadas y flexibles a los
estímulos externos. Se caracteriza por cuatro tendencias interrelacionadas.
(Capítulo 24).
52.1. Crecimiento
Se desarrolla un incremento neto del número de neuronas, o células
nerviosas, y de sus conexiones.
52.2. Aumento de la complejidad
El sistema nervioso se vuelve más complejo, no solo gracias al
aumento del número de neuronas y de sus conexiones modificables
(hasta la emergencia del cerebro humano como el objeto más complejo
del universo conocido), sino también gracias al crecimiento en número
y tamaño de grupos interconectados y especializados de neuronas que
procesan y controlan las respuestas a una gama cada vez mayor de
estímulos externos e internos. El neocórtex —la parte del cerebro más
compleja y de evolución más reciente— exhibe un gran crecimiento
desde los primeros mamíferos hasta los humanos que se correlaciona
con un incremento en la conducta innovadora —un signo de
inteligencia— desde los mamíferos hasta los primates, seguido por un
incremento inmensamente mayor en la conducta innovadora y la
inteligencia en los humanos.
52.3. Centralización
El crecimiento y el aumento de complejidad van acompañados por
una centralización progresiva que va desde una red difusa de neuronas
en los animales primitivos más simples, hasta un sistema nervioso
centralizado en los vertebrados en el que casi todos los grupos de
neuronas se concentran en la cabeza, y el resto en la zona de la
columna vertebral.
52.4. Optimización
La centralización y el aumento de complejidad reducen la longitud
de las conexiones neurales y, por consiguiente, el tiempo de
transmisión y, como consecuencia de ello, el tiempo de respuesta,
además de aumentar el tipo de respuestas. Mientras que, en términos
generales, los animales han aumentado de tamaño a medida que su
linaje ha evolucionado, el cerebro y el tamaño corporal del humano
actual es inferior al de los primeros humanos, lo cual resulta
consistente con la optimización del tamaño cerebro-cuerpo para
conseguir la eficiencia máxima del sistema nervioso electroquímico y
ofrecer una mayor velocidad y una mayor flexibilidad de respuesta.
53. Los organismos que colaboran por la supervivencia en su entorno causaron
probablemente la selección natural de redes genéticas que fomentaran el
crecimiento, el aumento de complejidad y la centralización del sistema
nervioso que constituye la correlación física del aumento de consciencia
que hasta el momento ha alcanzado su máximo nivel en la especie humana.
La optimización del sistema nerviosos electroquímico para la velocidad y
la flexibilidad de respuesta deriva de las leyes de la física. (Capítulo 24).

En general, a partir de las evidencias podríamos deducir cuatro leyes


cualitativas de la evolución biológica:

Primera ley de la evolución biológica: la competencia y el rápido


cambio medioambiental causaron la extinción de especies.

Segunda ley de la evolución biológica: la colaboración causa la


evolución de las especies.

Tercera ley de la evolución biológica: los seres vivos evolucionan


mediante el aumento de la complejidad y la centralización a lo largo de
linajes que se fusionan, bifurcan y que desembocan en estasis en todos,
excepto en un linaje.

Cuarta ley de la evolución biológica: el aumento de la consciencia se


correlaciona con un aumento de la colaboración, la complejidad y la
centralización.

En la tercera parte, examinaré si la aparición del ser humano señala un


cambio de nivel o de tipo en la evolución de la vida.
TERCERA PARTE.
La emergencia y la evolución del hombre
CAPÍTULO 26. LA EMERGENCIA DEL HOMBRE

La cualidad esencial del hombre […] es el pensamiento conceptual.

JULIAN HUXLEY, 1941

El origen y desarrollo de la cultura humana —lenguaje hablado articulado e ideas con intermediación
simbólica, creencias y conducta— se cuenta entre los mayores rompecabezas sin resolver en el estudio de la
evolución humana. Son preguntas que ni los datos óseos ni arqueológicos pueden solventar.

RUSSEL HOWARD TUTTLE, 2005

Cualquier explicación sobre de dónde venimos —cuándo, cómo y por qué


evolucionamos de los primates— depende de comprender qué significa ser
humano. Por lo tanto, empezaré la tercera parte considerando las distintas
definiciones del término «humano», formularé la definición que voy a utilizar,
examinaré las evidencias de la emergencia del hombre y luego evaluaré las
actuales explicaciones científicas.

¿Qué es un humano?

Igual que sucede con la definición de la vida, no existe un acuerdo en la


definición del término «humano». Los científicos definen el humano según la
perspectiva de sus distintas especialidades e, incluso dentro de una misma
disciplina, encontramos diferencias importantes.
Los paleoantropólogos recurren a los conocimientos de la arqueología, la
antropología y la anatomía para estudiar la emergencia de los humanos, razón
por la cual resulta instructivo empezar considerando cómo identifican ellos a los
humanos. Según Donald Johanson, que descubrió el esqueleto parcialmente
fosilizado de una criatura a la que bautizó como «Lucy» y que dictaminó que
había caminado erecta sobre los dos pies, «la bipedestación es la característica
definitoria más primitiva y distintiva de los humanos». Pero los pingüinos, los
emús, los avestruces y otras aves también son bípedos. Entre los primates, los
chimpancés caminan a veces erectos, aunque con las rodillas dobladas. Cuando
los orangutanes se desplazan por las ramas de los árboles en los que viven,
suelen hacerlo erectos, con las piernas estiradas como el hombre y los brazos
levantados para mantener el equilibrio o sujetarse. E incluso Johanson asignó a
Lucy el taxón pre-humano Australopithecus afarensis.
Los dientes son con frecuencia los únicos fósiles de homíninos que
encontramos en los yacimientos prehistóricos y se han utilizado cantidades tan
mínimas como uno o dos dientes para definir un fósil como humano o como
perteneciente a otra especie. El razonamiento que se sigue en estos casos es que
el chimpancé actual, la especie genéticamente más próxima al humano actual,
posee caninos grandes, puntiagudos y sobresalientes, premolares inferiores con
una única cúspide que afilan los caninos superiores, y una capa fina de esmalte
dental; el hombre actual tiene caninos más pequeños, muy similares a sus
incisivos centrales, premolares inferiores con doble cúspide y esmalte dental
grueso. De ahí que el grado de parecido entre los dientes fosilizados y los dientes
humanos o los dientes de chimpancé indicaría la situación de la criatura en el
árbol filogenético que va desde el antepasado común de humanos y chimpancés
hasta el humano actual. El supuesto de base, sin embargo, es que los dientes
cambiaron en la ramificación correspondiente al linaje que lleva hasta el humano
actual, pero no cambiaron en la ramificación correspondiente al linaje que lleva
hasta el chimpancé actual. Como veremos más adelante, los descubridores del
Ardipithecus ramidus afirman que el antepasado común del chimpancé y el
hombre no se parece al chimpancé actual. Además, el orangután actual también
tiene esmalte dental grueso.
Otros paleoantropólogos utilizan la capacidad craneal como característica
definitoria de los humanos. Pero, como hemos visto en el capítulo 24, los
elefantes tienen una capacidad craneal aproximadamente seis veces superior a la
de los humanos, mientras que la capacidad craneal de los humanos de hace
30.000 años es similar a la de los neandertales del mismo periodo, que se estima
un 10 por ciento superior a la del humano actual.[1]
Chris Stringer, del Museo de Historia Natural británico, intenta cubrir todas
las bases utilizando un conjunto de características para definir al humano:
volumen cerebral grande, cráneo alto y abovedado, frente vertical, cara pequeña
y plana, arcos superciliares poco prominentes, mandíbula inferior con barbilla
ósea, dientes pequeños y sencillos, hueso timpánico de construcción ligera que
contiene los huesecillos del oído, un hueso en la parte anterior de la pelvis corto
y con una sección transversal prácticamente circular, sin pilar iliaco que refuerce
la pelvis por encima del acetábulo de la cadera y fémures de sección transversal
oval y engrosados en la parte anterior y posterior.[2] Sin embargo, aun en la
circunstancia de que en un ejemplar prehistórico se encontraran todos estos
huesos, lo cual no ha sido nunca el caso— indicarían grados de diferencia
relativamente pequeños con respecto a otros homininos más que características
exclusivas del humano.
El zoólogo Desmond Morris defiende que la característica definitoria de los
humanos es la carencia de pelo, que los distingue de las 193 especies de monos y
simios.[3] Pero esto no distingue a los humanos de las ballenas, delfines y
muchos otros mamíferos. Aun el en caso en que se definiera a los humanos
como simios sin pelo, no serviría para identificar la emergencia de los humanos
porque el pelo fosilizado es extremadamente raro.
Los genetistas definen a los humanos por sus genes. Sin embargo, en el
capítulo 18 hemos visto que el hombre comparte cerca del 94 por ciento de sus
genes con el chimpancé y posiblemente el 90 por ciento con la rata.[4] El primer
borrador del análisis del genoma del neandertal publicado en 2010 sugiere que
los genes del humano y el neandertal solo se diferencian en un 0,3 por ciento;[5]
a pesar de ser menos que el 6 por ciento de diferencia con respecto al chimpancé,
no es mucho más que la variación estimada de entre un 0,1 y un 0,15 por ciento
que se da en el humano actual.[6]
Algunos genetistas están intentando identificar genes concretos, o
variaciones, que sean exclusivos de los humanos, pero creo que esta
investigación presenta escasas probabilidades de encontrar una característica
exclusiva, no solo por las variaciones genéticas que se dan entre los humanos,
sino también por el hecho de que debido a que la mayoría de genes actúa en
sintonía con muchos otros genes a través de redes, los genes se ven a menudo
implicados en distintas funciones, y sus efectos dependen de manera muy
importante de su regulación: hasta qué punto están activados, cuándo y por
cuánto tiempo.
Una serie de antropólogos actuales defiende que lo que define al humano no
son los genes, sino la cultura; la ortodoxia actual es co-evolución genético-
cultural. Pero dentro de este marco de trabajo, la mayoría proclama que la
cultura es exclusiva de los humanos. Por ejemplo, en su libro Not by Genes
Alone: How Culture Transformed Human Evolution [No solo fueron los genes:
cómo transformó la cultura la evolución humana], Peter Richerson y Robert
Boyd definen esa cultura como «información capaz de afectar la conducta de los
individuos que adquieren a partir de otros miembros de su especie a través de la
enseñanza, la imitación y otras formas de transmisión social». Pero, como hemos
visto en el capítulo 19, todos estos rasgos, excepto el de la enseñanza, se
observan en distintos grados en los animales, desde los peces hasta los primates
no humanos, y en los suricatos se ha observado incluso enseñanza.[7]
Muchos neurocientíficos afirman poder definir un humano identificando en
qué regiones del cerebro se localizan las aptitudes exclusivas de los humanos —
como el lenguaje, la utilización de símbolos y el sentimiento de identidad— e
identificando asimismo las redes neurales y los mecanismos cognitivos que las
sustentan. Examinaré más adelante si estas aptitudes no son más que actividad
neural en determinadas partes del cerebro y si la actividad neural correlacionada
con estas aptitudes es una cuestión más metafísica que científica. Pero para el
propósito de identificar la emergencia de los humanos a partir de sus
antepasados primates, las neuronas no dejan fósiles, razón por la cual
necesitamos otro tipo de evidencias.

Definición propuesta

Lo que hace a los humanos únicos no es la bipedestación, los dientes, la


capacidad craneal, la estructura esquelética, la ausencia de pelo, los genes, la
cultura tal y como se acaba de describir o la actividad neural en distintas
regiones del cerebro. Se trata, en todos los casos, de características presentes en
otros organismos o en las que la variante humana se diferencia muy poco de la
presente en otros organismos.
Poseemos, sin embargo, una característica que, por lo que yo sé, es única.
El patrón de evidencias identificado en la segunda parte nos dio una pista. La
evolución de la vida, en general, está marcada por un aumento de consciencia,
definida como:

Consciencia: la percepción del entorno, de otros organismos y de uno


mismo que incentiva a la acción; una propiedad compartida por todos los
organismos en mayor o menor grado, desde niveles rudimentarios en
organismos muy simples hasta niveles más sofisticados en organismos
con sistemas cerebrales complejos.

Con el aumento de complejidad, la centralización y, en el caso de los


humanos, la optimización del sistema nervioso, la consciencia aumenta a lo largo
del linaje humano hasta el punto en que se convierte en consciente de sí misma.
Como el agua cuando alcanza los 100º Celsius, se produce un cambio de fase: la
consciencia reflexiona sobre sí misma.

Consciencia reflexiva: la propiedad de un organismo por la que es


consciente de su propia consciencia, es decir, no solo lo sabe, sino que
además sabe que lo sabe.

En consecuencia, los humanos podrían definirse como:

Homo sapiens: la única especie que sabemos que posee consciencia


reflexiva.

Esta facultad permite al humano pensar sobre sí mismo y sobre su relación


con el resto del universo, del que sabe que forma parte.

Evidencias de consciencia reflexiva


La evidencia más convincente de esta facultad la obtenemos cuando el
humano pregunta, e intenta responder, a cuestiones como «¿Qué somos?», «¿De
dónde venimos?», «¿Qué es el universo en el que vivimos?», etc., es decir, la
materia que ocupa la religión, la filosofía y, en consecuencia, también la ciencia.
Estamos ante el florecimiento completo de la consciencia reflexiva. Pero no
apareció de repente totalmente formada, del mismo modo que un volumen de
agua caliente no se transforma de repente en vapor cuando la temperatura
alcanza los 100º Celsius.
¿Cómo detectamos, pues, esta emergencia, sus primeros destellos en tiempos
prehistóricos? La respuesta, sugiero, está en las evidencias de aquellas facultades
secundarias de los primates que la consciencia reflexiva transforma y en las
evidencias de las nuevas facultades secundarias que dicha consciencia genera.
Entre las facultades secundarias que la consciencia reflexiva transforma
radicalmente Estan la comprensión, la memoria, la previsión, la cognición, el
aprendizaje, la invención, la intención y la comunicación. Las nuevas facultades
secundarias que genera son el pensamiento, el razonamiento, la perspicacia, la
imaginación, la creatividad, la abstracción, la voluntad, el lenguaje, las creencias
y la ética. Estar en posesión de consciencia reflexiva desmarca la cooperación
(colaboración racional y voluntaria) del colectivismo (colaboración instintiva,
condicionada o coercitiva).
Estas facultades secundarias tienden a actuar de manera sinérgica y los
resultados de estas acciones dejan evidencias. Por ejemplo, la comprensión
combinada con la inventiva, la previsión y la imaginación dan lugar a
herramientas especializadas y compuestas; la cognición combinada con la
imaginación produce creencias en poderes sobrenaturales que dan como
resultado rituales religiosos; la cognición combinada con la comunicación
produce arte representativo que da como resultado pinturas y esculturas; y la
imaginación y el arte se extienden hacia imágenes que no se observan en la vida;
si a eso le añadimos la abstracción, el arte se extiende a los símbolos.
Hemos visto en la segunda parte que el aumento de consciencia en las
especies iba también asociado a miembros de las especies que vivían en grupos,
lo que facilitaba, entre otras cosas, aprendizaje social. Las facultades
individuales transformadas o generadas por la consciencia reflexiva que se
comparten en sociedades humanas constituyen su cultura.
Cultura humana: el conocimiento, las creencias, los valores, la
organización, las costumbres, la creatividad expresada en forma de arte y
la innovación expresada en forma de ciencia y tecnología, de una
sociedad, aprendido y desarrollado todo ello por sus miembros y
transmitido entre ellos y hacia los miembros de generaciones sucesivas.

Esta definición distingue características exclusivas de las sociedades


humanas y la diferencia de la definición de cultura de Richerson y Boyd, que
aplica a muchas sociedades no humanas.

Predecesores humanos

Para detectar la emergencia de los humanos —esos primeros destellos de


consciencia reflexiva que dejan evidencia los signos de las facultades
secundarias que transforma o genera— necesitamos saber a partir de qué
emergieron esos humanos.
La tabla 20.1 muestra el punto de vista mayoritario, aunque en absoluto
unánime, de la taxonomía de la especie humana: el Homo sapiens es la única
especie superviviente del género de los humanos, Homo, dentro de una tribu de
homininos que forma parte de la familia homínidos dentro de la superfamilia de
los hominoides, que es una rama del orden de los primates. La mayoría de
investigadores considera que estas clasificaciones reflejan el linaje en un árbol
evolutivo ramificado desde un género de primate parecido al mono, como el
Proconsul sin cola, que existió hace entre 25 y posiblemente 5 millones de años
en la zona oriental de África y se asigna tentativamente a la superfamilia
Hominoidea. La figura 26.1 describe las ramas de este árbol evolutivo, con
ejemplos de especies actuales. Incorpora la subfamilia adicional Homininae, que
incluye la tribu de los homininos, las dos especies de chimpancés y los gorilas,
pero excluye a los orangutanes.
Sin embargo, trazar el linaje hasta el humano moderno (especie Homo
sapiens) es tremendamente problemático; la escasez de evidencias complica la
situación y da lugar a interpretaciones encontradas y a desacuerdos sobre las
clasificaciones taxonómicas y las relaciones ancestrales, tal y como refleja la
figura 26.2.

Las evidencias y sus problemas

Aproximadamente una vez al año, la prensa popular, y a menudo también las


revistas científicas, anuncian el descubrimiento de un nuevo fósil, o la nueva
datación de un fósil existente con la utilización de las últimas técnicas, lo que
reescribe la historia de la aparición del hombre. En los artículos académicos, más
que en las ruedas de prensa, sin embargo, los científicos suelen mostrarse más
cautelosos. Y es comprensible.
Tal y como lo expresó el arqueólogo e historiador Robin Derricourt, de la
Universidad de Nueva Gales del Sur, Australia:

Tanto la paleoantropología como la arqueología de los primeros humanos operan en un marco de


trabajo en el que la ciencia no es experimental, los datos son escasos y las hipótesis no son
refutables ni replicables fácilmente. Hay pocas ciencias, aparte de estas, donde una pieza aislada de
evidencia sea capaz de sustentar o de cambiar un modelo interpretativo a gran escala sin que este
sea susceptible de ser verificado.
En este contexto, la personalidad juega un papel importante: el pensador conservador o
innovador, el dogmático o el escéptico, el aficionado a la división taxonómica o a su agrupamiento.
[8]

Lo cual proporciona un terreno fértil para la ley de la interpretación de los


datos y casos solo excepcionales, aunque importantes, de fraude.[9]
Para deducir las relaciones evolutivas y la conducta de las especies que
precedieron al humano moderno, se utilizan cinco tipos de evidencias: fósiles,
otros restos, dataciones relativas y «absolutas» (radiométricas), genética y
especies actuales. Cada una de ellas presenta sus propias limitaciones.

Fósiles

El principal problema que presentan es su tremenda escasez. En el periodo


comprendido entre 2,5 y 1 millón de años antes de nuestra época, solo se han
conseguido clasificar unos 50 individuos como especie Homo, y muchos de ellos
constan solo de uno o dos dientes o un fragmento de hueso.
No se han descubierto esqueletos completos de tiempos prehistóricos.
Incluso el famoso esqueleto Lucy, datado hace 3,2 millones de años, consiste en
fragmentos que encajados dan como resultado 47 huesos que son poca cosa en
comparación con el total de 206 huesos que forman el esqueleto de un humano
adulto. Los fósiles más comunes son fragmentos de dientes, mandíbulas
inferiores y huesos faciales y craneales, seguidos por fragmentos de fémures,
mientras que los restos de pies, manos, pelvis y columna son extremadamente
raros.
Resulta fácil dejarse seducir por las sofisticadas imágenes en 3-d generadas
por ordenador que representan un cráneo, pero su nivel de precisión depende de
supuestos sobre cómo reconstruir los fragmentos descubiertos y dónde irían
colocados en uno o más cráneos y, luego, de un programa de ordenador que
genera un cráneo completo a partir de los datos introducidos.
Suelen utilizarse estimaciones de la capacidad craneal para asignar un fósil a
una especie en particular. La tabla 26.1 muestra estos tamaños cerebrales para
distintos homininos; muestra asimismo la escasez de ejemplares en que se basan
dichos supuestos.

Aun en el caso de que las capacidades craneales estimadas de las muestras


fueran correctas y el tamaño de la muestra mucho mayor, vimos en el capítulo 24
que ni el tamaño del cerebro ni la relación entre tamaño del cerebro y peso
corporal son criterios fiables de capacidad cognitiva y, por lo tanto, de nivel de
consciencia.[10]
En cuanto a los esqueletos, en términos generales los adultos son más
grandes que los jóvenes y la mayoría de homínidos varones son más grandes que
las hembras, pero el grado de dimorfismo por género varía entre especies, lo que
complica la interpretación de algunos fragmentos, a menudo dispersos. Durante
muchos años, el Ramapithecus, un género que se creía vivió hace entre 15 y 5
millones de años, se consideró antepasado del Australopithecus y, por lo tanto,
del humano moderno. Esta postura se basaba en la mandíbula reconstruida y los
fragmentos de dentición descubiertos en lugares tan apartados entre sí como Fort
Ternan, en Kenia, y las montañas Siwalik, en India. La genética molecular y
fósiles descubiertos posteriormente llevaron a la hipótesis de que eran, de hecho,
hembras de un género previamente descrito, el Sivapithecus, que al reconstruirse
pasó a considerarse como un antepasado del orangután.[11]
A partir del registro fósil, resulta imposible determinar si un ejemplar es un
híbrido. Como hemos visto, cuando la hibridación entre mamíferos relacionados
produce descendencia fértil el asunto se complica (véase páginas 453 y 489); y
esto sucede también entre el chimpancé y el bonobo y entre muchas más
especies de mono. La hibridación con éxito puede producir cambios fisiológicos
importantes en los descendientes.
La escasez del registro fósil hace además especialmente difícil deducir
conductas con un buen grado de fiabilidad.

Otros restos

Los ejemplares encontrados junto con homininos o a menudo aislados, se


utilizan para deducir la conducta —y, por lo tanto, el nivel de consciencia— de
los homininos.
Los más comunes son utensilios, y en particular utensilios de piedra porque
son los que mejor se conservan, lo que dio lugar al término «Edad de Piedra». Y
ahí aparece una limitación: no sabemos si los primeros homininos utilizaron
utensilios perecederos y otras herramientas, por ejemplo, lanzas y flechas de
madera o dardos venenosos, o refugios construidos con bambú y pieles.
Cuando los utensilios son los únicos restos descubiertos en una capa
geológica, interpretar su función, su nivel de sofisticación y su similitud con los
utensilios de piedra asociados a los escasos ejemplares fósiles descubiertos en
otra parte de un continente, o incluso en otro continente, y deducir a partir de ahi
qué especie los fabricó es, en el mejor de los casos, todo un arte, más que una
ciencia.
Los restos de carbón vegetal pueden ser de una hoguera, lo que demostraría
el uso controlado del fuego para proporcionar calor, protegerse contra los
depredadores o preparar comida, pero también podría tratarse del tronco de un
árbol calcinado por un incendio forestal. Entre otros restos destacan los fósiles
de animales, como fragmentos de huesos de león o de lobo. Tanto estos como los
demás fósiles de homininos suelen presentarse esparcidos por todo el yacimiento
y, con frecuencia, no queda en absoluto claro si el hominino mató o devoró al
animal o viceversa, o uno arrastró parte del cadáver del otro desde otro lugar,
todo lo cual afecta a la datación.

Datación
La datación relativa asume que los ejemplares encontrados en las capas
geológicas inferiores son más antiguos que los encontrados en las capas
superiores. Pero las erosiones, los corrimientos de tierra, los terremotos y otros
fenómenos geológicos pueden confundir la cronología de las capas. En casos
excepcionales, las cenizas de una erupción volcánica pueden diseminarse y
puede afirmarse con confianza que los ejemplares encontrados en una capa de
este estilo corresponden a la misma época pero, aun siendo así, ese hecho no
sirve para proporcionar la datación.
La datación por radiocarbono introducida en los años 50 fue prometedora en
este sentido.[12] Sin embargo, posteriormente se reconoció que las dataciones
anteriores a 30.000 años son poco fiables debido a que la cantidad de carbono-14
que queda en una muestra transcurrido ese tiempo es demasiado pequeña como
para poder realizar mediciones precisas y la contaminación puede, además,
distorsionar los resultados. Descubrimientos posteriores sobre las fluctuaciones
de los rayos cósmicos y los cambios en la circulación atmosférica de la Tierra
socavaron el supuesto de que el porcentaje de carbono-14 en la atmósfera ha
sido siempre constante.
Se han desarrollado otras técnicas radiométricas, resumidas en la tabla 26.2,
para extender el rango de datación y ofrecer más verificaciones. Todas, sin
embargo, presentan sus propias limitaciones y problemas, que resume con
precisión Chris Stringer.

Las técnicas se refinan y mejoran continuamente, lo que ha provocado


nuevas dataciones de ejemplares descubiertos hace muchos años, a veces con
resultados sorprendentes. Por ejemplo, un fragmento de cráneo humano
descubierto en 1932 en Florisbad, Sudáfrica, había sido datado en 40.000 años
de antigüedad mediante el análisis por radiocarbono de la turba de la ciénaga
donde había sido encontrado. En 1996, la datación por resonancia de espín
electrónico del esmalte de un molar superior situó su edad en 260.000 años.[13]

Genética

El análisis genético fue acogido como una técnica capaz de aportar un


enfoque más científico y preciso al camino de la aparición del hombre. Después
de que se descubriera que el ADN mitocondrial de la madre, aunque no el del
padre, se clonaba en la mitocondria de la célula fertilizada a partir de la cual se
desarrollaba un hijo, Rebecca Can, Mark Stoneking y Allan Wilson, del
departamento de Bioquímica de la Universidad de California, Berkeley,
concibieron un medio para realizar el seguimiento retrospectivo del linaje
matrilineal a partir de los cambios en el ADN mitocondrial (ADNmt) a lo largo
del tiempo. En un fundamental artículo publicado en Nature en 1987, explicaron
cómo habían analizado el ADNmt de 147 mujeres de cinco regiones geográficas
distintas, habían introducido los resultados en un programa informático que
habían creado y habían llegado a la conclusión de que «Todos los ADN
mitocondriales provienen de una mujer que suponemos que vivió hace 200.000
años, probablemente en África».[14]
Tanto la prensa científica como popular elogiaron el logro como la
identificación del antepasado de todos los humanos modernos, la llamada «Eva
mitocondrial». El resultado proporcionó robustas bases a la hipótesis de los
orígenes africanos recientes (véase más abajo). Sin embargo, el trabajo acabó
recibiendo todo tipo de críticas. Se dijo, por ejemplo, que el programa
informático podía producir muchos miles de árboles genealógicos y no todos
tenían sus raíces en África, que la calibración del tiempo era cuestionable y que
las muestras eran discutibles (muchas muestras supuestamente de mujeres
africanas eran, de hecho, de mujeres afroamericanas).[15]
Posteriormente se llevaron a cabo otros estudios similares sobre los cambios
en el cromosoma Y que solo poseen los varones. Los distintos análisis que
remontan el linaje patrilineal hasta el Adán originario del cromosoma Y lo sitúan
entre hace 142.000 millones de años[16] o en un momento tan reciente como
hace entre 100.000 y 60.000 millones de años en África.[17] Nunca se ha
llegado a explicar cómo los miembros de una pequeña población de Adanes
cromosoma-Y consiguieron fecundar a los miembros de una pequeña población
de Evas mitocondriales que eran 58.000 o incluso 140.000 años mayores que
ellos. Estas discrepancias refuerzan la escasa fiabilidad de los análisis genéticos,
y de la técnica del reloj molecular en particular, para llegar a los orígenes de la
evolución biológica, tal y como se comentó en el capítulo 20 (véase página 525).

Especies actuales

Los paleoantropólogos invocan a menudo dos tipos de especies actuales para


deducir la conducta de nuestros antepasados prehistóricos: el chimpancé,
basándose en que es la especie genéticamente más próxima al humano moderno,
y el humano cazador-recolector.
Muchos investigadores asocian la conducta agresiva del chimpancé macho
adulto a sus caninos largos, afilados y sobresalientes, y asumen que la presencia
de una dentadura similar en los homininos implica una conducta parecida. Sin
embargo, como ya se ha comentado, el supuesto de que la dentadura del
chimpancé ha permanecido sin cambios durante un periodo de tiempo que oscila
entre 5 y 7 millones de años, mientras que la dentadura humana ha evolucionado
durante este tiempo, es altamente cuestionable.
El problema que conlleva deducir la conducta de los homininos a partir de
sus similitudes esqueléticas con el chimpancé actual queda perfectamente
ilustrada por el bonobo. Mientras que el chimpancé común, Pan troglodytes,
vive en las selvas del África ecuatorial, el bonobo, Pan paniscus, se encuentra
solo en las selvas tropicales del sur del río Congo, en la República Democrática
del Congo. A pesar de que al bonobo se lo conoce a menudo como chimpancé
pigmeo, hay un solapamiento considerable entre individuos de ambas especies,
que además son genéticamente muy similares. Si se desenterrase un esqueleto
completo, sería complicado discernir si es de chimpancé o de bonobo, e
imposible si dispusiéramos únicamente de fragmentos de osamenta fósil. Su
conducta, sin embargo, presenta importantes diferencias.
El chimpancé come principalmente fruta y hojas, pero de vez en cuando caza
también mamíferos y monos pequeños. Vive en comunidades de entre 15 y 100
miembros, pero suele buscar comida y cazar en bandas de tamaño flexible que
oscilan entre 6 y 10 individuos. Un macho alfa domina cada comunidad y los
demás machos adultos forman una jerarquía lineal en la que el dominio se
conserva, o se pierde, por demostraciones de agresión o por agresión real; todos
los machos adultos dominan a las hembras, que forman su propia jerarquía
social, más compleja. Los chimpancés machos suelen patrullar sus límites
territoriales y realizar ataques violentos, y con frecuencia letales, sobre
miembros de las comunidades vecinas.[18]
El bonobo, por otro lado, es mucho menos agresivo. Complementa también
su dieta con algún que otro mamífero, pero no caza monos, sino que juega con
ellos y los asea. A diferencia del chimpancé, no se ha observado al bonobo
practicando infanticidio o canibalismo. Sus comunidades son mucho más
igualitarias, las hembras suelen asumir el liderazgo y practican todo tipo de
actividad sexual: heterosexual, homosexual, oral y anal. Utilizan el sexo para
liberar las tensiones en el seno de la comunidad y tienen menos conflictos con
las comunidades vecinas de bonoboes.[19]
A falta de evidencias conductuales directas de los predecesores de los
humanos, podría parecer razonable deducir su conducta a partir de los cazadores-
recolectores actuales, como los pigmeos aka y bofi de la cuenca del Congo o los
pila nguru del gran desierto Victoria, en el oeste de Australia. Pero al recurrir a
este tipo de evidencias hay que formularse dos preguntas. En primer lugar,
¿hasta qué punto ha evolucionado su conducta con relación a antepasados que
vivieron hace entre 15.000 y 10.000 años? En segundo lugar, ¿hasta qué punto
son representativos de sus ancestros cazadores-recolectores de aquel periodo? El
hombre exhibe un rango de competencias en distintas habilidades que suele
representarse como una campana de Gauss. Por ejemplo, en capacidad
intelectual, encontramos a Einstein y unos pocos más en un extremo, a la
mayoría de nosotros agrupados alrededor de una mediana, y luego un pequeño
número con una capacidad intelectual baja. Como veremos en el próximo
capítulo, podemos asumir con confianza que la mayoría de los cazadores-
recolectores humanos arcaicos inventaron la agricultura, o adoptaron su
invención, como la forma más efectiva de sustento. Los cazadores-recolectores
actuales suponen aproximadamente un 2 por ciento de toda la población humana.
¿Son los descendientes de los humanos arcaicos que carecían de capacidad para
inventar, o adoptar, esta forma más eficiente de obtener sustento, o carecieron de
la visión necesaria para migrar a otras regiones done pudieran hacerlo?
Teniendo siempre presentes estas reservas con respecto a las evidencias,
intentaré resumir lo que sabemos sobre los antepasados homínidos ilustrados en
la figura 26.2.

Tribus de homininos

El paleontólogo Michel Brunet afirma que el fósil de hominino más antiguo


es un cráneo agrietado y deformado, tres fragmentos de mandíbula y varios
dientes sueltos que descubrió en 2001 en un desierto de Chad, a 2.600
kilómetros al oeste del gran valle del Rift, en África oriental. Lo clasificó como
una nueva especie, Sahelanthropus tchadensis y, entre gran controversia, sugirió
que se trataba de una criatura bípeda. La datación indirecta situó su edad en 7
millones de años, lo cual significa que sería más antigua que la datación genética
generalmente aceptada de entre 6,3 y 5,4 millones de años del último antepasado
común de humanos y chimpancés del que supuestamente descendia.[20] Véanse,
sin embargo, la página 525 para una crítica de la técnica de la datación molecular
y la página 528 para el amplio rango de fechas en las que situar la separación
entre humano y chimpancé al que han llegado distintos investigadores utilizando
esta técnica.
Otro candidato a hominino bípedo es el Orrorin tugenensis, datado hace
aproximadamente 6 millones de años y clasificado en base a tres fragmentos de
fémur, parte de un húmero, parte de una mandíbula y varios dientes y huesos de
dedos de pies y manos hallados en 2000 en cuatro yacimientos de las montañas
Tugen, en Kenia.[21]
En 2009, un gran equipo internacional liderado por Tim White, de la
Universidad de California, Berkeley, anunció un descubrimiento más sustancioso
en la región de la depresión de Afar, al nordeste de Etiopia. Quince años de
reconstrucción de fragmentos de hueso y un cráneo aplastado hasta quedar con
un grosor de 4 centímetros, encontrados en sedimentos datados hace 4,4
millones de años, habían dado como resultado 110 ejemplares, incluyendo el
esqueleto parcial de una hembra y partes de otros 35 individuos.
Clasificado como una nueva especie, el Ardipithecus ramidus vivió en lo que
por aquel entonces era un terreno mixto de bosques y selva. La hembra era
pequeña —unos 120 centímetros de altura y aproximadamente 50 kilos de peso
— y el tamaño estimado del cerebro era similar al de un chimpancé. Según uno
de los miembros del equipo, C. Owen Lovejoy, de la Ken State University, Ohio,
a diferencia del chimpancé, cuyas piernas cortas y brazos largos están
estructurados para balancearse entre las ramas y un desplazamiento cuadrúpedo
en el suelo, apoyándose en los nudillos, el A. ramidus se movía entre las ramas
sirviéndose de manos y pies y caminaba erecto en el suelo, aunque no con tanta
eficiencia como homininos posteriores. A partir de su esqueleto y su dentadura,
el equipo llegó a la conclusión de que el A. ramidus demuestra que el antepasado
común de humanos y chimpancés no se parecía al chimpancé, y que las
facciones de este último evolucionaron por un camino distinto del de los
humanos.[22] David Pilbream, de la Universidad de Harvard, es uno de los
varios paleoantropólogos que se mantiene escéptico ante tal conclusión.
El equipo descubrió más fósiles en la misma área, que dataron hace
aproximadamente 5,5 millones de años y dictaminaron que representaban una
especie anterior del mismo género, que clasificaron como Ardipithecus kadabba.
No está claro cómo se relacionan los Ardiphitecus con el género posterior
Australophitecus, del que el Australophitecus afarenssis (Lucy) es la especie
más conocida. Los australopitecos se caracterizan por una postura
completamente erguida y locomoción bípeda, a pesar de que el grado en el cual
las distintas especies podían caminar cómodamente erguidas es un tema
controvertido. Su cavidad craneal es similar en forma y tamaño a la del
chimpancé, aunque proporcionalmente mayor si tenemos en cuenta el tamaño
del cuerpo. Según la tendencia taxonómica a dividir o agrupar de cada
especialista, existen entre cinco y ocho especies de Australophitecus; la mayoría
de paleoantropólogos ha reasignado en la actualidad dos especies robustas, A.
robustus (sur de África) y A. bosei (este de África), a un género distinto, el
Paranthropus, tal y como indica la figura 26.2.
Distintos paleontólogos afirman que una o más especies de Australophitecus
evolucionaron hace alrededor de 2 millones de años para dar lugar a la primera
especie del género Homo. El candidato en 2011 era el Australophitecus sediba.
Basándose en dos esqueletos bien conservados y medio completos que habían
descubierto en la cueva Malapa, Sudafrica, Lee Berger, de la Universidad de
Witwatersrand, y sus colegas, declararon que, pese a que el A. sediba tenía los
brazos largos y una cavidad craneal pequeña como anteriores australopitecos, sus
dientes pequeños, molde endocraneal que insinúa la existencia de un lóbulo
frontal grande, su nariz sobresaliente, la forma de la pelvis, las articulaciones de
los tobillos, el pulgar y el meñique grandes y las piernas largas, es mucho más
humano. En consecuencia, defienden que el A. sediba es el antepasado más
probable del Homo, posiblemente del Homo erectus. Análisis isotópicos con
uranio de la calcita depositada por el agua en el suelo de la cueva dieron una
datación de 1.977 millones de años. De ahí que el equipo de Berger afirme que el
descubrimiento invalida la clasificación como humana de cualquier especie
anterior.[23]
Fred Spoor, del University College de Londres y del Max Planck Institute for
Evolutionary Anthropology de Leipzig, es uno de los varios paleoantropólogos
que desafía esta aseveración, argumentando, entre otras cosas, que los análisis
morfológicos y las comparaciones realizadas por Berger y sus colegas son
insuficientes para sustentar sus hipótesis, que una mandíbula superior de un A.
afarensis de Hadar, Etiopia, es mucho más humana que la del A. sediba, que lo
precedería unos 370.000 años, y que un máximo de 80.000 años es insuficiente
para el cambio evolutivo de A, sediba a la especie Homo.[24]

El género Homo

Las relaciones ancestrales no están claras cuando consideramos el género


Homo. Se cree que la primera especie fue el Homo habilis, fósiles del cual se
estiman con una antigüedad de entre 1,9 y 1,5 millones de años y se localizan en
Kenia y Tanzania, estando algunos de ellos acompañados por utensilios de
piedra extremadamente primitivos, conocidos como utensilios de tradición
olduvayense (ver más adelante); se dice que utensilios similares tienen una
antigüedad de 2,6 millones de años. Un cráneo re-reconstruido con una nueva
datación que lo sitúa hace 1,9 millones de años se considera bien una variante de
H. habilis, bien una especie distinta, H. rudolfensis. El descubrimiento conocido
en 2012 de un hueso facial y dos huesos de mandíbula con dientes datados entre
1,78 y 1,95 millones de años atrás, llevó a la sugerencia de que el H. rudolfensis
era, de hecho, una especie distinta.[25]
Para los que los dividen en distintas especies, cualquiera o ninguno de los
Homo habilis, Homo rudolfensis u Homo ergaster, podría haber sido el
antepasado del Homo erectus, y cualquiera o ninguno de ellos podía haber sido
el antepasado del Homo heidelbergensis, el Homo neanderthalensis y el Homo
sapiens, mientras que el H. heidelbergensis podría o no haber sido el antepasado
del H. neanderthalensis o el H. sapiens, o de ambos.

Neandertales

Anatómicamente, los neandertales se distinguen de los humanos por ser más


bajos pero más robustos. La capacidad craneal del neandertal adulto, con 1.400
centímetros cúbicos de media, es superior a la del actual Homo sapiens, pero la
relación entre cerebro y tamaño corporal es ligeramente inferior; las principales
diferencias en la estructura craneal se muestran en la tabla 26.3.

La frente retraída ha sido interpretada como una indicación de que los


neandertales tenían un cerebro anterior, la región donde se procesan las
funciones cognitivas superiores, menos desarrollado que los humanos.
Mientras que los análisis del ADN mitocondrial han datado hace 500.000
años la división entre el linaje neandertal y el del humano moderno, los análisis
de su ADN nuclear sugieren que dicha división se produjo hace entre 440.000 y
270.000 años.[26]
Los restos atribuidos al Homo neanderthalensis se han encontrado en lugares
repartidos por toda Europa, Asia occidental, y tan al este como en Uzbekistán, en
Asia central, y tan al sur como Oriente Próximo. Su datación les da una
antigüedad de entre 400.000 y 30.000 años, lo que significa que los neandertales
se solaparon con el Homo sapiens durante al menos 10.000 años. Algunos se
solaparon también geográficamente, tal y como sugiere el primer borrador del
genoma neandertal antes mencionado. El análisis del ADN nuclear extraído de
tres huesos de tres individuos encontrados en la cueva de Vindija, Croacia,
indica que los humanos tienen entre un 1 y un 4 por ciento de genes del
neandertal, lo que da a entender que hubo cruzamiento.[27]
Entre los utensilios de piedra asociados con los yacimientos neandertales
encontramos raspadores, hachas de mano triangulares bifaciales, puntas
triangulares con una talla en láminas que sugiere que formaban parte de lanzas,
probablemente más para clavar que arrojadizas, y punzones, o utensilios
puntiagudos utilizados para hacer agujeros, aunque ningún utensilio de hueso,
como agujas.[28]
En 2010, Joao Zilhao, de la Universidad de Bristol, y sus colegas, anunciaron
que en dos yacimientos neandertales de la provincia de Murcia, en el sudeste de
España, habían encontrado conchas marinas perforadas y manchadas con
pigmentos que supuestamente habrían sido ornamentos corporales. En cualquier
otro yacimiento, el hallazgo habría sido considerado como señal de un nivel
elevado de consciencia, incluso de consciencia reflexiva, y se habría asumido
que eran artefactos humanos. Pero Zilhai dice que las conchas tienen
«aproximadamente 50.000 años de antigüedad». Constituyen «una evidencia
segura de que […] diez milenios antes de que se haya registrado la presencia del
humano moderno en Europa, la conducta de los neandertales ya estaba
organizada simbólicamente». De hecho, la información complementaria de su
artículo deja constancia de la datación por radiocarbono de cinco conchas con
fechas que van desde 30.150 ± 360 hasta 45.150 ± 650 años en uno de los
yacimientos, y de cuatro ejemplares de carbón de leña de otro yacimiento que
van desde 98 ± 23 hasta 39.650 ± 550 años.[29] Lo cual contradice los supuestos
50.000 años de antigüedad.
La mayoría de paleoantropólogos señalan la ausencia de evidencias sólidas
de símbolos, arte y otros indicios de consciencia reflexiva en los yacimientos
neandertales en comparación con su extensa presencia en yacimientos humanos
y llegan a la conclusión de que los neandertales eran cognitivamente inferiores a
los primeros humanos.
A falta de evidencias fiables, la extinción de los neandertales hace
aproximadamente 30.000 años es más una cuestión de especulación que una
hipótesis. Los paleoantropólogos sugieren distintos factores para su extinción:
que, a diferencia de los humanos, no consiguieron adaptarse a los rápidos
cambios climáticos de la época; que se reprodujeron con humanos y acabaron
siendo asimilados por ellos; que contrajeron enfermedades humanas a las que no
eran inmunes; que los humanos los mataron a todos.

Hobbits

En 1994, un equipo conjunto australiano-indonesio reconstruyó los huesos


fosilizados descubiertos en una cueva de la isla indonesia de Flores y obtuvo el
esqueleto parcial de un adulto de un metro de altura, con brazos largos, frente
retraída y sin barbilla. Le estimaron una capacidad craneal de 380 centímetros
cúbicos, aproximadamente la misma que la del australopiteco más pequeño que
se conoce e inferior a la del chimpancé; pero el yacimiento estaba asociado con
utensilios de piedra e indicios de una hoguera, junto con los restos de un
stegodón, un elefante enano, que aparentemente había sido cazado.
El equipo de investigadores llegó a la conclusión de que la criatura descendía
del Homo erectus, que se cree que llegó a la región hace aproximadamente un
millón de años. En aquella isla aislada, sin competencia y con alimento limitado,
aquellos homininos se habían empequeñecido, igual que el stegodón. (De hecho,
en Flores se han encontrado también restos de ratas enormes, lagartos
gigantescos y tortugas descomunales, y no está claro por qué algunas especies
empequeñecieron mientras otras se hicieron excepcionalmente grandes.)
Clasificaron el hallazgo como una nueva especie humana, el Homo floresiensis,
apodado «Hobbit», un hecho que generó gran publicidad a nivel mundial y
controversia en el campo de la paleontología.[30] Posteriormente fueron
localizados más restos que corresponden a entre seis y nueve individuos, según
como se reconstruyan, y tienen una antigüedad de entre 17.000 y 95.000 años.
En 2009, Peter Brown, miembro del equipo de la Universidad de Nueva
Inglaterra que había designado de entrada la criatura como Homo floresiensus,
cuestionó la clasificación. Declaró que investigaciones posteriores habían
demostrado que el Homo erectus asiático no era el antepasado de los Hobbits,
cuyas características tenían más en común con los australopitecos que con los
fósiles de 1,75 millones de años de antigüedad de Dmanisi, Georgia, que se
consideran representantes de la primera especie Homo fuera de África.[31]

Denisovanos

En 2010, un equipo internacional liderado por Svante Paabo, del Max Planck
Institute for Evolutionary Anthropology, anunció que habían identificado una
nueva población de homininos en base no a evidencias fósiles, sino tan solo a
evidencias genéticas. Habían extraído ADN del hueso de un dedo desenterrado
en la cueva Denisova, en el sur de Siberia, donde los restos de utensilios de
piedra indicaban que el lugar había estado ocupado por ejemplares de Homo
desde hacía 280.000 años. El hueso se había localizado en una capa de entre
50.000 y 30.000 años de antigüedad que había producido previamente lascas
microscópicas de piedra y piedras pulidas típicas del Paleolítico superior, así
como utensilios más toscos más típicos del Paleolítico medio, lo que había
llevado a especular que la cueva había estado ocupada en uno u otro momento
tanto por neandertales como por humanos modernos.
Los análisis del ADN mitocondrial (ADNmt) indicaron que aquel individuo
pertenecía a un grupo clasificado como denisovano que se había separado hacía
un millón de años del linaje común que lleva al humano moderno y al
neandertal, es decir, el doble de tiempo antes de que se produjera la divergencia
entre el neandertal y el humano moderno y, en consecuencia, se trataba de una
especie anterior. Se demostraba asimismo que el genoma denisovano difería del
genoma humano moderno el doble de lo que difería del genoma neandertal.
Sin embargo, análisis posteriores del ADN nuclear basados en varios
supuestos, incluyendo entre ellos la fecha de la divergencia entre el humano y el
chimpancé, indicaron que el individuo compartía un origen común con los
neandertales hace aproximadamente 640.000 años, y que el genoma denisovano
difería del genoma humano moderno en la misma proporción en que difería del
genoma neandertal. El equipo de Paabo utilizo el análisis del ADNmt de un
diente que no se parecía ni a un molar humano ni neandertal para sugerir que los
denisovanos tenían una historia poblacional diferente. En particular, los
denisovanos no habían realizado ninguna contribución genética al humano
euroasiático, como sí habían hecho los neandertales, pero entre el 4 y el 6 por
ciento de su genoma sí había contribuido al de los melanesios actuales, aunque
no al de otras poblaciones asiáticas más próximas a Denisova, como los chinos
han o los mongoles.
El equipo se contuvo de asignar a los denisovanos o los neandertales a una
clasificación taxonómica específica. E interpretó los resultados genéticos del
dedo y el diente hallados en Denisova como la existencia de al menos dos
formas de homininos arcaicos en Eurasia a finales del Pleistoceno (hace entre
125.000 y 10.000 años): los neandertales, que estaban ampliamente extendidos
por la zona occidental de Eurasia y los denisovanos, que estaban ampliamente
extendidos por la zona oriental de Asia; cada uno de ellos tuvo un cruzamiento
limitado, aunque independiente, con el Homo sapiens.[32]

Primeros indicios de Homo sapiens

Tim White, de la Universidad de California, Berkeley, y sus colegas,


declararon en 2003 que los fósiles más antiguos similares al humano moderno
son tres cráneos descubiertos en Herto Bouri, Etiopia, en la región del triángulo
de Afar, datados mediante radioisótopos con una antigüedad de entre 160.000 y
154.000 años. No llegaron a clasificar los ejemplares como humanos modernos
totalmente desarrollados, sino que lo hicieron como una subespecie, Homo
sapiens idaltus, que, bajo su punto de vista, representa probablemente nuestro
antepasado más inmediato.[33]
En 2008, John Fleagle, de la Stonybrook University, Nueva York, revisó la
datación de dos ejemplares descubiertos por Richard Leakey en 1967 en Kibish,
Etiopia, cerca del río Omo, pasándola de 130.000 a cerca de 196.000 años de
antigüedad. No sin controversia, anunció que el primero de ellos, Omo 1, un
esqueleto conservado parcialmente más fragmentos de un hueso facial y una
mandíbula, era el primer fósil completamente humano. El segundo, Omo 2, un
cráneo sin huesos faciales, era más primitivo.[34]
Independientemente de si esta afirmación es válida o no, habla solo de
anatomía y no de la característica exclusiva de la consciencia reflexiva. Para
ello, es necesario encontrar evidencias de las facultades secundarias que
transforma o genera.

Utensilios

Anteriormente he sugerido que la comprensión combinada con la inventiva,


la previsión y la imaginación dan lugar a herramientas especializadas y
compuestas. Los arqueólogos clasifican los utensilios de piedra por tradición, o
industria, según el yacimiento donde se estudió por vez primera un conjunto de
esos utensilios, pese a que también se utilizan otras clasificaciones, como las
regionales o los Modos I - V. La clasificación de los utensilios no solo ha
cambiado y continúa cambiando, sino que también han cambiado los periodos
culturales caracterizados por los distintos tipos de utensilios. Inicialmente, la
Edad de Piedra europea estaba dividida en dos, el Paleolítico, o Vieja Edad de
Piedra, y el Neolítico, o Nueva Eda de Piedra. Luego, el Paleolítico se dividió en
tres fases principales —Inferior, Medio y Superior— y posteriormente se insertó
el Mesolítico entre el Paleolítico superior y el Neolítico.
El Paleolítico inferior (llamado Primera Edad de Piedra en el África
subsahariana) empieza con los primeros utensilios de piedra reconocibles,
conocidos como olduvayenses por el yacimiento de la garganta de Olduvai,
Tanzania, consistentes en lascas de piedras talladas. Las lascas se supone que se
utilizaban para raspar y las piedras talladas para golpear. Muy probablemente,
los homininos habían utilizado previamente piedras no talladas para golpear, tal
y como se observa en algunos chimpancés, pero esas piedras serían muy difíciles
de distinguir de cualquier otra. Los primeros utensilios olduvayenses
encontrados hasta la fecha son los de Gona, Etiopia, datados hace
aproximadamente 2,6 millones de años.[35] El siguiente avance importante,
datado hace 1,7 millones de años, son los utensilios achelenses, cuyo nombre
procede del yacimiento de Saint-Acheul, en el norte de Francia. Aquí las lascas
corresponden a piedras talladas por ambos lados, lo que produce hachas de mano
en forma de pera y picos. Se han descubierto utensilios bifaciales de este tipo en
yacimientos de Europa, África, Oriente Próximo, India y Asia con dataciones
que ocupan todo el Paleolítico inferior, que termina hace alrededor de 180.000
años en Europa y hace 150.000 años en África,[36] lo cual representa más del 93
por ciento del alcance temporal de la arqueología.
Resulta complicado ver evidencias de consciencia reflexiva en utensilios tan
primitivos como los olduvayenses y los achelenses, que se desarrollaron hace
casi 2,5 millones de años. Después de eso, el ritmo de mejora, que refleja el
nivel de consciencia de sus productores, aumenta.
No está claro cuándo aparecieron los primeros utensilios compuestos
especializados. Se ha dicho que los fragmentos de piedra y las puntas
encontrados en los ríos Gemelos de Zambia fueron concebidos para ser
montados en mangos de madera y datan de hace 260.000 años.[37] Kyle Brown,
estudiante de doctorado de la Universidad de Ciudad del Cabo, afirmó en 2009
que los utensilios de silcreta (una costra silícea dura semejante al cemento) solo
podían haberse fabricado calentando primero la silcreta para mejorar facilitar la
extracción de las lascas y darle un brillo. Los utensilios de silcreta se localizan
en muchos yacimientos desde hace aproximadamente 72.000 años y aparecen en
una fecha tan temprana como hace 164.000 años en Pinnacle Point, en la costa
sur de Sudafrica.[38] Si la silcreta se hubiera calentado durante varias horas
antes de su lascado, indicaría un elevado nivel de cognición e inventiva.
El Paleolítico medio y la transición hacia el Paleolítico superior se
caracterizan por utensilios de piedra de refinamiento cada vez mayor. Entre ellos
destacan finos pedernales bifaciales tallados, que se supone que eran cuchillos
primitivos, junto con lascas triangulares afiladas de distintos tamaños que se
supone que formaban la cabeza de flechas y lanzas: utensilios compuestos
empleados para matar a distancia. En los yacimientos europeos del Paleolítico
superior se han encontrado asimismo utensilios como arpones con púas y
punzones muy afilados junto con agujas hechas con dientes de mamut o de reno,
lo que sugiere la utilización de pieles de animales cosidas entre sí con filamentos
de tripa, tal vez, así como prendas para vestir y/o tiendas. El Paleolítico superior
termina en Europa hace aproximadamente 10.000 años, con la llegada del
Mesolítico, que se caracteriza por pequeños utensilios compuestos, conocidos
como microlitos, antes de la aparición de los utensilios característicos de las
sociedades agrícolas y metalúrgicas.
En África subsahariana, el equivalente aproximado al Paleolítico superior y
el Mesolítico se clasifica como Edad de Piedra tardía, la duración de la cual
varía considerablemente según la región. La fabricación de utensilios persiste
actualmente en las comunidades de cazadores-recolectores de algunas zonas,
igual que en algunas selvas de Sudamérica.

Uso controlado del fuego

Es difícil establecer cuándo se inició el uso controlado del fuego y la fecha


oscila entre hace 0,2 y 1,7 millones de años. Las evidencias de creatividad y
métodos de invención para generar y utilizar el fuego para calentarse, cocinar y
protegerse de los depredadores se encontraron en Sudáfrica en forma de huesos
calcinados con una datación que se sitúa entre 200.000 y 700.000 años antes de
nuestros días.[39]

Símbolos y ornamentos

Las primeras evidencias de utilización de símbolos y de la capacidad para la


expresión artística aparecen en África. Distintos niveles de la cueva de Blombos,
en la costa sur de Ciudad del Cabo, Sudáfrica, con una antigüedad de entre
100.000 y 75.000 años, ofrecen no solo nuevas formas de puntas de piedra
cuidadosamente talladas y utensilios de hueso, sino también piezas de ocre
grabadas con dibujos abstractos y conchas perforadas, algunas de las cuales
aparecen manchadas con ocre.[40]
Este tipo de conchas, que se asume que se utilizaban a modo de ornamentos
como collares, se ha encontrado también en Qafzeh y Skhul (Israel), Qued
Djebbana (Argelia) y Taforalt (Marruecos). Su datación es problemática, pero las
estimaciones disponibles son que el yacimiento marroquí tiene entre 85.000 y
80.000 años de antigüedad, mientras que la capa del yacimiento de Skhul, en
Israel, se supone que tiene entre 135.000 y 100.000 años de antigüedad.[41]
Estos artefactos de mediación simbólica demuestran capacidad de
pensamiento, imaginación, creatividad y abstracción.
¿Comercio?

Tres de los yacimientos marroquíes con conchas perforadas se encuentran a


entre 40 y 60 kilómetros de la costa, mientras que el yacimiento argelino está a
190 kilómetros del mar. Francesco d’Ericco y sus colegas llegaron a la
conclusión de que tribus que vivían en la costa fabricaban y comerciaban con
estos ornamentos.[42] La localización de las conchas perforadas también podría
explicarse por la migración de tribus desde la costa hasta lugares más protegidos
o lugares con mejor accesibilidad al alimentos que llevaron consigo dichos
ornamentos. Si su localización fuera resultado del comercio, evidenciaría
previsión, creatividad y voluntad; demostraría asimismo cooperación,
diferenciada de la colectivización, y se deduciría la presencia del lenguaje, por
rudimentario que fuese.

Travesías marítimas

Los humanos aparecen en Australia, en la garganta Deaf Adder, en el norte


del continente, hace entre 60.000 y 53.000 años, sino antes.[43] En ninguno de
los periodos de glaciación, el nivel de las aguas bajó lo suficiente como para
proporcionar pasarelas entre Asia y Australia, y se estima que la migración
exigió un mínimo de 100 kilómetros de navegación en aguas abiertas.[44] Una
hazaña de este calibre precisa de un elevado nivel de comprensión, previsión y
voluntad para planificar y llevar a buen puerto la travesía marítima, junto con los
correspondientes niveles de creatividad e inventiva necesarios para diseñar y
construir una balsa o una barca idónea. El éxito de una empresa así depende con
casi toda seguridad de la cooperación, lo que queda sustentado por lo que
conocemos de la organización social de las tribus aborígenes posteriores, lo cual
también exigiría el uso del lenguaje.

Enterramientos y cremaciones ceremoniales

Según Chris Stringer, del Museo Británico de Historia Natural, el


enterramiento simbólico más antiguas que se conoce se remonta a hace 115.000
años, en la cueva de Skhul, Israel, y es el de un hombre moderno que aparece
enterrado abrazado a la mandíbula inferior de un jabalí.[45]
James Bowler y sus colegas de la Universidad de Melbourne defienden que
las nuevas técnicas de datación sitúan la fecha de los enterramientos con restos
de ocre más antiguos del mundo y los primeros datos de cremaciones hace
40.000 ± 2.000 años en el lago Mundo, en la región oeste de Nueva Gales del
Sur.[46]
Algunos rituales sugieren elevados niveles de comprensión, imaginación y,
muy probablemente, creencias.

Pinturas, estatuillas y flautas

En 1994, Jean-Marie Chauvet descubrió, junto con dos colegas, una serie de
imágenes espectaculares en los muros de una cueva situada en el desfiladero del
río Ardeche, en el sur de Francia. Incluyen cuatro cabezas de caballo dibujadas
con sombreado y perspectiva, junto con sofisticadas representaciones de dos
rinocerontes con los cuernos enredados, leones persiguiendo una manada de
bisontes, osos y otros animales. En su mayoría están pintadas con carboncillo o
con un pincel o un dedo embadurnados con pigmento rojo.
En la cueva no se detectó presencia de humanos, pero sí los huesos de más de
190 osos, incluyendo un cráneo colocado encima de una gran roca plana. Los
hallazgos suscitaron la sugerencia de que la cueva tenía un uso más ceremonial
que ocupacional, tal vez para la invocación de los espíritus de los animales con
el fin de garantizar el éxito en la cacería.
Se han realizado más de ochenta dataciones con radiocarbono de las marcas
de las antorchas y las pinturas de las paredes, así como de los huesos de animales
y el carbón del suelo, proporcionando una cronología detallada de lo que ahora
se conoce como la cueva de Chauvet. Las dataciones muestran que las obras de
arte se realizaron en dos periodos distintos, uno hace 30.000 años y el otro hace
35.000 años, lo que las convierte en las pinturas murales más antiguas que
conocemos.[47]
Algunos paleoantropólogos pusieron en duda estas dataciones, en particular
por la sofisticación de las pinturas, y sugirieron que las muestras estaban
contaminadas o que el carbón era de un periodo posterior, pero las técnicas de
datación se defendieron con vigor.[48] Pero es posible que estas pinturas no sean
las más antiguas. Un equipo italiano que trabaja en la cueva de Fumane, cerca de
Verona, ha datado fragmentos de piedra con imágenes de un animal y uno en el
que aparece una figura medio humana, medio animal, con una antigüedad que
oscila entre 32.000 y 36.500 años, aunque los fragmentos estaban separados de
la pared de la cueva.[49]
En Francia y en España se han descubierto casi 350 cuevas con arte de
tiempos prehistóricos. Las más famosas son las de Lascaux, en una cueva situada
en la ladera de una montaña de la región de la Dordogne, en el sur de Francia.
Este gigantesco complejo contiene cerca de 600 imágenes en los techos y las
paredes, creadas con carbón y diversos pigmentos minerales; algunas están
grabadas en la piedra. La altura a la que Estan situadas muchas de ellas sugiere
el montaje de andamios para su elaboración, lo que implica cooperación y, muy
probablemente, lenguaje.
En común con otro arte cavernícola del oeste de Europa, las pinturas de
Lascaux representan animales salvajes de tamaño grande, como bisontes,
caballos, uros y ciervos; uno de los ejemplares ha sido clasificado como un
unicornio, pero podría tratarse también de un caballo con una lanza clavada en la
cabeza. Las paredes de la cueva están además decoradas con huellas de manos
humanas, así como con dibujos abstractos, lo que se conoce como estrías o
acanalado con dedo. Dataciones recientes con radiocarbono ofrecen un rango de
fechas para las distintas imágenes que sitúa las más antiguas entre 18.900 y
18.600 años atrás.[50]
Las imágenes de humanos son muy excepcionales y cuando se encuentran,
son de figuras que combinan el humano con el animal, lo cual evidencia
imaginación además de representación; se trata posiblemente de humanos con
tocados de cabezas de león, águila u otros animales depredadores. En cualquier
caso, constituyen evidencia de creencia, probablemente en espíritus de animales
cuya intercesión debían de buscar los chamanes.
Las evidencias de creencias e imaginación se ven reforzadas por el
descubrimiento de fragmentos de colmillos de mamut en la parte posterior de la
cueva de Hohlestein-Stadel, en el sudoeste de Alemania. Estos fragmentos,
datados recientemente con radiocarbono en unos 40.000 años de antigüedad, se
han unido para crear la figura espectacularmente detalla de un hombre de 30
centímetros de altura con la cabeza de un león. En la cueva de Hohle Fels, a 40
kilómetros al sudoeste de Hohlenstein-Stadel, se encontró la figurilla de un
humano con cabeza de león creada a partir de marfil de mamut de tamaño mucho
más pequeño (2,5 centímetros de altura).
Esta región alemana ha producido muchas más figurillas con una antigüedad
de entre 30.000 y 35.000 años que se han encontrado en capas de cuevas ricas en
utensilios de piedra. Entre ellas destaca una figurilla de marfil de mamut de una
mujer sin cabeza ni piernas con pechos, nalgas y vulva exageradamente grandes.
El escultor omitió deliberadamente la cabeza para surtirla por un pequeño aro de
marfil del que debía de colgar la figurilla. Este tipo de figuritas, de menos de 10
centímetros de altura, se han encontrado también en otros yacimientos de
Europa. Algunas son de animales; muchas representan mujeres en distintas fases
de su vida fértil: jóvenes, embarazadas y dando a luz. A pesar de que algunas
van adornadas con collares de cuentas o cinturones, casi todas van desnudas a
pesar datadas en una Edad del Hielo en la que debía de ser habitual vestirse con
pieles. Muchas de las figuritas exhiben pechos y nalgas grandes, cuando debía de
tratarse de una morfología excepcional (los restos de esqueletos indican cuerpos
delgados que caminan grandes distancias, cargan bultos pesados y sufren con
frecuencia desnutrición). Los detalles se concentran más en el cuerpo desnudo
que en las extremidades o la cara, que a menudo ni siquiera se representan, lo
que sugiere que tratarse de símbolos de fertilidad. Muchas de estas figuras
incluyen un orificio, por lo que se piensa que es probable que se concibieran
como talismanes para llevar colgados. En las sociedades actuales de cazadores-
recolectores, los hombres no toman parte del proceso del parto por lo que es
posible que las mujeres fueran las encargadas de tallas estas figuras.[51]
Tres de los yacimientos alemanes de datación similar han producido también
los instrumentos musicales más antiguos. Se han encontrado cuatro flautas
fabricadas con huesos de alas de cisnes y buitres, con orificios en toda su
longitud situados a intervalos regulares; la más completa fue encontrada a 70
centímetros de la figurita de mujer sin cabeza ni extremidades.
Una demostración de incluso mayor inventiva, imaginación, creatividad y
raciocinio es una flauta fabricada con colmillo de mamut, reconstruida a partir
de 31 fragmentos hallados en la cueva de Geisenklosterlen, cerca de Ulm. En
vez de fabricarla a partir del hueso hueco de un ala de ave, su creador tuvo que
partir el colmillo curvo sin estropearlo, vaciar cada mitad, realizar tres orificios
en cada parte y luego pegar las dos mitades de marfil sin que quedaran espacios
por donde se pudiera filtrar el aire.[52]
Muchos arqueólogos siguen considerando estas evidencias del Paleolítico
superior en forma de arte representativo, imaginativo y simbólico, plasmado en
ornamentos personales, esculturas, pinturas y utensilios decorados, junto con los
instrumentos musicales, como un fenómeno único de la región occidental de
Europa. Tal y como Colin Refrew, del McDonald Institute for Archaeological
Research de la Universidad de Cambridge escribió en 2008:

Es importante recordar que lo que se califica a menudo como arte rupestre —las pinturas de las
cuevas, las bellas figuritas de «Venus»— se produjo durante el Paleolítico (es decir, en el periodo
climático del Pleistoceno) y se limita a una única trayectoria de desarrollo que localizamos en
Europa occidental.[53]

Pero no es ni mucho menos así. Como ya se ha mencionado, distintos niveles


de la cueva sudafricana de Blombos, datados con una antigüedad de entre
100.000 y 75.000 años, han producido piezas de ocre tallado con símbolos. En la
cueva Apolo XI, situada en las montañas Huns, al sudoeste de Namibia, se
encontraron siete losas de piedra con pinturas datadas con una antigüedad de
entre 35.500 y 23.500 años que poseen una sofisticación comparable a la de las
muestras europeas. Decorar paredes rocosas con pinturas utilizando materiales
similares sigue siendo una actividad habitual en algunas zonas tribales actuales,
aunque la exposición a las condiciones climáticas sugiere que su longevidad es
limitada.[54] En Australia se han encontrado también pinturas rupestres. En
2010, por ejemplo, se descubrió una pintura realizada con ocre rojo en la zona
central de la meseta de la Tierra de Arnhem donde aparecen representadas dos
aves de aspecto similar a un emú con el cuello estirado; se dice que esas aves
debían de pertenecer al género Genyornis, aves gigantes que se extinguieron
hace más de 40.000 años.[55] Cinco grupos de abrigos rocosos en la meseta
central de India exhiben pinturas similares a muchos ejemplos europeos. No se
han aplicado las técnicas de datación más recientes, pero se cree que tienen
alrededor de 12.000 años de antigüedad; los miembros de las tribus locales de la
actualidad siguen pintando en las rocas.[56]
Estos descubrimientos dejan la impresión de que la cantidad muy superior de
muestras de arte prehistórico que se ha encontrado en Europa es consecuencia
del esfuerzo mayor que se ha consagrado a descubrirlo y analizarlo, junto con
condiciones más favorables para su conservación, que a la posibilidad de que se
trate de un fenómeno único de los humanos europeos arcaicos. Para determinar
si el arte encontrado en yacimientos de África, Asia y Australia es más antiguo,
contemporáneo o posterior al europeo, se necesitarían técnicas de datación más
rigurosas.

Lenguaje

Los miembros de muchas especies con niveles elevados de consciencia


utilizan sonidos y gestos para comunicar miedo, alerta, amenaza, placer y otras
emociones, tanto entre sus propios miembros como hacia otras especies. La
consciencia reflexiva, sin embargo, transforma la comunicación en lenguaje, que
defino como:

Lenguaje: comunicación de sentimientos, narraciones, explicaciones o


ideas a través de una estructura compleja de símbolos aprendidos
hablados, escritos o de signos, que transmite un sentido en el seno de la
cultura en la que se utiliza.

La capacidad única del lenguaje de transmitir experiencias e ideas no solo a


otros miembros vivos de la especie humana, sino también a generaciones
sucesivas, que de este modo se benefician de la sabiduría acumulada, permitió el
florecimiento cada vez más rápido de la consciencia reflexiva.
Resulta difícil determinar cuándo surgió el lenguaje. Algunos investigadores
defienden que el área de Broca del cerebro es la evidencia del habla y se basan
para ello en que cuando esta área está dañada, el individuo pierde la capacidad
de hablar. La posesión del área de Broca se deduce a partir de un molde
endocraneal, la impresión que deja el cerebro en el cráneo. Sin embargo, algunos
chimpancés tienen un área de Broca prominente y ninguno de ellos ha sido capaz
de articular una sola frase a pesar de los esfuerzos que se han dedicado a
enseñarlos.
Otros creen que la presencia del gen FOXP2 indica capacidad de habla,
puesto que las mutaciones de este gen regulador se asocian con dificultades en la
articulación de palabras acompañadas por disfunciones lingüísticas y
gramaticales. La proteína FOXP2 del neandertal es idéntica a la del humano, que
se diferencia de la del chimpancé en solo dos aminoácidos y de la del ratón en
solo tres. Svante Paabo y sus colegas del Max Planck Institute for Evolutionary
Anthropology especulan que la versión humana que permite el habla articulada
fue seleccionada después de la división entre humano y chimpancé.[57] Sin
embargo, el gen FOXP2 regula un gran número de genes y está implicado en el
desarrollo no solo de tejidos neuronales sino también del pulmón y el intestino.
[58] No creo que la posesión de la variante humana del FOXP2 sea una
evidencia adecuada de habla.
La única evidencia no ambigua de lenguaje son los escritos, pero ¿cómo
detectar la utilización del lenguaje escrito en tiempos prehistóricos? Mi
sugerencia es que podemos seguirle la pista a partir de aquellas cosas en las que
la escritura está obligatoriamente implicada.
La mayoría de eruditos considera que los primeros sistemas de escritura
escrita fueron los cuneiformes, con ejemplos que encontramos grabados en
tablillas de arcilla en Sumeria, Mesopotamia, con una antigüedad aproximada de
5.000 años, y los jeroglíficos, que encontramos grabados en piedra en Egipto
hacia la misma época. Estos sistemas evolucionaron a partir de la proto-escritura
—cuyo límite con la escritura es confuso—, que consiste en símbolos abstractos
que registraban cantidades de los productos, como el trigo, que se comerciaban o
entregaban a modo de tributo o impuesto. Estos símbolos habían evolucionado a
su vez a partir de símbolos pictóricos, el origen de los cuales se encuentra
probablemente en el arte y los símbolos rupestres junto con los símbolos
grabados en ocre antes mencionados.
Los primeros escritos narran tanto las hazañas de los gobernantes y de sus
antepasados, como de los dioses y los espíritus, historias que los ancianos o los
contadores de historias debían de haber transmitido oralmente. También parece
razonable la hipótesis de que los símbolos pintados y grabados tuvieran un
paralelo hablado, por básico que fuera, que poco a poco fue sofisticándose. Y he
sugerido asimismo que algunos logros concretos, como la migración de 100
kilómetros por mar de un grupo de humanos o el comercio de productos,
requiere la presencia de lenguaje hablado.
A pesar de que cualquier evidencia de lenguaje en tiempos prehistóricos es
necesariamente indirecta, todo sugiere que el lenguaje hablado emergió en el
Paleolítico superior.

La culminación de la emergencia del hombre

La combinación de las evidencias disponibles indica que la emergencia del


hombre quedó completada a finales del Paleolítico superior (la Edad de Piedra
tardía en África) y probablemente incluso antes. Los primeros destellos de
consciencia reflexiva aparecen en forma de distintas manifestaciones de
facultades secundarias nuevas o radicalmente transformadas en diversos lugares
y periodos, como burbujas de vapor que aparecen en distintos momentos de
distintos lugares donde hay agua en ebullición. En la superficie, algunas
burbujas pueden condensarse y volver a ser líquido. Pero por encima de esta
superficie de transición, por mucho que las moléculas de agua puedan tener la
misma temperatura de 100 º Celsius que las que se forman en el líquido de abajo,
son indiscutiblemente gas: se ha producido un cambio de fase. De un modo
similar, la consciencia entra en una fase nueva, la reflexiva, que marca la
presencia del Homo sapiens.

Hipótesis explicativas

La escasez de evidencias y los problemas de su interpretación han dado lugar


a numerosas hipótesis que pretenden explicar este fenómeno. Pueden agruparse
en seis hipótesis principales, algunas de las cuales se complementan mientras
otras contradicen a las demás. Todas coinciden, sin embargo, en que hace
aproximadamente 1,7 millones de años se produjo una oleada de emigración del
Homo erectus desde África hacia Oriente Próximo, Asia y Europa.

Modelo multirregional

Postulado por Milford Wolpoff y otros, el modelo multirregional defiende


que grupos de Homo erectus llegaron a China, Indonesia y tal vez Europa hace
aproximadamente un millón de años. Se adaptaron a las distintas condiciones
medioambientales de las distintas regiones y acabaron evolucionando hacia el
humano moderno, cuyas diferencias raciales son un reflejo de estos distintos
entornos. La unidad de los humanos como especie se mantuvo gracias al cruce
entre miembros de los distintos grupos regionales.

Sustitución o modelo de orígenes africanos recientes

Chris Stringer y otros defendieron al principio que los Homo erectus que se
dispersaron regionalmente murieron o evolucionaron hacia especies sucesoras,
como el Homo neanderthalensis en Eurasia; solo en África, y muy
probablemente en un área pequeña y propicia como África Oriental,
evolucionaron hacia Homo sapiens hace aproximadamente 130.000 años.
Hace cuestión de 100.000 años, algunos grupos de Homo sapiens migraron
hacia Israel y Oriente Próximo y algunos llegaron a Australia hace unos 60.000
años. El rápido desarrollo de los utensilios en la Edad de Piedra tardía y la
conducta compleja del Homo sapiens en África hace alrededor de 50.000 años,
permitió que algunos pudieran migrar hacia Europa, adonde llegaron hace
35.000 años (aunque, al parecer, el Homo erectus o su sucesor ya había llegado a
Asia y Europa un millón de años antes sin utensilios tan avanzados y sin
conductas tan complejas).
El Homo sapiens, cognitivamente más avanzado, sustituyó a las especies
indígenas de Homo, que acabaron extinguiéndose. Solo después de esta
emigración relativamente reciente desde África, y como consecuencia de la
adaptación a los entornos regionales, se fueron desarrollando las distintas
características raciales.
Los defensores del modelo argumentaron que los trascendentales análisis del
ADN mitocondrial (la «Eva mitocondrial») sustentaban su hipótesis, aunque
estos análisis fueron criticados posteriormente (véase página 680).

Modelo de asimilación

Este modelo de compromiso, avanzado por Fred Smith y Erik Trinkaus,


acepta las tesis del modelo de los orígenes africanos recientes sobre el origen del
Homo sapiens pero defiende que, en vez de que los humanos modernos
sustituyeran a las especies de Homo indígenas de las distintas regiones, fueron el
cruce y la selección natural local lo que llevó a la asimilación de las especies
indígenas, lo cual explicaría las características raciales del humano moderno.

Orígenes africanos recientes con modelo de hibridación

Como resultado de los análisis genómicos antes mencionados que indicaban


que se habían producido cruces entre Homo sapiens y Homo neanderthalensis,
Stringer y sus colegas modificaron su modelo original. El genoma neandertal es
más similar al del humano asiático y europeo occidental actual que al del
humano africano, lo que sugiere que estos cruces tuvieron lugar en Oriente
Próximo después de que los humanos salieran de África, pero antes de su
expansión por Europa y Asia.
Términos como «cruce» y «asimilación» podrían transmitir cierta impresión
de armonía, como sucede con las parejas interraciales contemporáneas, pero hay
que recordar que la violación lleva mucho tiempo siendo un arma de guerra. Se
menciona en numerosas ocasiones en la Biblia, por ejemplo en Zacarías 14:
«Reuniré a todas las naciones para luchar contra Jerusalén, y la ciudad será
tomada, las casas saqueadas y las mujeres violadas».
Es un recurso constante desde tiempos históricos hasta la actualidad. Un
informe de las Naciones Unidas documentó la violación sistemática de las
mujeres tutsi por parte de los hutu en la guerra genocida que libraron en 1994
por el control de Ruanda y se estimó que el resultado habían sido entre 2.000 y
5.000 embarazos.

Modelo de revolución humana

El descubrimiento de pinturas rupestres espectacularmente sofisticadas en


Francia y España, en contraste con el desarrollo de utensilios a lo largo de 2,5
millones de años para pasar de las piedras talladas en una cara a las piedras
talladas en ambas caras, suscitó la hipótesis de Richard Klein, de la Universidad
de Stanford, de que los humanos modernos emergieron de forma repentina hace
aproximadamente 35.000 años; la causa más probable sería una mutación
genética a nivel cerebral que transformó el proceso neural y dio lugar a un
incremento dramático de la consciencia.
Hallazgos posteriores de pinturas y esculturas similares en otros continentes
cambiaron el lugar y el momento de la hipotética mutación. El lugar se trasladó a
África y el momento a antes de la emigración del Homo sapiens. Según Klein,
este hecho se produjo hace entre 50.000 y 40.000 años, mientras que Paul
Mellars, de la Universidad de Cambridge, lo sitúa entre 80.000 y 60.000 años
atrás. Fue un suceso que equipó al Homo sapiens con el poder intelectual
necesario para poder migrar con éxito desde África (aunque, como se ha
observado previamente, habría miembros de la especie Homo erectus,
supuestamente peor dotada a nivel intelectual, que ya habrían emprendido ese
viaje hace 1,7 millones de años) y sustituir la especie Homo, cognitivamente
inferior en todo el mundo, lo que apoyaría, por lo tanto, el modelo de sustitución.

Modelo gradualista

Sally McBrearty, de la Universidad de Connecticut, y Alison Brooks, de la


George Washington University, rechazan con mordacidad el modelo de la
revolución humana y lo tachan de eurocéntrico. Observan que las evidencia de
refinamientos en los utensilios de piedra y en los utensilios compuestos, la caza
especializada, la utilización de recursos acuáticos, la presencia de ornamentos y
de grabados, y la utilización de pigmentos en el arte y la decoración no
aparecieron en el mismo momento y la misma época, sino en distintos lugares
del continente africano y en distintos momentos, siendo el más remoto hace
aproximadamente 250.000 años. Esto, defienden, demuestra que la cognición se
desarrolló gradualmente.

Causas propuestas para la emergencia del hombre

Con la excepción del modelo de la revolución humana, las hipótesis


presentadas tratan sobre cómo y cuándo emergieron los humanos, no sobre el
por qué.

Mutación genética

Una mutación genética que causara un avance de conducta tan dramático en


tan poco tiempo es incompatible con lo que sabemos sobre el funcionamiento de
los genes. A pesar de que una única mutación puede llegar a ser destructiva e
inhibir una conducta existente, o incluso producir la muerte (aunque en este caso
suelen necesitarse varias mutaciones genéticas), el desarrollo de una conducta
nueva o muy mejorada casi siempre exige que muchos genes actúen en red.
Vimos en la página 513, por ejemplo, que un estudio realizado en 2010 demostró
que la inteligencia humana está controlada por una red de miles de genes y no
por unos pocos genes potentes, como se creía anteriormente.
Si el cambio genético fuera la única o la principal causa de una revolución
relativamente repentina de la conducta que quedara reflejada en un aumento
relativamente repentino de la consciencia —en este caso, hasta el punto de la
consciencia reflexiva—, lo más probable que este cambio estuviera causado no
por una mutación genética sino por un cambio genómico importante que
implicaría muchos genes y mecanismos reguladores, como sucede con los
resultantes de la hibridación o de la duplicación del genoma.[59]

Cambio climático en África Oriental

Durante muchas décadas, la explicación ortodoxa fue que los humanos


emergieron en África Oriental porque el cambio climático dio como resultado la
conversión de la selva en sabana al este del valle del Rift, recién creado como
consecuencia de movimientos tectónicos. La bipedestación fue seleccionada
porque suponía una ventaja adaptativa con respecto a caminar apoyándose en los
nudillos, como el chimpancé y el gorila: permitía a los humanos desplazarse de
un modo más eficiente durante las grandes distancias que tenían que recorrer por
las praderas en busca de sustento, y/o les permitía divisar presas y depredadores
desde mayores distancias, y/o exponía menos el cuerpo al calor del sol —del que
habían dejado de estar protegidos al desaparecer la densa vegetación de la selva
—, y/o les liberaba las manos para poder emplear utensilios.[60]
Al principio del capítulo he hecho la observación de que la bipedestación no
es exclusiva de los humanos. Además, quitándole autoridad a la explicación de
la sabana, hay que decir que el Ardipithecus ramidus vivió en un entorno mixto
de bosques y selva y se supone que era bípedo, mientras que, por otro lado, se ha
observado al chimpancé utilizando y construyendo incluso utensilios muy
simples. Además, las antropólogas Sally McBrearty y Nina Jablonski
comunicaron en 2005 el descubrimiento en Kenia de un fósil de chimpancé de
545.000 años de antigüedad[61], contradiciendo la postura de que los homininos
fueron los únicos que migraron y sobrevivieron en la sabana del este del valle
del Rift[62] (aunque, lógicamente, ese chimpancé podría no haber sobrevivido
en aquellas condiciones).

Cambios climáticos globales

La evolución de los homininos tuvo lugar en la época geológica conocida


como Pleistoceno, un periodo que se extiende desde hace 2,6 millones de años
hasta hace 12.000 años y que se caracteriza por la repetición de grandes
glaciaciones intercaladas con periodos cálidos interglaciares más breves, de entre
10 y 20.000 años.
Lo cual llevó a Stringer a defender que hace 450.000 años se produjo un
suceso climático clave, cuando el Homo heidelbergensis (supuesto sucesor del
Homo erectus), que se había propagado por Eurasia, incluyendo las islas
británicas, experimentó una glaciación severa que lo llevó a dividirse en tres
grupos principales que a partir de ahí evolucionaron por separado: el grupo
europeo evolucionó hacia los neandertales, el asiático hacia los denisovanos y el
grupo africano evolucionó hacia el humano moderno.
Otros paleontólogos han invocado estas alternancias entre periodos glaciales
e interglaciares como explicación de la evolución humana. Según este punto de
vista, los repetidos periodos cálidos interglaciares provocaron la desertización y
la sequía en África Oriental, lo que obligó a los humanos a migrar. Uno de estos
periodos, de unos 60.000 años de duración, empujó a los humanos hacia el norte,
fuera de África, mientras que una fase de glaciación que alcanzó su punto
culminante entre 25.000 y 15.000 años atrás, provocó un descenso del nivel del
mar de alrededor de 120 metros que creó un puente en lo que en la actualidad es
el estrecho de Bering que permitió que muchos animales, perseguidos por los
humanos, se trasladaran de Eurasia a Norte América.
Pero la migración, en sí misma, no explica la emergencia humana: hay
muchas más especies migratorias.
Además, los cambios climáticos son más complejos que todo esto. En el
capítulo 12 vimos que el clima depende de los cambios que se producen en la
radiación solar (como los que producen las llamaradas solares), del giro de la
Tierra sobre su eje, de la precesión del eje de la Tierra, de los cambios
estacionales provocados por la inclinación del eje de la Tierra (una inclinación
que varía en ciclos de 41.000 años), de los movimientos tectónicos que afectan
los océanos y las corrientes de aire, etc.[63] Todas estas causas de cambio
climático operan con distintas escalas de tiempo e interactúan produciendo, por
ejemplo, periodos de grandes lluvias que no siempre son predecibles. Después
de estudiar sedimentos de lagos, los paleoclimatólogos Martin Trauth y Mark
Maslin llegaron a la conclusión de que en el valle del Riff siguió habiendo
grandes lagos incluso en los periodos de sequía.[64]
Rick Potts, director del Humans Origins Program del Instituto Smithsoniano
y conservador del Museo Nacional de Historia Natural de los Estados Unidos,
sugiere que la causa de la emergencia de los humanos no fue el cambio de selva
a sabana, sino que un entorno que fluctuaba entre selvas, praderas y desiertos
acabó provocando un aumento del tamaño cerebral de los homininos que les
permitió comprender cómo sobrevivir en circunstancias tan fluctuantes.
No sabemos con qué rapidez se produjeron estas fluctuaciones. Los registros
de la capa de hielo de Groenlandia han demostrado que un cambio climático
pronunciado puede producirse en plazos de 20 años, o incluso menos. Tal y
como destaca el proyecto RESET (Response of Humans to Abrupt
Environmental Transitions) [Respuesta humana a transiciones medioambientales
abruptas], un consorcio de investigación multidisciplinar patrocinado por el
Natural Environment Research Council del Reino Unido, los estudios que
correlacionan la evolución humana con el cambio climático corren peligro
porque se han demostrado incapaces de sincronizar los registros arqueológicos y
geológicos con la precisión suficiente.
La mayoría de factores que determinan el cambio climático son globales y no
veo motivos para favorecer la región de África Oriental como «cuna de la
humanidad». Tanto en África Occidental como en el sur del continente se han
descubierto indicios de consciencia reflexiva (utensilios especializados
compuestos, ornamentos y símbolos). Tal vez el hecho de que en África Oriental
se hayan descubierto más fósiles de homininos (que, con todo y con eso, son
escasos) se deba a que la rápida erosión de las tierras altas que llenaron de
sedimentos el valle del Riff proporcionara condiciones más favorables para la
fosilización que un posible hábitat único que fomentara la emergencia humana.

Conclusiones

1. La única característica que distingue a los humanos de todas las demás


especies es la consciencia reflexiva.
2. Su aparición puede rastrearse a partir del aumento de consciencia en los
primates hasta que llega un punto en que la consciencia se vuelve
consciente de sí misma. Los signos de los primeros destellos de esta
consciencia reflexiva se encuentran en las indiscutibles evidencias que
muestran que facultades ya poseídas por los primates se transforman
radicalmente y en las nuevas facultades secundarias que dicha consciencia
reflexiva genera.
3. La escasez de evidencias, sin embargo, hace imposible seguir la pista del
linaje que va desde los primates hasta el humano moderno. La escasez de
evidencias hace también imposible elegir entre las distintas hipótesis que
pretenden explicar dónde y cómo se produjo este proceso. Y por lo que al
«cuándo» se refiere, las evidencias disponibles son compatibles hasta
cierto punto tanto con el modelo de la revolución humana como con el
modelo gradualista. La consciencia reflexiva no surgió de repente de la
nada. La consciencia emergió de forma gradual en distintos homininos
hace aproximadamente 2,5 millones de años; aunque el ritmo de cambio
aumentó, y siguió aumentando, en los últimos 250.000 años, cuando los
distintos indicios de consciencia reflexiva aparecen con relativa rapidez en
distintos lugares, hasta llegar al momento en que encontramos todos estos
indicios en la Edad de Piedra tardía en África y en el Paleolítico superior
en distintos continentes, hace entre 40.000 y 10.000 años
4. La misma escasez de evidencias hace imposible identificar la causa o
causas concretas de la emergencia del hombre. Posiblemente, la causa
básica fue el instinto de supervivencia ante los depredadores y la necesidad
de encontrar sustento en un entorno fluctuante, consecuencia de un clima
fluctuante, todo lo cual llevó al reconocimiento de que las necesidades
quedaban mejor cubiertas con cooperación que con competencia. Es
posible que la hibridación o la duplicación del genoma jugaran también
algún tipo de papel en el cambio evolutivo.
5. En términos generales, parece que nos encontramos ante un caso de
emergencia[65] de sistemas en el que la interacción de facultades en un
nivel de complejidad inferior —como la comprensión, la inventiva, el
aprendizaje y la comunicación— genera una facultad novedosa en un nivel
de complejidad superior —en este caso, la consciencia reflexiva— y esa
facultad de nivel superior interactúa causalmente con las facultades de
nivel inferior para transformarlas y generar facultades nuevas —como la
imaginación, el lenguaje, la abstracción y las creencias.
6. Igual que sucede con la aparición de la materia y la aparición de la vida, la
escasez inherente de evidencias hace que sea prácticamente seguro que la
ciencia nunca conseguirá identificar cuándo, cómo y por qué aparecieron
los humanos. Pero esto no implica que haya que negar, ni mucho menos, la
emergencia del hombre. Para ampliar la analogía utilizada en la segunda
parte, diremos que la consciencia reflexiva es como una flor que crece a
partir de la semilla de la consciencia. En algunos ambientes, la semilla
nunca llega a dar una flor. En otros, da lugar a un brote, que produce un
capullo que se acaba marchitando. En otros, ese capullo acaba abriéndose
en una flor. Un capullo no es una flor, pero es imposible decir en qué
momento concreto el capullo se transforma en flor.[66]
[1] Véase página 630.
[2]Stringer (2011), p. 28.
[3]Morris (1986).
[4] Véase página 504.
[5]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome», Science, 328: 5979, 2010,
pp. 710–722.
[6]Jorde, Lynn B. y Wooding, Stephen P., «Genetic Variation, Classification and “Race”» Nat Genetics,
36, 2004, pp. 528–533.
[7] Véase página 518.
[8]Derricourt, Robin, «Getting “out of Africa”: Sea Crossings, Land Crossings and Culture in the
Hominin Migrations», Journal of World Prehistory, 19: 2, 2005, pp. 119–132.
[9] Véase página 457.
[10] Véase página 630.
[11]Stoneking, Mark, «Human Origins», EMBO Reports, 9: S1, 2008, S46–S50.
[12] Véase página 281 para una descripción más detallada de esta técnica.
[13]Stringer (2011), pp. 33–44.
[14]Cann, R. L., et al., «Mitochondrial DNA and Human Evolution», Nature, 325:6099, 1987, pp. 31–
36.
[15]Stringer (2011), pp. 23–24.
[16]Cruciani, Fulvio, et al., «A Revised Root for the Human Y Chromosomal. Phylogenetic Tree: The
Origin of Patrilineal Diversity in Africa», The American Journal of Human Genetics, 88: 6, 2011, pp. 814–
818.
[17]Underhill, P A, et al., «The Phylogeography of Y Chromosome Binary Haplotypes and the Origins
of Modern Human Populations», Annals of Human Genetics, 65: 1, 2001, pp. 43–62.
[18]http://web.archive.org/web/20070706095314/http://www.janegoodall.com/chimp_central/default.asp
consultado el 8 de diciembre de 2011.
[19]«Bonobo», The Columbia Electronic Encyclopedia, 6ª ed., Columbia University Press, 2011.
Consultado el 8 de diciembre de 2011; http://www.britannica.com/EBchecked/topic/73224/bonobo,
consultado el 16 de enero de 2012.
[20]Brunet, Michel, et al., «New Material of the Earliest Hominid from the Upper Miocene of Chad»,
Nature, 434: 7034, 2005, pp. 752–755; Zollikofer, Christoph P. E., et al., «Virtual Cranial Reconstruction of
Sahelanthropus Tchadensis», Nature, 434: 7034, 2005, pp. 755–759.
[21]Henke, et al., (2007).
[22]White, T. D., «Human Origins and Evolution: Cold Spring Harbor, Deja Vu», Cold Spring Harbor
Symposia on Quantitative Biology, 2009; Lovejoy, C. Owen, «Reexamining Human Origins in Light of
Ardipithecus Ramidus», Science, 326: 5949, 74, 2009, pp. 74e1–74e8.
[23]Pickering, Robyn, et al., «Australopithecus Sediba at 1.977 Ma and Implications for the Origins of
the Genus Homo», Science, 333: 6048, 2011, pp.1421–1423.
[24]Spoor, Fred, «Palaeoanthropology: Malapa and the Genus Homo», Nature, 478: 7367, 2011, pp.
44–45.
[25]Leakey, Meave G., et al., «New Fossils from Koobi Fora in Northern Kenya Confirm Taxonomic
Diversity in Early Homo», Nature, 488: 7410, 2012, pp. 201–204.
[26]Reich, David, et al., «Genetic History of an Archaic Hominin Group from Denisova Cave in
Siberia», Nature, 468: 7327, 2010, pp. 1053–1060.
[27]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome», Science, 328: 5979, 2010,
pp. 710–722.
[28]«Mousterian», The Concise Oxford Dictionary of Archaeology, Oxford University Press, 2003.
[29]Zilhao, Joao, et al., «Symbolic Use of Marine Shells and Mineral Pigments by Iberian
Neandertals», Proceedings of the National Academy of Sciences, 107: 3, 2010, pp. 1023–1028.
[30]Brown, P., et al., «A New Small-Bodied Hominin from the Late Pleistocene of Flores, Indonesia»,
Nature, 431: 7012, 2004, pp. 1055–1061.
[31]Brown, P. y Maeda, T., «Liang Bua Homo Floresiensis Mandibles and Mandibular Teeth: A
Contribution to the Comparative Morphology of a New Hominin Species», Journal of Human Evolution,
57: 3, 2009, pp. 571–596.
[32]Reich, David, et al., «Genetic History of an Archaic Hominin Group from Denisova Cave in
Siberia», Nature, 468: 7327, 2010, pp.1053–1060.
[33]White, Tim D., et al., «Pleistocene Homo Sapiens from Middle Awash, Ethiopia», Nature, 423:
6941, 2003, pp. 742–747.
[34]Fleagle, John G., et al.,«Paleoanthropology of the Kibish Formation, Southern Ethiopia:
Introduction», Journal of Human Evolution, 55: 3, 2008, pp. 360–365.
[35]«Paleolithic», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[36]Bahn, Paul Gerard, «Stone Age», Microsoft Encarta Online Encyclopedia, 2005,
http://uk.encarta.msn.com/.
[37]Stringer (2011), pp. 125–126.
[38]Brown, Kyle S., et al, «Fire as an Engineering Tool of Early Modern Humans», Science, 325: 5942,
2009, pp. 859–862.
[39]James, Steven R., «Hominid Use of Fire in the Lower and Middle Pleistocene», Current
Anthropology, 30: 1, 1989, pp. 1–26.
[40]http://www.wits.ac.za/academic/research/ihe/archaeology/blombos/7106/blomboscave.htm,
consultado el 1 de febrero de 2012.
[41]Botha y Knight (2009); Henshilwood, Christopher S., et al., «Emergence of Modern Human
Behavior: Middle Stone Age Engravings from South Africa», Science, 295: 5558, 2002, pp. 1278–1280;
d’Errico, Francesco, et al., «Additional Evidence on the Use of Personal Ornaments in the Middle
Paleolithic of North Africa», Proceedings of the National Academy of Sciences, 106: 38, 2009, pp. 16051–
16056.
[42]d’Erico et al., (2009).
[43]Roberts, Richard G, et al., «The Human Colonisation of Australia: Optical Dates of 53,000 and
60,000 Years Bracket Human Arrival at Deaf Adder Gorge, Northern Territory», Quaternary Science
Reviews, 13: 5, 1994, pp. 575–583.
[44]Bahn (2005).
[45]Stringer (2011,) p. 126.
[46]Bowler, James M., et al., «New Ages for Human Occupation and Climatic Change at Lake Mungo,
Australia», Nature, 421: 6925, 2003, pp. 837–840.
[47]Zorich, Zach, «A Chauvet Primer», Archaeology, 64, 2011, p. 2.
[48]Balter, Michael, «Going Deeper into the Grotte Chauvet», Science, 321: 5891, 2008, pp. 904–905.
[49]Balter, Michael, «Paintings in Italian Cave May Be Oldest Yet», Science, 290: 5491, 2000, pp.
419–421.
[50]http://www.lascaux.culture.fr/#/en/04_00.xml, consultado el 1 de febrero de 2012.
[51]Muchas de estas esculturas fueron exhibidas en la exposición del Museo Británico que llevó por
título «Ice Age Art: Arrival of the Modern Mind», visitada el 17 de mayo de 2013. Véase también Cook
(2013) y Conard, Nicholas J., «A Female Figurine from the Basal Aurignacian of Hohle Fels Cave in
Southwestern Germany», Nature, 459: 7244, 2009, pp. 248–252.
[52]Schneider, Achim, «Ice-Age Musicians Fashioned Ivory Flute», Nature News, 2004.
http://www.nature.com/news/2004/041217/full/news041213-14.html, consultado el 18 de enero de 2012;
Stringer (2011), pp. 119–120.
[53]Renfrew, Colin, et al., «Introduction. The Sapient Mind: Archaeology Meets Neuroscience»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 363: 1499, 2008, pp. 1935–1938.
[54]Departmento de Arte de África, Oceanía y América, The Metropolitan Museum of Art, 2000,
http://www.metmuseum.org/toah/hd/apol/hd_apol.htm, consultado el 15 de diciembre de 2011.
[55]http://www.abc.net.au/news/2010-05-31/megafauna-cave-painting-could-be-40000-years-
old/847564, consultado el 15 de diciembre de 2011.
[56]http://whc.unesco.org/en/list/925/, consultado el 15 de diciembre de 2011.
[57]Enard, Wolfgang, et al., «Molecular Evolution of FOXP2, a Gene Involved in Speech and
Language», Nature 418: 6900, 2002, pp. 869–872.
[58]Shu, Weiguo, et al., «FOXP2 and FOXP1 Cooperatively Regulate Lung and Esophagus
Development», Development, 134: 10, 2007, pp. 1991–2000.
[59] Véase página 660.
[60]Las fuentes son Stringer (2011); d’Errico, Francesco y Stringer, Chris B. «Evolution, Revolution or
Saltation Scenario for the Emergence of Modern Cultures?», Philosophical Transactions of the Royal
Society B: Biological Sciences, 366: 1567, 2011, pp. 1060–1069; Renfrew, Colin, et al., (2008); Green,
Richard E, et al. (2010); Klein, Richard G., et al., «The Ysterfontein 1 Middle Stone Age Site, South Africa,
and Early Human Exploitation of Coastal Resources», Proceedings of the National Academy of Sciences of
the United States of America 101: 16, 2004, pp. 5708–5715; McBrearty, Sally y Brooks, Alison S., «The
Revolution That Wasn’t: A New Interpretation of the Origin of Modern Human Behavior», Journal of
Human Evolution, 39: 5, 2000, pp. 453–563; Tuttle (2014).
[61] El fósil consiste en tres piezas dentales que según McBrearty son similares a los incisivos del
chimpancé y poseen, como en los chimpancés, una capa fina de esmalte dental.
[62]McBrearty, Sally y Jablonski, Nina G., «First Fossil Chimpanzee», Nature, 437: 7055, 2005, pp.
105–108.
[63] Véase página 310 y siguientes para los factores planetarios que influyen el clima.
[64]Maslin, Mark, et al., «A Changing Climate for Human Evolution», Geotimes, septiembre de 2005,
http://www.geotimes.org/sept05/feature_humanclimateevolution.html, consultado el 17 de junio de 2014.
[65] Véase el Glosario para la definición de «emergencia» y sus tres tipos principales.
[66]www.smithsonianmag.com/arts-culture/Q-and-A-Rick-Potts.html, consultado el 31 de enero de
2012.
CAPÍTULO 27. LA EVOLUCIÓN HUMANA 1: El
PENSAMIENTO PRIMITIVO

Por encima y fuera de la biosfera está la noosfera […] con la hominización, a pesar de la
insignificancia del salto anatómico, tenemos el inicio de una nueva era.

PIERRE TEILHARD DE CHARDIN, 1955

Empezaré considerando cómo evolucionaron los humanos, sugeriré que es un


proceso que puede dividirse en tres fases que se solapan entre sí y examinaré con
más detalle la primera de estas fases.

¿Cómo evolucionaron los humanos?

Físicamente

La evidencia fósil sugiere que, con la excepción de una reducción pequeña y


gradual del tamaño del cráneo y del esqueleto, los humanos dejaron de
evolucionar morfológicamente hace como mínimo 10.000 años, es decir, desde
el momento en que empezaron a todos los continentes del planeta.
Los antropólogos físicos solían dividir la especie humana en tres amplias
variaciones o razas surgidas a partir de la adaptación climática: caucásica,
mongoloide y negroide. La clasificación de las distintas poblaciones en estos
grupos raciales siempre fue polémica debido a la falta de acuerdo en la
definición de las distintas características raciales y sus causas, mientras que, por
otro lado, la hibridación resultante de invasiones y migraciones ha empañado
siempre las diferencias entre poblaciones. Los cruces entre grupos raciales han
aumentado de manera significativa en los últimos cincuenta años por motivos
que discutiremos en la siguiente sección, acelerando la tendencia hacia una
menor diferenciación física en la especie humana.
Pero a pesar de que se están produciendo ciertos cambios físicos reversibles
—principalmente una reducción de tamaño consecuencia de la malnutrición en
aquellos territorios afectados por hambrunas, o la obesidad resultado del exceso
de comida y la falta de ejercicio físico en algunos países ricos—, podemos
afirmar que, en términos generales, los humanos no están evolucionando
físicamente.

Genéticamente

En un estudio publicado en 2007, el antropólogo John Hawks y sus colegas


de la Universidad de Wisconsin, Madison, declararon que la selección natural de
variantes genéticas adaptativamente favorables ha producido una evolución
genética extraordinariamente veloz de la especie humana.[1] Su modelo de datos
muestra el incremento de las variantes genéticas, o mutaciones, desde hace
40.000 años. Como neodarwinistas que son, atribuyen el fenómeno a la
propagación de determinadas variantes que permiten a las poblaciones adaptarse
con éxito a entornos distintos, como, por ejemplo, las variantes genéticas que
codifican para la producción de la melanina, el pigmento que oscurece la piel y
protege contra la radiación ultravioleta nociva del sol, en aquellas poblaciones
más próximas al ecuador.
Sin embargo, su modelo muestra también que las variantes genéticas
alcanzaron su momento cumbre entre 8.000 y 5.000 años atrás, periodo en el
cual las poblaciones humanas iniciaron una expansión masiva, y han caído a
cero en la actualidad. Hawks y sus colegas atribuyen esta caída a la
imposibilidad de detectar variantes adaptativas que «deberían existir […] y que
se producen a un rito cada vez más veloz [la cursiva es mía]».
Pero incluso según los criterios neodarwinistas, existen buenas razones para
poner en duda su extrapolación de una tendencia del pasado y sus conclusiones
de que el cambio genético va en rápido aumento en la especie humana.
Una de estas razones es que la variación genética de entre el 0,1 y el 0,5 por
ciento que se estima en la actualidad para la especie humana es baja en
comparación con la de muchas otras especies, desde la mosca de la fruta hasta el
chimpancé.[2]
Otra razón, según Steve Jones, genetista de la UCL, es que la selección
natural requiere (a) variaciones genéticas generadas aleatoriamente por mutación
y (b) que los humanos sobrevivan el tiempo necesario para reproducirse y
transmitir aquellas variaciones genéticas que han beneficiado su supervivencia.
Sostiene que en el Londres de 1850, solo la mitad de los recién nacidos
alcanzaba la pubertad, mientras que esta cifra se sitúa en la actualidad en el 99
por ciento. Por lo tanto, las personas con un conjunto genético ventajoso ya no
sobreviven más tiempo que aquellas que poseen un conjunto genético menos
ventajoso. Por lo tanto, argumenta Jones, al menos en el mundo desarrollado, la
naturaleza ha perdido su poder de selección y la evolución humana ha
terminado.[3] Más concretamente, esto significa que en el acervo génico de la
población de Londres (y por extensión, en los acervos génicos del resto del
mundo desarrollado) no se ha producido ningún cambio como resultado de la
acumulación diferencial de genes ventajosos registrados por selección natural.
Las principales causas de mortalidad infantil en el Londres del siglo XIX eran
la desnutrición y las enfermedades. Su eliminación fue debida a facultades
transformadas o generadas por la consciencia reflexiva. La comprensión
humana, la creatividad, la inventiva y la comunicación han producido métodos
más efectivos de producción y distribución de alimentos; han producido
asimismo la intervención médica para prevenir y curar lo que antiguamente eran
enfermedades mortales para aquellos que carecían de inmunidad genética
natural.
Además, estas facultades, combinadas con la intención, impiden que las
variaciones genéticas se propaguen cuando los humanos, exclusivamente,
mantienen relaciones sexuales pero eligen utilizar métodos de control de
natalidad que impiden la transmisión de sus genes.
Y, a diferencia de lo que sucede con otras especies, los humanos no han
quedado genéticamente aislados en distintos hábitats. Los últimos cincuenta
años, en particular, han sido testigos de un incremento de la expansión y la
mezcla de los acervos génicos de la población humana debido a dos principales
factores. En primer lugar, el razonamiento humano y la educación están
provocando el desmantelamiento de las barreras sociales que impiden el
emparejamiento de personas de distinta raza o clase social. Muchas de estas
barreras estaban reforzadas por la legislación, como en el caso de las leyes de
segregación de los estados sureños de los Estados Unidos hasta los años 60 y las
leyes del apartheid en Sudáfrica hasta los años 90. El proceso de
desmantelamiento de estas barreras no ha terminado, ni mucho menos: el sistema
de castas lleva más de 4.000 años arraigado en la India rural y Pakistán y tiene
una gran influencia en la separación de clases, mientas que los israelíes se aíslan
de otras razas semitas como consecuencia de las políticas de su gobierno. Pero la
tendencia general es hacia una integración cada vez mayor de grupos que antes
estaban separados racial o socialmente.
En segundo lugar, antiguamente la gente solo contraía matrimonio en el seno
de su familia, posteriormente en el entorno de su pueblo y luego en el ámbito de
su ciudad. Esto era aplicable incluso en los países más avanzados
industrialmente hasta que en los años 50 se inventaron los sistemas de transporte
masificados y baratos, como los vuelos comerciales. Como consecuencia de ello,
y en paralelo con la globalización del comercio, la industria y la educación
superior, las migraciones, tanto temporales como permanentes, han ido en
aumento y, con ello, las relaciones y los matrimonios entre personas de regiones
y países distintos.
El resultado de la suma de ambos factores es, en términos neodarwinistas,
una tendencia hacia la combinación y la expansión de los acervos génicos que
mantiene al Homo sapiens como una especie única. Y a pesar de que los cambios
genéticos menores resultado de mutaciones son inevitables (con efectos neutros
o nocivos), el cambio genético irreversible dentro de poblaciones humanas
geográfica o socialmente aisladas para dar lugar a nuevas especies no se está
produciendo.
Pero que los humanos dejaran de evolucionar genéticamente hace alrededor
de 5.000 años no significa que no estén evolucionando en otros sentidos.

Noéticamente
El ritmo de cambio de la conducta humana, sobre todo en el aspecto social e
innovador, desde que la consciencia reflexiva señaló la emergencia de los
humanos en el Paleolítico superior hace entre 40.000 y 10.000 años (de aquí en
adelante hablaremos de hace 25.000 años) nos cuenta cómo evolucionaron los
humanos y siguen aún evolucionando. Pero lo que detectamos no es ni físico ni
genético, sino noético: la evolución de la consciencia reflexiva.
Esta evolución puede agruparse en tres fases que se solapan entre sí:
pensamiento primitivo, pensamiento filosófico y pensamiento científico.

La evolución del pensamiento primitivo

Definiré el término como sigue:

Pensamiento primitivo: la primera fase de la consciencia reflexiva en la


que la reflexión sobre el individuo y su relación con el resto del universo
se centra principalmente en la supervivencia y la superstición.

Esta fase constituyó el único tipo de pensamiento reflexivo durante


aproximadamente el 90 por ciento de la existencia humana moderna. Y dio como
resultado seis cosas que tuvieron importantes consecuencias para la evolución
humana:

1. La transición del humano que se adapta a su entorno al humano que adapta


el entorno a sus necesidades;
2. La transición de la vida de cazador-recolector a la vida en comunidades
asentadas;
3. La invención y la propagación de tecnologías que impulsaron el
crecimiento desde poblados agrícolas hasta ciudades-estado, y
posteriormente imperios, todos ellos con una jerarquía social basada en
funciones especializadas;
4. La invención y el desarrollo de la escritura;
5. Las bases de la astronomía y las matemáticas;
6. El desarrollo de sistemas de creencias y religiones.

Las evidencias se presentan en tres sentidos: los restos de los primeros


humanos y de sus artefactos; los grupos actuales de cazadores-recolectores,
pastores y agricultores con economía de subsistencia; y los relatos escritos de
historias orales prehistóricas y de sucesos y creencias contemporáneos.
Las reservas con relación a los dos primeros tipos de evidencias han quedado
detalladas en el capítulo 26. También hay que tratar con cautela los relatos
escritos. Rara vez fueron concebidos con fines históricos. Su objetivo solía ser
político o religioso: convencer a la población de que aceptara las órdenes de un
gobernador dinástico ensalzando tanto sus hazañas como las de sus antepasados
por el bien de la población, o inculcar y propagar la creencia en un dios o dioses.
En algunos casos, cuando los gobernadores estaban deificados, como en el caso
de los reyes egipcios, ambos objetivos se combinan.
Los relatos orales transmitidos de generación en generación eran propensos
tanto al embellecimiento como, a medida que se repetían, a la asimilación de
otros mitos. Así, muchos guerreros acabaron convertidos en héroes engendrados
por dioses, como el griego Heracles (adoptado por los romanos con el nombre de
Hércules), o transformados en la encarnación de un dios, como sucedió con
Krishna cuando su historia quedó plasmada por escrito en el poema épico indio
del Mahabbharata, redactado al menos 900 años después de su nacimiento.
Teniendo en cuenta estas reservas con respecto a las evidencias, intentaré
demostrar de qué modo la evolución del pensamiento primitivo generó las seis
consecuencias antes mencionadas.

De las bandas nómadas de cazadores-recolectores hasta las comunidades


agrícolas asentadas

La emergencia de la consciencia reflexiva no transformó a los humanos de


repente. Al contrario, los primeros destellos de consciencia reflexiva tuvieron
que combatir contra potentes instintos que llevaban millones de años enraizados
en los ancestros pre-humanos.
Las investigaciones llevadas a cabo durante los últimos veinte años han
disipado los conceptos románticos de grupos de cazadores-recolectores que
vivían en paz y armonía con la naturaleza y que solo fueron provocados para
adoptar una actitud violenta después de ser perseguidos por occidentales
supuestamente civilizados (algo que, efectivamente, sucedió).
En su libro War Before Civilisation: The Myth of the Peaceful Savage[4]
[Guerra antes de la civilización: el mito del salvaje pacífico], el
paleoantropólogo de la Universidad de Illinois, Lawrence Keeley, recopila
evidencias de restos prehistóricos y pueblos tribales modernos para demostrar
que las muertes como consecuencia de asaltos y masacres en tiempos
prehistóricos eran mucho más frecuentes y proporcionalmente se producían en
una escala inmensamente mayor que las muertes por guerras libradas por los
países modernos. Entre muchos ejemplos, los estudios etnográficos realizados
sobre pueblos tribales del interior de Nueva Guinea, los yanomana de la selva
venezolana y los murngin de Australia, muestran que alrededor del 25 por ciento
de la población masculina adulta murió como consecuencia de guerras. Un siglo
y medio antes de la llegada de los europeos a Dakota del Sur, una fosa común
próxima a un poblado incendiado de Crow Creek, reveló la presencia de restos
de más de quinientos hombres, mujeres y niños —un 60 por ciento del poblado
— que murieron después de que les arrancaran la cabellera y fueran mutilados;
entre los esqueletos había una escasa presencia de mujeres jóvenes, lo que
sugiere que debieron de ser hechas prisioneras. La mitad de las personas
enterradas en un cementerio nubio de 12.000 años de antigüedad había perecido
de muerte violenta.
Descubrimientos similares aparecen mencionados en Constant Battles[5]
[Batallas constantes], escrito por el arqueólogo de Harvard, Steven LeBlanc, que
reconoce que durante veinticinco años sus colegas y él ignoraron de forma
rutinaria las evidencias de guerras. En su libro habla sobre yacimientos de
cazadores-recolectores que muestran evidencias de muertes violentas, artefactos
especializados para la guerra, recogida de trofeos (muy en especial cabezas) e
imaginería relacionada con la guerra en el arte rupestre.
El homicidio no se limita a los miembros de bandas de cazadores-
recolectores. Desde finales de los 70, las antropólogas de la Arizona State
University, Kim Hill y Magdalena Hurtado, estudiaron a los achés de la selva
amazónica, bandas que llevaban un estilo de vida similar al de la Edad de Piedra.
El 36 por ciento de los fallecimientos de varones adultos era consecuencia de
guerras. Sin embargo, Hill y Hurtado descubrieron que la muerte en manos de
otros achés representaban el 22 por ciento de todos los fallecimientos en una
muestra de 843 individuos, e incluían infanticidio, gerontocidio y luchas entre
bandas. El infanticidio, en especial el de los huérfanos, y el asesinato de
ancianos y enfermos, eran prácticas comunes, hasta el punto de que los
achelenses enterraban a menudo vivos a esos miembros de sus bandas antes de
proseguir su andadura. Era algo aceptado en su cultura. La vida de los
cazadores-recolectores es dura; padecen hambre la mayor parte del tiempo y es
imposible sustentar a los que no pueden contribuir en su búsqueda continua de
alimento.[6]
Las evidencias del pensamiento de los cazadores-recolectores prehistóricos
son escasas y están además abiertas a distintas interpretaciones; las deducciones
no son más que conjeturas. En tales circunstancias, un experimento mental
podría esclarecer algo las conjeturas. Lo que sigue en cursiva es un experimento
mental interpolado con las evidencias disponibles.

Imagínese que no conoce usted absolutamente nada sobre las enfermedades


microbianas, la meteorología, la astronomía y sobre ningún tipo de ciencia. De
hecho, hace 25.000 años el hombre solamente conocía aquello que veía, oía,
tocaba, olía o saboreaba en el territorio donde su familia extendida buscaba
plantas y frutos comestibles e intentaba matar animales para consumir su carne.
¿Qué le pasaría a usted por la cabeza si uno de sus hijos contrajera fiebres, se
debilitara y muriese? ¿Qué pensaría sobre las sequías cuando las plantas se
marchitaran antes incluso de madurar? ¿Qué pensaría del estruendo del trueno,
del destello de luz de un rayo, de la lluvia torrencial o de una tormenta de
nieve?
Imagínese que varias generaciones después, se da cuenta de que algunos de
esos fenómenos siguen un patrón cíclico. Que el día sigue la noche con una
secuencia predictiva y que esa secuencia es lo que proporciona el ritmo básico
de la vida. El día es el periodo durante el cual un disco amarillo cruza un cielo
azul y proporciona calor y luz para cazar y buscar alimento hasta que se hunde
por el horizonte. La noche es el periodo durante el cual el cielo está negro y un
disco blanco, de tamaño semejante al amarillo, cruza el cielo durante un tiempo
aproximadamente similar. No da calor y apenas da luz; es la hora de dormir. A
diferencia del disco amarillo, el disco blanco mengua cada día un poco hasta
que se convierte en una fina tajada y luego desaparece hasta que vuelve a
aparecer y crecer y se convierte de nuevo en un disco completo, antes de
empezar otra vez el ciclo. Muchas generaciones más tarde, se da cuenta de que
el número de días entre cada luna llena es igual al del ciclo menstrual que se
asocia con la fertilidad de las mujeres. De ahí que la luna, razona, debe de estar
relacionada con la fertilidad.
Como veremos más adelante, la luna fue un símbolo de fertilidad para
muchas sociedades humanas primitivas.
Su supervivencia depende de la fertilidad de las mujeres, que deberán
producir hijos sanos que sustituyan a los que mueran de pequeños, que mueran
en batalla defendiendo tanto el alimento como las mujeres, o que abandonen la
banda. Alrededor de la hoguera, usted o sus mujeres crearán un símbolo de lo
que desean tallando una pequeña pieza de marfil de mamut que muestra la vulva
que usted penetra para plantar su semilla y de la que emerge una criatura, junto
con unos pechos voluminosos para criar a esa criatura. Guardada en una bolsa
o colgada del cuello de las mujeres mediante una tira de piel, esa figurilla
traerá buena suerte y ayudará a producir bebés sanos.
Estas figurillas, que aparecen ya 35.000 años atrás, aparecen descritas en el
capítulo 26.[7]
Comprende que lo contrario a la vida es la muerte. Y reflexiona también
sobre ello. Sabe que usted, como todos los demás, acabará muriendo. Bien en
batalla, bien como resultado de las heridas sufridas en batalla, o de inanición si
no consigue encontrar comida, como consecuencia de fiebres que le impedirán
comer, o, de un modo excepcional, después de vivir mucho tiempo y encogerse
en estatura y perder fuerza. Pero la muerte es un hecho seguro. Que suscita,
además, una pregunta tremendamente turbadora: ¿qué me pasará cuando me
muera?
Reconoce que lo que distingue los vivos de los muertos es que los vivos
respiran y los muertos no; sus cuerpos se descomponen.
La idea de que la respiración es la fuerza que anima el cuerpo o su espíritu
aparece prácticamente en todos los primeros lenguajes escritos.[8]
Afronta el conocimiento de la muerte, que resulta psicológicamente
traumatizante, llegando a la conclusión de que la respiración o fuerza vital va a
parar a alguna parte una vez abandona el cuerpo para que se descomponga. En
su memoria, y también en los sueños que tiene mientras duerme —el estado
entre estar muerto y estar vivo—, ve cosas y gente, incluso a sus padres ya
muertos. La fuerza vital, o espíritu, de sus padres vive en otro mundo, en un
mundo de espíritus o de sueños.
Reflexiones similares lo llevan a la conclusión de que todos los seres vivos —
como los animales que caza o que le cazan, las plantas y los frutos que come, los
árboles cuyas ramas utiliza para construirse refugios, e incluso las montañas de
las que fluye el agua que le da vida— poseen una fuerza vital o espíritu.
Este tipo de pensamiento es el animismo, cuyas creencias persisten en la
actualidad en muchas formas, como el sintoísmo y las tradiciones de muchas
tribus nativas norteamericanas como los lacota siux o el Sueño de los aborígenes
australianos.
Como usted no conoce nada más, este mundo de espíritus se extiende
solamente hasta los confines del territorio y el cielo que alcanza a ver. Usted y
su familia experimentan una identidad con un espíritu concreto de su hábitat,
del que depende su supervivencia. Si su territorio se encuentra en la Europa del
periodo entre glaciaciones, necesitará tener la capacidad de cazar y matar de
un león, al que admira y teme, o del jaguar, si se encuentra en América Central.
O tal vez de una presa concreta, como la manada de bisontes que suele cruzar
su territorio cuando migra. O de una planta comestible concreta, como el trigo
salvaje, que siempre madura. Ese espíritu es sagrado y su grupo impondrá un
tabú sobre cómo hay que tratarlo. Lo representará adornándose con la cabeza
del animal, las hojas de la planta o tallando una imagen del mismo.
Estas creencias y costumbres, que refuerzan la solidaridad del grupo,
constituyen el totemismo, que siguen practicando hoy en día con diversos
formatos algunos pueblos tribales de África, Australia, Indonesia, Melanesia y
América Central y del Sur.
Un miembro de su grupo se convierte en un experto en la inducción de
estados de sueño, o trance —lo que hoy conocemos como un estado de
consciencia alterada—, mediante largas sesiones de baile o tamborileo
repetitivo, ayuno o ingesta de plantas alucinógenas o de sus extractos. Le parece
a usted que su espíritu abandona su cuerpo para entrar en el mundo de los
espíritus, donde busca la ayuda de los espíritus más poderosos para expulsar los
espíritus malignos cuando entran en su cuerpo y le provocan fiebres y debilidad;
reclama la presencia de su auténtico espíritu para estar fuerte de nuevo. O
invoca el espíritu del cielo para que llueva. O pregunta a sus antepasados qué
sucederá en el futuro. Usted respeta mucho a este miembro porque es una
persona sabia, o chamán.
El chamanismo, en sus diversas formas, sigue practicándose en la actualidad
en pueblos tribales, desde Siberia hasta las regiones árticas (como los evenki, por
ejemplo), pasando por América, donde los chamanes se conocen como médicos
y África, donde se les conoce como doctores brujos.
Aprende a fabricar y utilizar pigmentos para dibujar sobre los muros de
piedra representaciones de las cosas que piensa e imagina, y desarrolla una
habilidad cada vez mayor para expresar sus ideas y sus sentimientos en forma
de sonidos y transmitirlos con este método a los demás miembros del grupo. El
pensamiento, el lenguaje hablado y el arte evolucionan sinérgicamente y le
permiten compartir sus experiencias, su imaginación y sus pensamientos no solo
con sus contemporáneos, sino también con las futuras generaciones.
En el clima fluctuante del Pleistoceno, vive un huracán que asola su
territorio, pero gracias a las historias que se han ido transmitiendo de
generación en generación, sabe que ha habido tiempos en los que el cielo no ha
enviado lluvia y el sol ha quemado y marchitado las plantas. Los espíritus están
enojados y, si quiere sobrevivir, sabe que hay que aplacarlos con ofrendas. Están
evolucionando hacia dioses. El chamán intercede con ellos en nombre del grupo.
Está evolucionando hacia sacerdote.
Generaciones más tarde, con su territorio seco por la falta de lluvia,
comprende que si quiere tener alguna oportunidad de supervivencia, tendrá que
marcharse con su grupo en busca de terrenos más fértiles, lugares que
descubrirá a partir de un manantial o en el valle de un gran río. Aquí, no solo
puede capturar peces, sino que además empieza a reconocer patrones más
cíclicos en la naturaleza. El trigo salvaje arroja semillas cuando el día y la
noche tienen más o menos la misma duración. La próxima vez que esto sucede,
observa que las lluvias han nutrido las plantas, que el sol las ha calentado y
concluye que por eso han crecido y madurado. Las plantas están listas para ser
recogidas y consumidas. Las crecidas del río se producen casi siempre en la
misma temporada del año, irrigan las tierras colindantes y dejan un fango muy
fértil. Hay años, sin embargo, en que las crecidas son enormes y destrozan las
cosechas.
Unos 15.000 años (o 600 generaciones) después de los primeros destellos de
consciencia reflexiva, llega a la conclusión de que, en vez de estar moviéndose
constantemente en busca de alimento, le resulta más efectivo recoger esas
semillas, plantarlas en el suelo más fértil que encuentre, cosecharlas cuando
maduren y almacenar la cosecha en los recipientes que habrá construido con el
fango del río y que habrá puesto a secar al sol. Utilizará también esa
creatividad y esa inventiva para fabricar ladrillos de adobe.
Río abajo y lejos de las montañas, donde las lluvias son mucho menos
copiosas, piensa que podrá aumentar la cosecha si excava canales y se sirve del
agua del río para irrigar la tierra seca antes de plantar las semillas. Además,
construye diques para proteger las plantas de las crecidas destructivas del río.
Las tareas de irrigación, plantación y cosecha exigen el trabajo de muchas
personas. Reflexiona y llega a la conclusión de que en vez de luchar por la
comida y obligar a los hombres derrotados a marcharse en busca de nuevos
territorios y nuevas mujeres, tal vez tendría sentido que la gran familia
permaneciese unida y cooperase en los momentos en que las tareas exigen un
trabajo intensivo, así como para construir habitáculos permanentes con los
ladrillos de adobe. El poblado crece. Posteriormente, cae en la cuenta que, en
vez de perseguir animales en migración y matar de vez en cuando alguno para
comer, sería más efectivo capturar unos cuantos, hacerlos criar y comérselos
cuando las crías ya estuvieran en condiciones de sustituir a los progenitores.
La comunidad agrícola gana en cohesión, no solo gracias a la cooperación,
sino también gracias a los rituales que llevan a cabo. En primavera, se invoca a
la diosa de la fertilidad para que las semillas recién plantadas den una cosecha
abundante, en otoño se celebra y se agradece la cosecha obtenida, y el solsticio
de invierno es el momento de convencer al dios sol de que no le abandone.
Esta transición hacia una comunidad asentada se produjo en distintos lugares
en distintos momentos y fue un reflejo de distintos entornos y climas. La
evidencian los restos de huesos, cosechas, utensilios, cerámica y edificios en lo
que se clasifica fase neolítica de estas distintas regiones. En algunos lugares, sin
embargo, nunca llegó a producirse. Survival International estima que en la
actualidad, 150 millones de cazadores-recolectores (un 2 por ciento de la
población mundial) viven en pequeños grupos repartidos en más de 60 países de
regiones como África ecuatorial y las selvas de América del Sur. De entre todos
ellos, se estima que existen unas 100 tribus con las que todavía no se ha entrado
en contacto, a pesar de haber sido divisadas de lejos o desde aviones.[9]

De los poblados agrícolas a las ciudades-estado y los imperios

Ahora que ya no padece hambre constantemente y no tiene que estar siempre


en movimiento, dispone de más tiempo para reflexionar e intercambiar ideas con
los demás miembros del poblado. Sus utensilios ya no se limitan a los que lleva
siempre encima, de modo que, en cooperación con los demás, inventa utensilios
más efectivos, como arados hechos con cornamentas que le ayudarán a plantar
las semillas, piedras de molino para moler el grano y recipientes de barro más
grandes con fines de almacenaje; dispone además de tiempo y posee la
creatividad necesaria para decorar sus utensilios con imágenes y símbolos.
Dichos utensilios, junto con sistemas de irrigación cada vez más completos, le
permitirán extender la superficie de tierra cultivable.
Venera a sus padres, y a los padres de sus padres, por haberle enseñado a
sobrevivir y por ello les hace ofrendas en sus tumbas; incluso coloca en un lugar
de honor esa parte de ellos desde donde partieron los espíritus, el cráneo.
En uno de los poblados de Jericó, datado alrededor de 6.500 a. C., se
descubrieron cráneos enyesados adornados con conchas de cauri para simular los
ojos, un hallazgo que ha sido interpretado como evidencia de veneración de los
antepasados, mientras que en las excavaciones realizadas en Catal Hoyuk,
Anatolia, un territorio que en la actualidad forma parte de Turquía, también se
han descubierto cráneos enyesados y pintados con ocre para recrear las caras. La
veneración del espíritu de los antepasados sigue vigente en muchas religiones
actuales, desde el sintoísmo en Japón y el hinduismo en India, hasta el
catolicismo en América Central, que asimila muchas tradiciones indígenas.
Se percata de que sus tierras de cultivo, aun ampliadas, carecen de algunos
recursos que otros poblados poseen y se le ocurre que sería beneficioso
intercambiar sus excedentes por esos otros recursos. Construye piraguas y
balsas, y posteriormente embarcaciones a vela para viajar por el río y
comerciar con otras comunidades. Con ello, no solo intercambiará materiales y
artefactos, sino también ideas.
Construye muros de piedra alrededor del poblado para protegerlo de los
grupos de pastores nómadas que intentan saquear sus almacenes y de otras
tribus que —por culpa de cultivos intensivos, sequias, actividad tectónica, o
cualquier otro desastre natural— se han visto forzadas a abandonar su
territorio e intentan invadir el de usted. Su poblado se ha convertido en una
ciudad amurallada.
Hasta ahora sus sacerdotes han utilizado la posición en el cielo del sol con
relación a una determinada montaña para poder predecir el momento más
propicio para realizar las ofrendas a los dioses en busca de la plantación y la
cosecha óptimas. Siguiendo sus instrucciones, les ayuda a construir montañas
de piedra —piedras únicas o menhires, o círculos de piedra— que les permitirán
realizar predicciones más precisas tanto en estos como en otros rituales
asociados con fenómenos celestiales.
La pericia cazadora del león, la velocidad del caballo o las habilidades de
cualquier otro animal o ave han dejado de impresionarle. Usted es la única
especie capaz de matar a distancia; ha domado al caballo para montarlo; ha
construido carruajes. Se imagina a los dioses como los seres más poderosos
imaginables: humanos con capacidades extraordinarias, como el hombre que
posee la pericia cazadora del león, el hombre que posee la velocidad del
caballo, el hombre que posee la vista del águila, la mujer que posee el poder de
fertilidad de la luna, la mujer que posee el poder de curación de la serpiente que
muda cada año su piel y se renueva con ello.
En una generación posterior, discernirá, o aprenderá de otros grupos, que si
encuentra unas piedrecillas de color dorado en el lecho de un río y las calienta
al fuego, forman un líquido que puede verter sobre un molde cerámico, donde se
solidificará en un metal brillante. Lo mismo sucede cuando calienta ciertas
piedras de colores. Estos metales —como el oro, el cobre y el estaño— no son lo
bastante duros como para fabricar con ellos utensilios útiles o herramientas,
pero pueden moldearse y labrarse para fabricar lujosas joyas y adornos.
Posteriormente, sus expertos artesanos descubren o aprenden de otros
pueblos que si mezclan algunos de estos metales líquidos, como el cobre y el
estaño, el resultado se solidifica en una aleación con propiedades superiores,
como el bronce, que es muy duro y puede trabajarse para obtener puntas y hojas
afiladas. La ciudad utiliza esta tecnología para producir armas y utensilios
agrícolas más efectivos.
Más adelante, los artesanos descubren o aprenden a construir un horno lo
bastante caliente como para, a partir de una piedra de color óxido, obtener un
metal plateado que, a base de golpes de martillo, pueden moldear y recalentar
para forjar utensilios y armas de hierro que poseen las propiedades del acero
actual.
La ciudad utiliza las nuevas tecnologías para ampliar la superficie de tierras
cultivadas. La población crece en consecuencia, aunque también se vuelve más
compleja. La inmensa mayoría se dedica a la agricultura y transmite a sus
descendientes sus conocimientos. Pero hay también artesanos y mercaderes que
transmiten sus conocimientos a sus descendientes, igual que hacen aquellos
expertos en el arte de la guerra para defender las tierras y conquistas otras
ciudades y hacerse tanto con sus recursos naturales, como con sus habitantes, a
quienes convierten en esclavos o sacrifican a los dioses. Y están también los
sacerdotes, que predicen los momentos más propicios para llevar a cabo los
sacrificios y obtener la ayuda de los dioses para sobrevivir y prosperar.
Los rituales no son suficientes para mantener unida a una población tan
grande como esta. Un gobernador sube al poder e impone leyes para impedir el
caos. Que su procedencia sea de la clase sacerdotal o de la clase guerra
depende de si la mayor amenaza para la supervivencia de la ciudad viene de las
fuerzas de la naturaleza que controlan los dioses o de otros pueblos.
Normalmente la amenaza son otros pueblos. Una vez en el poder, el gobernador,
igual que los miembros de las demás clases, entrena a sus hijos para que
dominen sus habilidades, y esta vez las habilidades giran en torno a cómo
ejercer el poder; suelen incluir la utilización de la fuerza bruta para acabar con
cualquier tipo de disidencia.
Las evidencias de este patrón evolutivo general, dentro del cual existen
variaciones de todo tipo, se localizan en seis regiones, que en la actualidad son
Próximo Oriente, Egipto, Europa, el subcontinente indio, China y América
Central. Las evidencias siguen descubriéndose continuamente y en un futuro se
incluirán, sin duda, otras regiones, como el África subsahariana.

Oriente Próximo

Los poblados agrícolas más antiguos descubiertos hasta la fecha son los
localizados en el Levante, es decir, la región que bordea el Mediterráneo oriental
y que comprende lo que hoy en día es Israel, los territorios palestinos, Jordania,
Líbano, Siria y el sur de Turquía.
Muy probablemente, se desarrollaron a partir de los pueblos seminómadas
natufienses de esa región. Desde aproximadamente 9000 a. C, los manantiales de
agua dulce de Jericó, que hoy forma parte de los territorios palestinos, convirtió
el lugar en una zona de acampada atractiva para los cazadores-recolectores
natufienses. Los restos arqueológicos y de todo tipo indican que el lugar acabó
transformándose en un asentamiento agrícola de carácter permanente con
viviendas circulares de unos 5 metros de diámetro construidas con ladrillos de
adobe y donde se practicaba el cultivo de cereales, como el trigo y la cebada, y la
crianza de ovejas y cabras.
Unos mil años más tarde, Jericó había crecido hasta convertirse en una
ciudad rodeada por una impresionante muralla de piedra coronada con una torre;
se estima que la población había pasado de 200-300 habitantes a 2.000-3.000.
No existen nuevas evidencias hasta finales del cuarto milenio a. C., cuando
Jericó volvió a convertirse en una ciudad amurallada; se sabe asimismo que las
murallas se reconstruyeron en numerosas ocasiones.
Hacia 1900 a. C., los cananeos desarrollaron una ciudad que fue destruida
entre 1550 y 1400 a. C.[10] Cuando el suceso quedó registrado varios siglos
después, los escribas hebreos responsabilizaron a su Dios del suceso. El Dios
hebreo había dado órdenes al rey israelita José para que sus guerreros marcharan
en círculo alrededor de las murallas y gritaran mientras siete sacerdotes hacían
sonar sus trompetas, después de lo cual las murallas se derrumbaron. José entró
en la ciudad y se hizo con todos los objetos de oro, plata, cobre y hierro mientras
sus guerreros masacraban a todo ser viviente —hombres, mujeres, niños y
animales— como ofrenda a su Dios todopoderoso.[11] Posteriormente, la ciudad
fue reconstruida en las cercanías.
Este patrón de conquista, destrucción y reconstrucción, normalmente con un
tipo de asentamiento más sofisticado, se repitió varias veces, aunque carecemos
de relatos escritos que achaquen de nuevo el suceso a la intervención divina.
Encontramos un patrón similar en Mesopotamia, el área comprendida entre
los ríos Tigris y Éufrates, que incluye gran parte del Irak moderno y limita al
norte con las montañas de Armenia (parte de la actual Turquía), al este con la
región montañosa del Kurdistán iraní, y al oeste con los desiertos de Siria y
Arabia Saudí. Era el Jardín del Edén bíblico. Sin embargo, las condiciones de la
zona no eran ni mucho menos idílicas. Una de las hipótesis, que tiene divididos a
los eruditos, es que un cambio climático global produjo una transformación que
redujo drásticamente las lluvias excepto en la zona más montañosa del nordeste,
[12] dejando el resto de la región sumida en veranos largos, secos y calurosos, y
sometida a las rápidas crecidas del Tigris, que provocaron inundaciones
destructivas y crearon una zona de marismas en el delta formado por la
confluencia del Tigris y el Éufrates en su desembocadura en el golfo Pérsico.
Los primeros asentamientos, como Jarmo, en el norte, datan probablemente
de alrededor de 7000 a. C. Evidencias no concluyentes sugieren que en las
llanuras aluviales del Éufrates, al sur de Mesopotamia, florecieron pequeños
poblados agrícolas hacia 5800 a. C.[13] Los pueblos del sur inventaron o
desarrollaron tecnologías, como diques y canales de irrigación, para ampliar la
superficie de sus tierras de cultivo. Los sumerios inventaron el torno de alfarero,
lo que les permitió una producción más efectiva de recipientes cerámicos con
fines de almacenaje, y posteriormente los vehículos con ruedas. En el sur había
una importante carencia de determinados recursos naturales, como árboles que
produjeran madera adecuada para construcciones grandes, menas de metal y
piedra, razón por la cual los sumerios tuvieron que recurrir a saquear otras áreas
y a desarrollar el comercio para obtener tanto estos materiales como los
productos producidos a partir de ellos.
Las nuevas tecnologías y el comercio impulsaron el crecimiento de los
asentamientos entre 4000 y 3000 a. C., transformándolos en ciudades
socialmente estratificadas y posteriormente en ciudades-estado, como Uruk y Ur,
centradas en un templo dedicado a un dios o diosa patrón que protegía la ciudad.
Al principio, las ciudades estaban gobernadas como una teocracia, liderada por
un sumo sacerdote o sacerdotisa, en, y con un líder laico, lu-gal (hombre fuerte),
elegido por los ciudadanos para que gobernase durante un año. Las guerras entre
las pujantes ciudades llevó a que la mayor amenaza para su supervivencia fueran
los otros pueblos, no las fuerzas naturales, lo que dio como resultado un cambio
en el poder, que pasó mayoritariamente al lu-gal, que se estableció con poder
permanente, y posteriormente dinástico, momento en el cual el término lu-gal
pasó a significar «rey», el personaje que asumió también parte de las funciones
sacerdotales.[14]
Siguieron conquistas e integraciones de otros pueblos, lo que llevó a que los
gobernadores dinásticos extendieran su control a toda la región, creando
imperios que fueron sucediéndose en el tiempo, como el acadio, el babilónico y
el asirio, hasta que Mesopotamia acabó conquistada por Alejandro Magno en
332 a. C.

Egipto[15]

Los restos predinásticos son escasos, abiertos a interpretaciones de todo tipo


y de datación incierta, pero por lo que parece, los primeros asentamientos
neolíticos se desarrollaron en las fértiles llanuras aluviales del Nilo en lugares
como Merimde, en el delta occidental del Bajo Nilo, desde 4750 hasta 4250 a.
C., y en El-Badari y Asiut, en el sur, o Alto Nilo, entre 4400 y 4000 a. C., y su
existencia podría remontarse incluso a 5000 a. C. Los cementerios de la zona de
El-Badari muestran restos de trigo, cebada, lentejas y tubérculos, además de
vacas, perros y ovejas, junto con restos cerámicos.
La datación de los primeros restos del pueblo Naqada, situado río arriba, es
controvertida y oscila entre 4400 y 4000 a. C., y su cultura se extendió a lo largo
del Nilo hasta cerca de 3000 a. C. Durante este tiempo, establecieron comercio
con los pueblos nubios del sur, los oasis del desierto del oeste y los pueblos
mediterráneos del este. En Hieracómpolis, al sur de Tebas, las excavaciones han
revelado un patio de forma oval de 30 metros de longitud. Recorriendo uno de
sus lados se encuentra lo que parece un canal de desagüe lleno de huesos. En las
proximidades se ha localizado asimismo un cementerio con cuerpos mutilados,
algunos con la cabellera cortada y otros apaleados hasta la muerte.
Manetón de Sebenitos, greco-egipcio que escribió a principios del siglo III a.
C., afirma que el legendario rey Menes, del que no existen evidencias, unió los
reinos del Alto y el Bajo Nilo hacia 3100 a. C. Algunos arqueólogos piensan que
se trata de un rey llamado Narmer. Su punto de vista se basa en el
descubrimiento de una paleta de pizarra datada en el siglo XXXI a. C. La paleta
está grabada por uno de sus lados con la imagen de un rey sujetando por el pelo
a un hombre al que está a punto de golpear con una masa, mientras que el otro
lado muestra al rey en procesión ceremonial y diez cuerpos decapitados con las
cabezas junto a los pies. Entre otros grabados destacan las imágenes que
supuestamente se interpretan como los símbolos del Alto y el Bajo Egipto así
como jeroglíficos que se interpretan como el nombre de Narmer.
Las tumbas de los sucesores dinásticos de Narmer incluyen víctimas con los
dientes manchados con sangre seca o cuyas posiciones sugieren que fueron
enterrados vivos. Las tumbas de los reyes son cada vez más grandes y
majestuosas, hasta transformarse en impresionantes pirámides de piedra.
El reino unido se enriqueció comerciando con sus excedentes de cereales y
desarrollando un ejército poderoso para defender el territorio y subyugar a otros
territorios y naciones para formar un imperio. La ocupación de Nubia en el sur,
por ejemplo, le dio control sobre las ricas minas de oro de la región y el
monopolio del metal en el Mediterráneo oriental. Sus artesanos cubrieron con
oro monumentos como los obeliscos y crearon suntuosos objetos funerarios (el
sarcófago interior de oro de Tutankhamon pesaba más de 110 kilos).[16]
El territorio estaba gobernado por un rey de carácter dinástico, que
posteriormente se conocería como faraón, que era venerado como un dios por
estar considerado responsable de la crecida anual del Nilo de la que dependía
tanto la fertilidad de las cosechas como la riqueza de Egipto; acompañaba el
gobierno una clase administrativa, constituida en gran parte por sacerdotes. La
clase que seguía jerárquicamente a continuación estaba integrada por
comerciantes, artesanos e ingenieros, que eran los encargados de diseñar los
templos, cada vez más monumentales, y las tumbas piramidales. La inmensa
mayoría de la población, los campesinos, se situaba en un escalón inferior de la
jerarquía, que terminaba con los esclavos capturados de las naciones sometidas.
Si las impresionantes estructuras de piedra egipcias fueron construidas por gente
que cooperó voluntariamente a ello para honrar a sus dioses y sus reyes, o si lo
hicieron ciudadanos forzados y esclavos sigue siendo tema de debate.
El patrón a lo largo de 3.000 años y aproximadamente 30 dinastías muestra
una suerte fluctuante en la defensa y extensión del reino, luchas internas por el
poder, caídas del gobierno central para pasar a manos de líderes locales, batallas
entre esos líderes locales, reunificación con guerras, toma del poder por parte de
nuevos pueblos como los cananeos o los libios, o por invasores como los asirios
o los persas que acabaron convirtiéndose en faraones con carácter dinástico o en
faraones marioneta, hasta que Alejandro Magno conquistó Egipto. Después de la
muerte de Alejandro, uno de sus generales, Ptolomeo, un griego macedonio que
había sido nombrado gobernador de Egipto, se autoproclamó rey en 305 a. C. e
instituyó la que sería la última dinastía antes de que el territorio egipcio fuera
conquistado y anexionado a Roma en 30 a. C.

Europa

La cultura neolítica se extendió hacia el norte, hacia una Europa más fría y
más húmeda, donde las viviendas de adobe del Levante fueron sustituidas por
viviendas comunales de forma alargada, de tamaño más grande, junto con
túmulos, o montículos funerarios, construidos con tierra amontonada sobre
estructuras funerarias de madera.
Una característica destacada son los cuatro tipos de monumentos megalíticos
construidos con grandes piedras toscamente talladas: la sepultura de corredor, la
piedra aislada o menhir, la hilera de piedras y el círculo de piedras.
El monumento de este estilo más famoso es el de Stonehenge, en el sur de
Gran Bretaña, en cuyo desarrollo se distinguen tres fases: un foso circular
construido alrededor de 2950 a. C., una serie de estructuras de madera del
periodo comprendido entre 2900 y 2400 a. C., cuando el lugar fue utilizado
como cementerio crematorio, y una tercera fase, que va de 2550 a 1600 a. C.
durante la cual se erigieron círculos concéntricos de piedras, el más exterior de
los mismos conectado mediante dinteles de piedra, dispuestos alrededor de un
altar de piedra, y una larga avenida de acceso.[17]
Pero tal vez los vestigios más reveladores de la vida neolítica en las islas
británicas sea un yacimiento descubierto muy recientemente, en el Ness of
Brodgar, una zona de 2,5 hectáreas localizada en Orkney, un grupo de islas al
nordeste de Escocia, que pudo estar ocupada a partir de 3500 a. C. Se ha
excavado tan solo una décima parte del yacimiento, pero se han descubierto ya
viviendas de piedra con techo de pizarra con las paredes pintadas con pigmentos
de colores, y lo que Nick Card, el coordinador de las excavaciones, equipara con
un templo: un edificio de piedra de 25 metros de largo por 19 metros de ancho,
con muros de casi 5 metros de grosor, que debía dominar las cercanas Rocas de
Stenness y el círculo de piedra conocido como el Anillo de Brodgar. El
yacimiento está rodeado por un grueso muro de piedra y, por lo que parece,
estuvo habitado alrededor de 1.500 años.[18]
Anteriores también a Stonehenge son las numerosas sepulturas de corredor
de Irlanda.[19] Situadas en una colina dominando los fértiles terrenos agrícolas
del valle del río Boyne, a 50 kilómetros al norte de Dublín, la impresionante
sepultura de corredor de Newgrange esta datada en torno a 3200 a. C.
Profusamente decorada con símbolos grabados, sobre todo espirales, su
descubridor, Michael J. O’Kelly, del University College de Cork, estima que la
construcción se prolongó durante 30 años. Los restos humanos se incineraban,
pero Newgrange es una tumba para muy pocas personas, como sucede con las
pirámides reales de piedra que se construyeron 500 años más tarde en Egipto, y
tanto su orientación como su diseño sugieren que el lugar era un centro ritual.
Comentaré con más detalle estos aspectos en una sección posterior, cuando trate
del desarrollo de las creencias y las religiones.
La evidencia de aleación de metales en Europa se remonta a 3200 a. C., en la
isla mediterránea de Chipre, cuyos artesanos combinaban el cobre de las minas
de la isla con el escaso estaño importado de tierras lejanas para producir
artefactos de bronce. Los minoicos de Creta, llamados así por su legendario rey
Minos, controlaron gran parte del comercio del bronce y utilizaron los beneficios
obtenidos con ello para construir suntuosos palacios, como el de Knossos.

El subcontinente indio[20]

Recientes investigaciones han alterado las antiguas ideas y dataciones sobre


esta región, en gran parte procedentes de las estimaciones llevadas a cabo por el
alemán Max Muller en 1860 y de las interpretaciones de los restos realizadas por
los arqueólogos de la época colonial británica. A pesar de que las dataciones de
los restos del subcontinente indio siguen siendo polémicas, parece ser que los
residentes de las casas de adobe de Mehrgarh, en lo que en la actualidad es la
llanura del Kachi en Beluchistán, Pakistán, cultivaban trigo y cebada y criaban
ovejas, cabras y vacas desde 7000 a. C., existiendo evidencias de fundición de
cobre desde 5000 a. C. El área estuvo ocupada por asentamientos sucesivos hasta
alrededor de 2600 a. C.
Parece razonable suponer que fue la población Mehrgarh la que se extendió
hacia el sur, y posteriormente hacia el sudoeste y el nordeste siguiendo el cauce
de los ríos del valle del Indo, y la que dio origen a lo que se conoce como la
civilización del valle del Indo, que se desarrolló a partir de 3300 a. C. En su
momento cumbre, dicha civilización ocupaba un área de 1.250.000 kilómetros
cuadrados del actual Pakistán y el noroeste de India y estaba integrada por más
de mil asentamientos. Entre ellos destacaban las ciudades de Harappa y
Mohenjo-daro, que presentan evidencias de ciudadelas en lo alto de las
montañas, planificación urbanística sofisticada, sistemas de tuberías y
saneamiento, astilleros y graneros. Establecieron relaciones comerciales por
tierra y por mar con lugares tan remotos como Mesopotamia, Persia y Asia
Central.
Hasta el momento no se ha descifrado ningún escrito y no sabemos con
seguridad cómo estaban gobernadas estas ciudades. El poema épico sánscrito, el
Majabhárata («Gran historia de los bháratas», los legendarios primeros
pobladores de India), cuya última y ampliada versión fue compilada
probablemente entre 400 a. C. y 400 d. C., describe una batalla histórica entre
primos, apoyados por distintos reyes aliados, por el derecho de sucesión del
trono del kuru. La batalla debió de tener lugar en o cerca del valle del Indo, y la
supuesta fecha de la misma oscila entre 950 a. C. (la fecha que apuntan los
eruditos europeos) y 5561 a. C. (la que sugieren los eruditos indios).[21]
Aparte de un rey de carácter dinástico apoyado por sus hermanos príncipes,
el resto de la jerarquía social puede deducirse a partir del sistema de castas que
sobrevive aún hoy en día en muchas zonas rurales de India y Pakistán. El
sistema refleja una estratificación social basada en funciones similar a la de otras
civilizaciones antiguas examinadas hasta el momento, con una casta sacerdotal
(brahmanes), una casta guerrera (chatrias), una casta de comerciantes (vaisias),
una casta de campesinos (sudras) y, finalmente, los descastados o intocables.
Las ciudades y los pueblos quedaron abandonados hacia 1900 a. C. Entre las
posibles causas se especula con desastres naturales, como actividad tectónica, la
sequía de los ríos o alteraciones en su curso, la sobreexplotación agrícola, y
también la conquista y la destrucción. Lo más probable es que la población se
trasladara hacia el valle del Ganges, al este de la región.

China[22]

Las evidencias de asentamientos agrícolas primitivos es escasa, pero los


restos de cerámica y de tumbas sugieren que se desarrollaron entre 8000 y 2000
a. C. en las llanuras aluviales de los ríos Huang, o río Amarillo (norte de China),
y Yangtzé (China central).[23] Los restos de periodos posteriores insinúan que
esos pueblos cultivaban arroz y mijo, y domesticaban cerdos, pollos y búfalos de
agua.
Las obras en bronce datan probablemente de alrededor de 2000 a. C. y se
desarrollan hasta finales del periodo Han, o 221 a. C., dando como resultado
armas como cabezas de lanza u objetos rituales como trípodes y vasijas
decoradas con motivos como demonios, animales simbólicos o símbolos
abstractos.
Las primeras evidencias sólidas de gobierno las encontramos en Yin, cerca
de la moderna Anyang, en el norte de China, que fue capital a finales de la
dinastía Shang. Aparece un patrón que ya empieza a resultar conocido. La
dinastía Shang, integrada por 31 reyes, gobernó desde alrededor de 1600 a. C.
hasta 1046 a. C., un tiempo durante el cual trasladó su capital en nueve
ocasiones. Yin fue ocupada a partir del siglo XIII a. C. y ocupa un área de forma
ovalada de 9,75 por 3,75 kilómetros, que contiene un templo con restos de
sacrificios humanos, edificios residenciales, grupos de casas aristocráticas,
talleres y cementerios, con 11 tumbas reales que albergan en su interior cuerpos
de soldados y de caballos.
En 1046 a. C., Wu de Zhou, procedente del noroeste de China, conquistó el
reino Shang, que incorporó a su propio territorio, que tenía su centro en
Fenghao, cerca de la actual Xi’an, en el valle del río Wei. A la muerte de Wu,
pasó a ser regente su hermano menor, el duque de Zhou. Su figura fue
posteriormente elevada a la categoría de mito y, entre otras cosas, se le
consideraba autor de la formulación de la doctrina del mandato celestial, según
la cual el cielo bendice la autoridad de un gobernador de carácter dinástico
siempre que sea justo, pero nunca la del gobernador injusto. Fue considerado
como una legitimación del derrocamiento de los Shang, que afirmaban gobernar
por mandato divino.
La dinastía Zhou empleó un sistema feudal para administrar un imperio que
expandió hasta incorporar la mayor parte de la China actual. La dinastía vivió la
introducción de la metalurgia, los arados tirados por bueyes, la ballesta y el
caballo como medio de transporte.

América Central[24]

La datación de la América prehistórica también es problemática. Desde 1500


a. C., sino antes, los pueblos olmecas de las llanuras tropicales del sudeste de
México, empezando probablemente por el valle del río Coatzacoalcos, que
desemboca en el golfo de México, iniciaron los cultivos de maíz, judías,
calabazas y otras plantas. Las crecidas estacionales ofrecían allí un suelo fértil
que atrajo grandes poblaciones, lo que llevó al desarrollo de ciudades.
Entre los artefactos más característicos destacan cabezas gigantes esculpidas
a partir de bloques de basalto volcánico, que se supone que representan a los
gobernantes, y grabados que se interpretan como hombres-jaguar (humanos que
se transforman en jaguares), crías de hombre-jaguar sobre altares, lo que sugiere
algún tipo de sacrificio, además de representaciones de un juego de pelota e
imágenes de matanzas de carácter ritual, ejecutadas por los gobernantes, una
actividad presente también en civilizaciones centroamericanas posteriores. Esta
civilización se prolongó durante varios miles de años hasta desaparecer entre
400 y 350 a. C. La causa o causas de esta desaparición son especulativas y
similares a las que se sugieren para la civilización del valle del Indo.
Disponemos de más evidencias de la civilización maya, que se desarrolló en
lo que en la actualidad es Belice, Guatemala, el sudeste de México y la región
occidental de Honduras y El Salvador.
En su periodo clásico, que se prolonga desde 250 a. C. hasta 900 d. C., los
mayas construyeron centros ceremoniales que dieron origen a más de 40
ciudades que se tipifican por una plaza central dominada por un templo situado
en lo alto de una gran pirámide escalonada, junto con un palacio y una gran
cancha para jugar a la pelota; las ciudades se construyeron principalmente con
piedra caliza, extraída y trabajada con materiales de mayor dureza, como el sílex.
A pesar de los avances en astronomía y numerología (de los que se hablará más
adelante), no existen evidencias de que los mayas trabajaran los metales o
utilizaran la rueda, ni para la fabricación de objetos cerámicos ni para el
transporte, a pesar de que sí tenían «caminos blancos» (sacbeob, en la lengua
maya del Yucatán), unas pistas ligeramente elevadas sobre el nivel del suelo
construidas con piedras y materiales de desecho que cubrían con un estuco hecho
con cal y que al parecer se utilizarían con fines religiosos, militares y
comerciales. Gran parte de esta civilización acabó también desapareciendo,
dejando muchas ciudades abandonadas a la vegetación de la selva. Entre las
posibles causas destacan la sobreexplotación agrícola, las sequias, la conquista y
la destrucción por parte de otros pueblos o la interrupción de las rutas
comerciales como consecuencia de guerras.
Pero ciudades como Chichen Itza, Uxmal y Mayapan, en las selvas del norte
de la península del Yucatán, siguieron prosperando durante varios siglos,
probablemente después de haber sido fundadas o conquistadas por los toltecas
del norte. Las últimas construcciones de Chichen Itza ya no están decoradas con
motivos de serpientes, representando a Ixchel, la diosa maya de la fertilidad y la
medicina, sino con imágenes de una serpiente con plumas, que representa al
legendario dios-rey de los toltecas conocido por los mayas como Kukulcán y por
los aztecas como Quetzalcoatl. Las esculturas, los murales y los códices escritos
describen a guerreros que salen victoriosos de la batalla y representan a menudo
un expositor de cráneos, un elemento que suelen utilizar las culturas
mesoamericanas para exhibir la cabeza de los prisioneros de guerra u otras
víctimas de sacrificios. Describen una estratificación social similar a otras
culturas antiguas, con un rey de carácter hereditario, sacerdotes-astrónomos,
nobles, campesinos y esclavos.
El desarrollo de la escritura

El registro visible del lenguaje sobre materiales como la piedra, la arcilla o el


papel es exclusivo de la especie humana. Permite la transmisión de ideas a
grandes distancias de espacio y tiempo. Sin este avance, las sociedades
complejas y grandes no se habrían desarrollado jamás.
La disposición de letras o símbolos en grupos o secuencias para expresar
significados complejos previamente definidos y comprendidos evolucionó desde
las representaciones pictóricas a las representaciones simbólicas de las cosas. Se
desarrolló de manera independiente en al menos tres lugares distintos en
momentos distintos,[25] normalmente para anotar las cantidades de productos
agrícolas o artefactos comerciados o tomadas a modo de impuestos o tributos
para un gobernante, o para promulgar leyes, dejar constancia de historias de
veneración de dioses y gobernantes o anotar instrucciones para celebrar rituales.
Como se ha comentado en el capítulo 26, la mayoría de lingüistas considera
que el primer sistema de escritura fueron los pictogramas cuneiformes sumerios,
grabados en tablillas de arcilla a partir de 3000 a. C., y los jeroglíficos egipcios,
grabados en piedra a partir aproximadamente de la misma época. Es discutible si
la escritura egipcia se desarrolló de forma independiente o bajo la influencia de
la escritura sumeria.
Los escribas cretenses utilizaron una escritura jeroglífica indígena sobre
tablillas de arcilla a partir de 2200 a. C. Entre 1900-1800 a. C., esta escritura se
desarrolló en lo que se conoce como Lineal A, cuyo contenido sigue sin poder
descifrarse y que presumiblemente transcribía el lenguaje minoico. El Lineal B
aparece en el Peloponeso a partir de 1500 a. C., así como en los palacios
cretenses; se utilizó para escribir en griego micénico y es varios siglos anterior al
alfabeto griego clásico.
En Harappa, en el valle del Indo, se descubrieron inscripciones de tipo
jeroglífico en sellos rectangulares hechos con piedra blanca y también en
utensilios, tablillas, platos de cobre y cerámica; su datación se sitúa hacia 2500 a.
C., pero sigue sin descifrarse si se trata de una proto-escritura o de escritura. El
sanscrito, el idioma clásico de India, tiene sus raíces en el sanscrito védico,
idioma en el cual están escritos los himnos a los dioses más antiguos, pero los
eruditos occidentales e indios no se ponen de acuerdo en cuanto a si ese lenguaje
se desarrolló a partir de idiomas locales o fue importando a India por los arios
que invadieron el territorio procedentes de lo que ahora es Irán. De todos modos,
la hipótesis de la invasión aria tiene escasa base a nivel de evidencias, por lo que
el origen del sanscrito sigue sin estar claro.
En China, la escritura se inventó de forma independiente y las primeras
evidencias descubiertas hasta la fecha consisten en inscripciones en los lomos
del ganado y en caparazones de tortuga utilizados en rituales de adivinación y
que datan de 1250 a. C., cuando la dinastía Shang ostentaba el poder. La
escritura china que se desarrolló posteriormente no emplea un alfabeto con un
número limitado de caracteres, como los idiomas occidentales, sino que cada
carácter representa normalmente una silaba del chino hablado y puede ser tanto
una palabra como parte de una palabra de múltiples silabas, lo que da como
resultado más de 5.000 caracteres.
La escritura se desarrolló de forma independiente en América Central. Una
losa de piedra descubierta en el estado mexicano de Veracruz y datada hacia 900
a. C. ha sido declarada la muestra de escritura más antigua del continente por el
patrón secuencial de los 62 signos que tiene grabados. A pesar de que sigue
todavía sin descifrarse, ha sido atribuida a los olmecas.[26] El lenguaje escrito
antiguo mejor entendido de la región es el maya del periodo clásico (entre 200 y
900 d. C.), calificado a menudo de escritura jeroglífica. Se ha encontrado
grabado en madera y piedra, pintado en cerámica y muros y escrito en unos
pergaminos hechos con corteza de árbol que se conocen como códices. Estos
últimos fueron quemados, en su mayoría, por orden de Diego de Landa, el cura
franciscano responsable de convertir a los mayas al catolicismo, aunque algunos
ejemplares se salvaron. El más extenso es el Códice de Dresde, que recibe su
nombre por la biblioteca donde se conserva, datado hacia los siglos X I o XII de
nuestra era, que se considera una copia de un texto original escrito entre 300 y
400 años antes.[27]

Los cimientos de la astronomía y las matemáticas

Lo que en la actualidad consideramos las disciplinas científicas o


intelectuales de la astronomía y las matemáticas emergieron con fines prácticos y
sus orígenes están íntimamente ligados a las creencias de los primeros humanos.
Los monumentos megalíticos de Europa demuestran conocimientos de
astronomía. En 1963, el astrónomo Gerald Hawkins publicó un artículo en
Nature en el que utilizaba modelos de simulación por ordenador para mostrar los
fenómenos astronómicos vistos desde Stonehenge en 1500 a. C. para defender
que el monumento estaba orientado con 13 sucesos solares y 11 lunares y que su
diseño permitía la predicción de los eclipses lunares.[28] La última hipótesis,
defendida por el arqueólogo de la Universidad de Sheffield, Mike Parker
Pearson, es que Stonehenge fue más un lugar donde celebrar los rituales
relacionados con el solsticio de invierno que con el solsticio de verano, como
antiguamente se creía.
Lo que no deja lugar a duda es el diseño de la sepultura de corredor de
Newgrange, Irlanda, datada por radiocarbono en 3200 a. C. y, por lo tanto,
anterior a Stonehenge. El día del solsticio de invierno, poco después de que
amanezca, la luz del sol se filtra por una abertura en la roca situada justo por
encima de la puerta de la tumba y proyecta un haz finísimo a lo largo de los 18
metros de longitud del corredor hasta alcanzar la piedra hueca que ocupa el
centro de la cámara, donde se supone que se conservaban los restos incinerados.
Durante unos minutos, la proyección se amplía hasta crear un haz de luz de 17
centímetros de ancho que ilumina la totalidad de la piedra central, junto con las
intrincadas espirales y demás grabados que decoran la cámara, además de bañar
las cámaras laterales y el techo abovedado con un resplandor dorado, antes de
volver a estrecharse y dejar de nuevo la sepultura sumida en la oscuridad.[29]
Varios «círculos» megalíticos europeos, incluyendo el anillo interno de
monolitos de Stonehenge, tienen en realidad forma ovoide, lo que sugiere un
conocimiento práctico del teorema de Pitágoras.
Para contar cantidades grandes, los sumerios inventaron un sistema
sexagesimal, o de base 60, que utilizamos aún hoy en día para dividir el minuto
en 60 segundos, la hora en 60 minutos, el día en 24 horas, el círculo en 360
grados, el pie en 12 pulgadas, etc. Sus sucesores, los babilonios, adoptaron este
sistema y desarrollaron la aritmética, la algebra, la trigonometría y la geometría
con fines prácticos: comercio, topografía, diseño de edificios y división de
campos de cultivo. Miles de tablillas de arcilla del periodo babilónico antiguo
(2000-1600 a. c.) muestran el resultado de cálculos de ecuaciones lineales y de
segundo grado, así como de fórmulas geométricas; muestran también tablas de
multiplicar y tablas de potencias, raíces cuadradas y números recíprocos. Los
babilonios conocían probablemente el teorema que Occidente atribuye a
Pitágoras. La tablilla Plimpton 322, datada en 1700 a. C., más de mil años antes
de que naciera Pitágoras, lista los valores del cuadrado de la hipotenusa de un
triángulo rectángulo como la suma del cuadrado de los otros dos lados (a2 + b2
= c2).
A partir del siglo XII a. C., los babilonios empezaron a organizar sus
observaciones del firmamento y sus adivinaciones en una serie de tablillas
cuneiformes conocidas como el Enu-ma Anu Enlil, un nombre que hace
referencia al dios del cielo y rey de los dioses, Anu, y al dios del aire, Enlil.
Produjeron asimismo catálogos de estrellas, como el Mul Apin, que contiene
descripciones del sol, la luna, las constelaciones, las estrellas y los planetas
asociados a sus dioses. Su objetivo era astrológico: predecir fenómenos
celestiales, como los eclipses y el movimiento de los planetas por la esfera
celeste, que interpretaban como presagios que indicaban las intenciones de sus
dioses.
Estos catálogos de estrellas fueron posteriormente adoptados y ampliados por
los griegos y luego por los romanos, lo que legó a la astronomía moderna el
nombre de los planetas en honor a los dioses romano —Mercurio, Venus, Marte,
Júpiter, Saturno, Urano y Neptuno— y el nombre de las constelaciones con el
equivalente latino a su nombre babilónico, como Tauro (el toro) que marca el
equinoccio de primavera, Leo (el león) que marca el solsticio de verano,
Escorpio (el escorpión) que marca el equinoccio de otoño y Capricornio (la
cabra) que marca el solsticio de invierno.[30]
Las excavaciones de Harappa, Mohenjo-daro y otros yacimientos de la
civilización del valle del Indo (entre 3300 y 1700 a. C.), han revelado la
utilización de las matemáticas con fines prácticos y religiosos. Los harappanos,
por ejemplo, tenían un sistema de pesos y medidas basado en una serie decimal.
Los Sulbasutras, que contienen instrucciones para diseñar los altares de
fuego que más agradan a los dioses védicos de India, muestran cómo construir
un cuadrado cuya área sea equivalente a la de un rectángulo, lo que implica los
resultados del teorema de Pitágoras, cómo construir un cuadrado cuya área sea
equivalente a la de un círculo, lo que implica cálculos que dan un valor
aproximado a π (calculamos πr2 como el área de un círculo de radio r), y la
suma de proporciones que da un valor notablemente preciso de la raíz cuadrada
de 2.[31]
Muchos eruditos occidentales consideran que estos conocimientos tuvieron
su origen en Babilonia y llegaron desde allí a India mil años después. Sin
embargo, Subhash Kak, profesor Regents de Ciencias computacionales de la
Oklahoma State University, defiende que los estudios de arqueo-astronomía —el
análisis por ordenador de las posiciones de las constelaciones vistas desde
distintos lugares en distintos momentos del pasado— que correlacionan los
restos arqueológicos con los textos sanscritos, demuestran que los Sulbasutras
tienen la misma antigüedad que los cálculos babilónicos. De un modo similar,
sostiene que el Vedanga Jyotisa, un manual astronómico védico, está datado
alrededor de 1300 a. C.[32]
En Yin, en el norte de China, la que fuera la capital a finales de la dinastía
Shang, se ha encontrado una inscripción en un hueso oracular que relata un
eclipse lunar que tuvo lugar el quinceavo día de la doceava luna del año
veintinueve del reinado de Wu-ding, que se correspondería con el 23 de
noviembre de 1311 a. C.[33] Para cada dinastía, los astrólogos de la antigua
China preparaban calendarios detallando los fenómenos celestiales así como
indicando las fases de la luna y del año solar para planificar las temporadas
agrícolas y poder realizar augurios.
Durante lo que se conoce como periodo de los Reinos Combatientes (475-
221 a. C.), se llevaron a cabo observaciones astronómicas detalladas, entre las
que destacan los catálogos de estrellas atribuidos a los astrónomos/astrólogos Shi
Shen y Gan De. En su mayoría no han llegado hasta nosotros, pero el Gran
tratado sobre astrología de la era Kaiyuan de la dinastía Tang, compilado entre
714 y 724 d. C., incluye algunas copias. Las cartas astrales y los listados de
sucesos astronómicos como eclipses, cometas y novas se expanden desde el
periodo Han (206 a. C. – 220 d. C.) en adelante.[34]
La preocupación maya por la predicción de los ciclos naturales de los que
creían que dependía su supervivencia los llevó a calcular un año solar,
probablemente en Copán, entre 300 y 900 a. C., de 365,2420 días, una cifra más
exacta que la del calendario gregoriano utilizado actualmente en Occidente.
Utilizaban tres calendarios: uno civil, llamado Haab de 365 días, uno sagrado
llamado Tzolkin de 260 días (que es el periodo entre los dos momentos en que el
sol alcanza su cénit en Copán), y un tercer calendario más largo calculado como
el mínimo común múltiplo de los dos primeros (el mínimo común múltiplo de
365 y 260 da un número de días que equivale aproximadamente a 52 años).[35]
Los sacerdotes-astrónomos utilizaban estos calendarios para determinar el
momento propicio para actividades como la cosecha y la celebración de rituales.
Para realizar los cálculos y las predicciones a largo plazo, los mayas concibieron
un sofisticado sistema de numeración de base 20 (el europeo actual es un sistema
decimal, o de base 10) que emplea el concepto del cero, que ni los griegos ni los
romanos inventaron para sus sistemas de numeración.
Los códices que han llegado hasta nuestros días muestran que los mayas
tenían catálogos estelares y tablas que mostraban, entre otras cosas, la predicción
de eclipses, la aparición de Venus como el lucero del alba (un buen augurio para
emprender la guerra) y el movimiento retrógrado de Marte.[36]

El desarrollo de las creencias y las religiones

En el capítulo 2 he resumido los nueve temas principales que se evidencian


en los mitos de la creación de los distintos pueblos durante la fase de
pensamiento primitivo y he sugerido que en su mayoría se explican por una falta
de comprensión de los fenómenos naturales aunada con necesidades políticas y
culturales. Estas conclusiones se ven reforzadas por lo que sabemos acerca del
desarrollo de otras creencias y religiones que se produjeron en distintas regiones
y en distintos momentos durante esta fase.
Las creencias relacionadas con las pinturas rupestres y las figurillas
descubiertas en Europa y datadas hace alrededor de 35.000 años estaban
relacionados con el animismo, el chamanismo, el totemismo y la veneración de
los antepasados. Estas creencias evolucionaron a partir de que los humanos se
establecieron en asentamientos fijos. Cuando los poblados agrícolas se
transformaron en ciudades con jerarquías sociales y finalmente en imperios, los
espíritus evolucionaron hacia un panteón de dioses que reflejaba las necesidades
y la jerarquía de esas organizaciones: la diosa de la fertilidad fue perdiendo poco
a poco su posición dominante a favor de un dios masculino del cielo cuyo poder
para desatar rayos y truenos era un reflejo del poder del rey-guerrero que
defendía la ciudad y ampliaba las tierras de cultivo.
En Europa, a partir de 3200 a. C., el alineamiento de megalitos con
fenómenos celestes como los solsticios, junto con evidencias de cremaciones o
enterramientos rituales, elementos funerarios y muestras artísticas como las
espirales exquisitamente grabadas y elaboradas que cubren muchas sepulturas de
corredor, indican la creencia en una vida después de la muerte y en la existencia
de seres o dioses sobrenaturales. El diseño de la sepultura de corredor de
Newgrange, por ejemplo, sugiere la creencia en una comunión entre el espíritu
del gobernante incinerado y el dios sol. Estas creencias son explícitas en la
literatura funeraria del antiguo Egipto.
El primer ejemplo, conocido como los Textos de las Pirámides, está datado
entre 2400 y 2300 a. C. y fue grabado en las paredes de las pirámides y los
sarcófagos de los reyes de las primeras dinastías; los textos incluyen hechizos y
conjuros para garantizar el paso del rey al más allá, donde Ra, el dios del sol,
reina sobre los cielos y es referido a veces como el creador y padre de todas las
cosas.
Estos textos evolucionaron hacia lo que se conoce como los Textos de los
Sarcófagos, de la época del Imperio Medio (hacia 2000 a. C.), escritos tanto en
las sepulturas de los reyes como en las de individuos ricos, y posteriormente en
los textos escritos sobre papiro guardados en el interior del sarcófago de la
momia que encontramos en tiempos de la dinastía XVIII (1580-1350 a. C.), que
incorporan extractos de los Textos de las Pirámides y de los Sarcófagos y cuyo
conjunto se conoce como el Libro de los Muertos.
Amenhotep IV, que reinó aproximadamente entre 1370 y 1358 a. C., propuso
el monoteísmo a partir del quinto año de su reinado, momento en el cual rechazó
como superstición el panteón de dioses tradicionales basados en las fuerzas
naturales y representados como medio hombre, medio animal o pájaro. El dios
principal era entonces Amón-Ra, el dios local Amón de la capital del reino,
Tebas, que se había convertido en el rey de los dioses y estaba identificado con
el dios sol, Ra, después de que el gobernador de Tebas derrotara al último rey
hicso de Egipto y fundara la dinastía XVIII. Amenhotep IV declaró que solo
existía un dios, el dios sol, fuente suprema de luz y vida, que se representaría
únicamente como el disco solar, Atón, y que él era hijo de Atón, razón por la
cual sería conocido como Akenatón. Para superar la oposición de los ricos y
poderosos sacerdotes de Amón-Ra, Akenatón trasladó la capital desde Tebas a
una nueva localización a medio camino entre Tebas, en el Alto Nilo, y Menfis,
en el Bajo Nilo, donde construyó una nueva ciudad dedicada exclusivamente a
Atón.
Pero el monoteísmo no sobrevivió a su muerte, y tampoco la ciudad. Los
sacerdotes de Amón-Ra se vengaron declarando hereje a Akenatón e intentaron
eliminar cualquier rastro de su existencia. Los egipcios retomaron entonces el
panteón de dioses, en el que el dios protector de la ciudad de quien ocupaba el
trono pasaba a ocupar el puesto de dios del cielo.[37]
Un patrón similar se observa cuando una ciudad-estado conquista a otra y, a
partir de allí, desarrolla un imperio. Con frecuencia, los conquistadores asimilan
dioses del pueblo vencido pero elevan a su dios local a dios principal, al que
identifican con el dios del cielo que suele ser también el dios de la guerra. La
adoración al dios del cielo como principal protector y como dios supremo de los
demás dioses es común en muchas sociedades, con ejemplos como Indra en
India, Zeus en Grecia, Júpiter en Roma, Thor en Escandinavia, etc.
Los textos religiosos más antiguos del mundo son los Vedas de la India,
posiblemente compilados durante dos mil años a partir de 4000 a. C.[38] La
primera parte de los textos, conocida como karma-kanda, son himnos y
comentarios de rituales que describen los devas —dioses y diosas— como
poderes elementales, liderados por Indra, y entre los que destacan Agni, dios del
fuego, Usha, diosa del amanecer; Surya, dios del sol; y Soma, dios de la bebida
embriagadora (que probablemente tenía cualidades alucinógenas y bebían los
sacerdotes para tener visiones).[39] Diversas escuelas védicas actuales defienden
el significado oculto de los himnos y sostienen, por ejemplo, que Indra
representa los órganos humanos responsables del sentido y la acción. Son tesis
poco convincentes; no existen evidencias de que los himnos estuvieran
concebidos, o entendidos en su momento, como algo más de lo que son. No es el
caso de los Upanishads, visiones de los videntes que tradicionalmente van
anexos a los Vedas. Muchos son explícitamente alegóricos y los consideraré en
el siguiente capítulo.
En China, el 60 por ciento de los huesos oraculares recuperados datan de
tiempos del reinado de Wu-ding (aproximadamente 1250-1192 a. C.). El panteón
de Wu-ding estaba dominado por sus antepasados y algunas de sus consortes,
además de dioses relacionados con la naturaleza como el Río y la Montaña. El
dios más importante era Di (señor) que, como el rey, gobernaba por encima de
todo; podía determinar el resultado de una guerra, del tiempo, de la cosecha y el
destino de la capital. A pesar de que los príncipes tenían derecho a interpretar los
huesoso oraculares, solo el rey podía comunicar con Di.
El tamaño y la disposición de las tumbas reales, su riqueza mobiliaria, que
incluye indicios de numerosos sacrificios humanos, sugiere que el rey era el
punto de contacto entre los humanos y el mundo de los dioses, y que las tumbas
eran lugares de culto. John Lagerwey, de la Universidad de Hong Kong, y Marc
Kalinowsky, de la Ecole Pratique des Hautes Etudes de París, sostienen que el
culto a los antepasados reales, con todos sus mitos y rituales, se utilizaba para
legitimar el poder del rey y regular la conducta de las masas.[40]
Seguimos hoy en día viendo prácticas de este tipo. En 2012, los jefes
militares de la república comunista de Corea del Norte, dispusieron tres días de
rituales masivos para conmemorar el ascenso al poder de Kim Jong Un, el Gran
Sucesor, después de la muerte de su padre, Kim Jong Il, el Amado Líder, de
quien se decía que había nacido en una montaña sagrada. Él, a su vez, había
sucedido a su padre, Kim Il Sung, que había gobernado durante 46 años después
de ser nombrado primer ministro por la Unión Soviética y haberse hecho
posteriormente con el poder absoluto del país como Presidente Eterno y Gran
Líder. La sepultura con su cuerpo momificado ocupó un lugar de honor en uno
de esos rituales masivos.
El culto al antepasado persiste en la actualidad entre muchos mayas. Por lo
que a los antiguos mayas se refiere, sus creencias, deducidas a partir de los
edificios, los grabados, los libros y los códices que han llegado hasta nosotros,
además de los relatos de los conquistadores españoles, varían con el tiempo, el
lugar y los dialectos que dan nombres distintos a cosas similares. Indican que
todo fenómeno natural del que dependía su supervivencia tenía un espíritu que
evolucionó con el tiempo hacia dios o diosa y cuya importancia variaba según
cual fuera el entorno.
Después de que los conquistadores españoles los obligaran a aceptar el
catolicismo, muchos mayas identificaron a sus dioses como ángeles y santos
católicos, y las festividades católicas adoptan hoy en día un formato
indiscutiblemente maya. Tanto el día de Todos los Santos como en el aniversario
de la muerte de un antepasado, es costumbre dejar comida y bebida en un altar
de la casa dedicado a un santo católico, o en la tumba del antepasado, para el uso
y disfrute del espíritu del fallecido.[41]
Como se comentó en el capítulo 2, el monoteísmo reapareció cerca de 700
años después de que Akenatón realizara el primer intento, cuando José, rey de
Judá, quiso legitimar y santificar la unión de Judá con el reino derrotado de
Israel bajo su único y absoluto poder.[42]
Igual que sus contemporáneos, las distintas tribus hebreas veneraban a
muchos dioses, entre los que destacaban Asherah, Baal, Anath, El y Dagon. Su
Biblia fue escrita después de que la religión oficial se convirtiera en un
monoteísmo que era un reflejo de un gobernante patriarcal que defendía a su
pueblo pero que ejercía la venganza si alguien desobedecía sus leyes. Resulta
instructivo ver cómo se gestionan los demás dioses. En algunos libros, como el
Segundo Libro de los Reyes, Dios condena y castiga la adoración a otros dioses.
[43] En otros, Dios se muestra superior a los demás dioses, como en el Éxodo,
cuando Aarón y Moisés le piden al rey de Egipto que libere a su pueblo de la
esclavitud porque es lo que su Dios desea. Siguiendo las instrucciones de Dios,
Aarón arroja su vara al suelo y se transforma en una serpiente. Los magos del
rey arrojan a continuación sus varas al suelo y se transforman también en
serpientes. Pero la serpiente de Aarón devora a las demás, lo que demuestra que
su Dios es más poderoso. Después de que el rey se siga negando a liberar a los
israelitas, su Dios sigue ganando más concursos de magia contra los sacerdotes
egipcios, hasta hacer caer plagas sobre Egipto y provocar la muerte de todos sus
primogénitos.[44]
En algunos libros, otros dioses aparecen sometidos al único Dios. Ezequiel
tiene una visión en la que se ve envuelto en fuego como una pieza de bronce
refulgente y con cuatro caras: la de un león, un toro, un águila y un ser humano
(el león era el símbolo totémico del dios de la tribu de Judá, el toro el del dios de
las tribus del norte y el águila el de la tribu de Dan).[45]
Otros libros degradan a los dioses a la corte de ángeles celestiales que rodean
al Señor y lo alaban. Isaias los describe como criaturas de fuego con seis alas.
[46] Algunos ángeles tienen nombre y tienen asignadas tareas específicas, como
Gabriel, el mensajero que explica al profeta Daniel el significado de sus
visiones;[47] Miguel, el ángel de la guardia de Israel, que ayuda a otro ángel a
luchar contra el ángel de la guardia de Persia;[48] y Satanás, que cuestiona las
órdenes de Dios.[49]

Conclusiones

1. Durante la mayor parte del tiempo transcurrido desde que emergió del
hominino, hace aproximadamente 25.000 años, el humano moderno ha
vivido como cazador-recolector y ha vivido en pequeños grupos integrados
por la familia extendida en los que la competencia por la supervivencia
con otros grupos similares y con los depredadores dio como resultado una
tasa de mortalidad elevada.
2. Los primeros destellos de consciencia reflexiva evolucionaron muy
lentamente hasta hace aproximadamente 10.000 años, momento en el cual
los humanos inventaron la agricultura como un método de sustento más
efectivo que la caza y la recolección y comprendieron los beneficios de la
cooperación, lo que los llevó a establecerse en poblados agrícolas más
grandes. Este avance se produjo en distintos lugares y en distintos
momentos, y en algunos lugares no ha llegado a producirse nunca.
3. Con más oportunidades para reflexionar y transmitir ideas a través del
dibujo, el habla y la escritura, los humanos de estas comunidades agrícolas
cooperaron para inventar tecnologías que ayudaron a mejorar y ampliar el
tamaño de sus tierras de cultivo, y empezaron a cooperar con otros
asentamientos para comerciar tanto bienes como ideas, lo que permitió el
crecimiento de los poblados tanto en tamaño como en complejidad.
4. A pesar de que la cooperación había empezado a evolucionar, chocaba
constantemente con el instinto de competencia arraigado durante millones
de años de antepasados pre-humanos; como consecuencia de ello,
abundaron las luchas por el control de los poblados y sus recursos, tanto
dentro de los asentamientos como con otros poblados. El resultado fue la
centralización y la colaboración forzada.
5. A medida que los asentamientos crecieron, fueron desarrollando una
jerarquía social que reflejaba las distintas habilidades transmitidas de
padres a hijos: gobernantes, sacerdotes, guerreros, comerciantes y
artesanos, campesinos y esclavos. Los poblados dieron lugar a ciudades
gobernadas autocráticamente, luego a ciudades-estado y finalmente a
imperios, que vivieron épocas de esplendor y de caída. El patrón general
en todo el planeta fue de un incremento de tamaño, complejidad y
centralización de las sociedades humanas.
6. La evolución del pensamiento primitivo estuvo íntimamente relacionada
con la evolución de creencias supersticiosas surgidas de la imaginación,
combinadas con la falta de comprensión de los fenómenos naturales y el
miedo a lo desconocido. A partir del animismo, el totemismo y el culto a
los antepasados de los cazadores-recolectores, las creencias dieron paso a
religiones[50] organizadas que fueron un reflejo del crecimiento en
tamaño, complejidad, estructura y especialización de las sociedades
humanas. Las religiones evolucionaron a partir del culto a una diosa de la
fertilidad, pasaron por el politeísmo y por los panteones gobernados por un
poderoso dios del cielo y de la guerra, hasta llegar al monoteísmo
patriarcal, donde todos los dioses quedan sometidos a un Dios único o
degradados a la categoría de ángeles.
7. Al aplicar la consciencia reflexiva a la concepción de tecnologías para la
supervivencia y la reproducción, así como destinadas a influir a las fuerzas
naturales que supuestamente determinaban estos factores, el pensamiento
primitivo sentó las bases del arte, la música el lenguaje hablado y escrito,
las matemáticas y la astronomía.
8. A pesar de que muchas ideas e invenciones se difundieron y desarrollaron
mediante transmisión cultural, existen casos evidentes de evolución
convergente o paralela, ejemplificados por la evolución independiente de
la escritura y la evolución independiente de la astronomía y los sistemas
numéricos.
9. Esta primera fase de la evolución humana, el pensamiento primitivo, se
caracteriza, pues, por la necesidad de sobrevivir y reproducirse, por el
dominio de un instinto competitivo profundamente arraigado sobre la
recién surgida cooperación, y por la superstición.
La figura 27.1 ofrece una representación simplificada de la evolución de
algunas de las principales ramas del pensamiento primitivo que siguió a la
emergencia de la consciencia reflexiva. No se trata de un diagrama de árbol
convencional, como podría ser un árbol genealógico con relaciones fijas, sino de
una imagen bidimensional de un proceso dinámico de cuatro dimensiones en el
que las ramas y las sub-ramas no solo cambian con el tiempo —desarrollándose,
ramificándose más aún o marchitándose, quedándose en un estado moribundo o
muriendo—, sino que además interactúan con otras ramas para hibridarse, mutar
o generar una rama nueva.
Por ejemplo, la imaginación —la capacidad de la mente para formar
imágenes, sensaciones e ideas no vistas ni experimentadas hasta el momento—
no solo dio lugar a creencias supersticiosas, como la de un espíritu que habita en
el cuerpo de un hombre y en la cabeza de un león, sino que además interactuó
con la creatividad para producir objetos prácticos nuevos, como la rueda,
mientras que, por otro lado, la creatividad dio también lugar a cuestiones no
prácticas, como el arte abstracto.
La inventiva —la capacidad de crear objetos nuevos— podría ser resultado
de la interacción entre creatividad e imaginación, pero podría serlo también de la
experimentación, como sucede con el proceso de prueba y error consistente en
combinar cobre líquido y estaño en distintas cantidades para producir una
aleación, el bronce, con propiedades superiores a cualquiera de sus dos
integrantes para la fabricación de utensilios y armas.
La figura 27.1 muestra también el instinto, que llevaba varios millones de
años arraigado en nuestros antepasados homínidos.

Instinto: respuesta innata e impulsiva a los estímulos, normalmente


determinada por necesidades biológicas como la supervivencia y la
reproducción.

El instinto no disminuyó cuando la consciencia reflexiva emergió de la


consciencia para distinguir al Homo sapiens de las demás especies. Más bien al
contrario, incluso hoy en día el instinto sigue siendo una fuerza importante que
hay que tener en cuenta cuando intentamos comprender la conducta humana.
[1]Hawks, John, et al., «Recent Acceleration of Human Adaptive Evolution», Proceedings of the
National Academy of Sciences, 104: 52, 2007, pp. 20753–20758.
[2]Jorde, Lynn B. y Wooding, Stephen P. «Genetic Variation, Classification and “Race”», Nat Genetics,
36, 2004, pp. 528–533.
[3]Jones, Steve, «Is Human Evolution Over?», UCL Lunchtime Lecture, Londres, 25 de octubre de
2008.
[4]Keeley (1996).
[5]LeBlanc y Register (2003).
[6]Hill y Hurtado (1996).
[7] Véase página 697.
[8] Véase página 317.
[9]http://www.survivalinternational.org/tribes, consultado el 4 de mayo de 2014.
[10]http://www.britannica.com/EBchecked/topic/302707/Jericho, consultado el 4 de mayo de 2014.
[11]The Revised English Bible, José 6: 1–27.
[12]Fagan (2004).
[13]Ibíd; Kuhrt (1995).
[14]Wilson, E. Jan, «Inside a Sumerian Temple: The Ekishnugal at Ur», en The Temple in Time and
Eternity, editado por Donald W. Parry y Stephen David Ricks. Provo, Utah, Foundation for Ancient
Research and Mormon Studies, Brigham Young University, 1999; Gavin White, comunicaciones
personales, 22 y 27 de junio de 2012.
[15]Aparte de las citas concretas, las evidencias del antiguo Egipto están extraídas de
http://www.digitalegypt.ucl.ac.uk/, consultado el 24 de mayo de 2012 y Romer (2012).
[16]Van de Mieroop (2011), pp. 163–164.
[17]«Stonehenge», The Concise Oxford Dictionary of Archaeology, Oxford University Press, 2003;
«Stonehenge», The Columbia Electronic Encyclopedia, 6ª ed., Columbia University Press, 2012.
[18]Oliver, Neil, «Orkney’s Stone Age Temple», A History of Ancient Britain, BBC HD TV, 1 de enero
de 2012; Kinchen, Rosie, «Temple Discovery Rewrites Stone Age», Sunday Times Londres, 1 de enero de
2012, News 10; http://www.scotsman.com/news/cathedral-as-old-as-stonehenge-unearthed-1-764826, 13 de
agosto de 2009.
[19]Eogan (1986); O’Kelly (1991); más visita del autor en 1993.
[20]Las fuentes incluyen Possehi (1996); Allchin yd Allchin (1997); «Indus valley civilization», The
Columbia Electronic Encyclopedia, 6º ed., Columbia University Press, 2012;
http://www.infinityfoundation.com/mandala/history_overview_frameset.htm, consultado el 12 de mayo de
2012.
[21]Véase, por ejemplo,
http://www.hindunet.org/hindu_history/ancient/mahabharat/mahab_vartak.html, consultado el 27 de mayo
de 2012.
[22]Las fuentes incluyen Lagerwey y Kalinowski (2009); «Anyang», The Concise Oxford Dictionary of
Archaeology, Oxford University Press, 2003; http://www.britannica.com/EBchecked/topic/114678/Zhou-
dynasty, consultado el 5 de mayo de 2014.
[23]Departmento de Arte asiático, «Neolithic Period in China», en Heilbrunn, Timeline of Art History,
Nueva York, The Metropolitan Museum of Art, http://www.metmuseum.org/toah/hd/cneo/hd_cneo.htm,
octubre de 2004.
[24]Las fuentes incluyen Alonzo (1995); Morales (1993); Davies (1990); más visitas del autor en 1996
y 1997.
[25]Crystal (1987).
[26]Del Carmen Rodriguez Martinez, Maria, et al., «Oldest Writing in the New World”, Science 313:
5793, 2006, pp. 1610–1614.
[27]Ruggles (2005), pp. 133–134.
[28]Hawkins y White (1971).
[29]O’Kelly (1991).
[30]Melville (2005); Nissen, et al., (1993); White (2008); Robson, Eleanor, «Words and Pictures: New
Light on Plimpton 322», American Mathematical Monthly, 2002, pp.105-120.
[31]http://www-gap.dcs.st-and.ac.uk/~history/HistTopics/Indian_sulbasutras.html, consultado el 29 de
mayo de 2012.
[32]Kak, Subhash C., «Archaeoastronomy and Literature», Current Science 73: 7, 1997, pp. 624–627;
Kak, S. C., «The Astronomy of the Age of Geometric Altars», Quarterly Journal of the Royal Astronomical
Society 36: 4, 1995, pp. 385–395.
[33]«Chinese astronomy», Dictionary of Astronomy, John Wiley & Sons, Inc. Wiley-Blackwell, 2004.
[34]Needham y Wang (1959); Needham y Ronan (1978).
[35]Magli (2009), pp. 172–182.
[36]Vail, Gabrielle y Christine Hernandez, The Maya Codices Database, Version 3.0, 2011.
http://www.mayacodices.org, consultado el 18 de Agosto de 2012.
[37]«Akhenaten», Gale Encyclopedia of Biography, 2006.
[38] Véase página 40.
[39]The Upanishads (1987), pp. 7–11; Smart (1992), pp. 53–55.
[40]Lagerwey y Kalinowski (2009), pp. 4–34.
[41]Alonzo (1995), pp. 266–268.
[42] Véase página 47.
[43]The Revised English Bible, 2 Reyes 17.
[44]Ibíd, Éxodo 7–12.
[45]Ibíd, Ezequiel 1.
[46]Ibíd, Isaías 6: 1–7.
[47]Ibíd, Daniel 8: 15–26 y 9: 20–27.
[48]Ibíd, Daniel, 10: 1–21.
[49]Ibíd, Job 1: 6–22 y 2: 1–7.
[50] Véase el Glosario para el significado del término «religión» en este libro.
CAPÍTULO 28. LA EVOLUCIÓN HUMANA 2: El
PENSAMIENTO FILOSÓFICO

Solo hay una cosa que un filósofo a buen seguro hará bien: contradecir a otros filósofos.

WILLIAM JAMES, 1904

La disputa es una prueba de que no se ve con claridad.

ATRIBUIDO A ZHUANGZI, SIGLO IV A. C.

La segunda fase de la evolución humana empieza cuando la reflexión sobre


nosotros y nuestra relación con el resto del universo se alejan de la superstición
para adentrarse en la filosofía.
En vez de utilizar una de las muchas definiciones de filosofía empleadas en
Occidente, me decantaré por una definición que me parece más de acuerdo con
el sentido original de la palabra.

Filosofía: amor a la sabiduría; la reflexión sobre la realidad suprema, la


esencia y la causa de las cosas, el mundo natural, la conducta humana y el
pensamiento en sí.

Un libro, y mucho menos un capítulo, no puede cubrir toda la evolución del


pensamiento filosófico. Me concentraré, pues, en aquellas partes relevantes para
dar respuesta a las preguntas principales de nuestro viaje: ¿qué somos? ¿De
dónde venimos?
La emergencia del pensamiento filosófico

Bertrand Russell no duda sobre el origen de la filosofía.

[Los griegos] inventaron las matemáticas, la ciencia y la filosofía […]. La filosofía empieza con
Tales que, por suerte, puede datarse por el hecho de que predijo un eclipse que, según los
astrónomos, se produjo en el año 585 a. C. La filosofía y la ciencia —que en un origen no eran
disciplinas separadas— nacieron juntas a principios del siglo VI.[1]

Como vimos en el capítulo 27, Russell estaba equivocado con respecto al


origen de las matemáticas y la astronomía. El hecho de que se desarrollaran con
fines prácticos o para sustentar creencias supersticiosas como la astrología, no
desmerece en absoluto su existencia más de mil años antes de que naciera el
griego Tales.
Si Tales predijo un eclipse solar —algo que es altamente cuestionable—, lo
hizo probablemente utilizando cartas astrales babilónicas, incluso predicciones
babilónicas, como veremos más adelante. Pero pese a ello, el punto de vista de
Russell sobre el origen de la filosofía sigue siendo el dominante en Occidente.
Puesto que Russell estaba escribiendo Historia de la filosofía occidental,[2]
tal vez podría perdonársele. Mi ejemplar de la Enciclopedia Oxford de filosofía,
[3] anuncia en la solapa que «Cubre la historia de toda la filosofía mundial».
Pero de sus 1.922 entradas, solo 22 de ellas (el 1 por ciento) están relacionadas
con India, 10 (0,5 por ciento) con China, y otras 10 (0,5 por ciento) con Japón,
es decir, que solo consagra un 2 por ciento de todo su contenido a los principales
centros de filosofía no occidentales. Afirma además que:

Los primeros tres filósofos universalmente reconocidos —Tales, Anaximandro y Anaxímenes—


eran originarios de Mileto, una próspera ciudad griega.[4]

Para descubrir cuándo, dónde y cómo emergió el pensamiento filosófico,


debemos abandonar el eurocentrismo.

India[5]
Los primeros ejemplos conocidos de pensamiento filosófico están contenidos
en los Upanishads indios, de los que el filósofo alemán Arthur Schopenhauer
dijo: «De cada frase surgen pensamientos profundos, originales y sublimes».[6]
Tradicionalmente, iban anexos a los Vedas, himnos a los dioses y rituales
descritos en el capítulo 27. Los Upanishads recopilan las visiones de videntes
iluminados y su objetivo, según Eknath Easwaran, uno de sus traductores
modernos, es:

Descubrir con seguridad quién somos, qué es el universo y cuál es el significado del breve drama de
la vida y de la muerte que representamos con el telón de fondo de la eternidad.[7]

Lo cual es directamente relevante para la pregunta que aquí nos formulamos.


Los Upanishads siguieron escribiéndose, pero los más antiguos, y en especial
los diez comentados por el filósofo y maestro Adi Shankara (circa 788-820 d.
C.), están generalmente reconocidos como los más importantes. A pesar de que
todos son distintos, comparten dos visiones fundamentales: sarvam idam
Brahma (todo es Brahmán) y ayam atma brahma (el Yo —traducido con Y
mayúscula, porque se refiere al Yo esencial en contraposición con el yo
fenomenológico o la personalidad individual— es Brahmán). Esta identidad —la
respuesta de los Upanishads a la pregunta introspectiva fundamental de «qué
soy»— se expresa sucintamente como tat tavm asi (tü eres Eso, donde «Tú» es
la consciencia pura «que hace que el ojo vea y la mente piense», es decir, el Yo,
y «Eso» es la realidad suprema indescriptible, Brahmán).
Los Upanishads emplean metáforas, símiles, alegorías, dialéctica y
experimentos mentales para transmitir el significado del inefable Braman. Se
expresa como la Consciencia Cósmica de la que todas las cosas manan y de la
que todas las cosas consisten; es trascendente, existe sin forma alguna fuera del
espacio y el tiempo, y es además inmanente a los fenómenos percibidos por
nuestros cinco sentidos físicos y por nuestra mente, nuestro principal
instrumento de percepción.
Según los Upanishards, el entrenamiento de la mente mediante el ejercicio
disciplinado de la meditación para centrarnos en el objeto interior de
contemplación hasta que la mente queda absorbida por él, nos permite percibir
esta realidad suprema.
A diferencia de los antiguos filósofos griegos, las evidencias de los
Upanishads son directas. Sin embargo, la datación estimada de estos sanscritos
varía. Basándose en su estructura literaria, Michael Nagler, profesor emérito de
Literatura clásica y comparativa de la Universidad de California, Berkeley,
estima que no fueron escritos antes de 600-400 a. C., pero apunta que la
tradición oral sobre la que se asientan los Upanishards es mucho más antigua
que los textos.[8] Jitendra Nath Mohanty, profesor emérito de Filosofía en
Temple University, sitúa los textos entre 1000 y 500 a. C.,[9] mientras que
Arindam Chakrabarti, profesor de Filosofía de la Universidad de Hawái, estima
que fueron compilados entre 1000 y 900 a. C..[10] David Frawley, codirector del
Institute of Vedic Studies de los Estados Unidos, coincide con los especialistas
indios que defienden que el sanscrito se desarrolló a partir de uno o más idiomas
indígenas y que no fue importado por los arios que invadieron el territorio desde
el norte; data los textos entre 2000 y 1500 a. C.[11]
D. S. Sharma, autor de una antología de los Upanishards, comenta que los
videntes que enseñaban en los asharms estaban

al parecer inmersos en la imponente tarea de transformar la religión inferior basada en sacrificios


dominante en aquel tiempo en una gran religión mística y verdadera.[12]

Lo cual ilustra un patrón general. La emergencia es un proceso gradual y el


pensamiento filosófico primitivo está inevitablemente entrelazado con las raíces
de la superstición a partir de las que se ramifica.

China[13]

El pensamiento filosófico emergió en China en torno al siglo VI a. C., durante


la desintegración del imperio Zhou y prosperó en gran parte como respuesta al
caos y la violencia del llamado periodo de los Reinos combatientes.
Todos los antiguos filósofos chinos creían en Tian, el dios a quien hacían
sacrificios y que se traduce como el Cielo, el Firmamento o la Naturaleza. Sin
embargo, para llegar a sus ideas éticas (incluyendo las políticas) y metafísicas,
utilizaron el razonamiento y el conocimiento, no una supuesta revelación divina.
Fue en este sentido cómo empezaron a alejarse del pensamiento primitivo de su
cultura.
En su mayoría predicaban el Tao (o Dao) como el Camino, o la Vía, a seguir,
aunque su concepción y su interpretación del Tao diferían. Los historiadores de
finales de la dinastía Han clasificaron las numerosas escuelas filosóficas en
distintas tradiciones. Las tres principales son el confucianismo, el mohismo y el
taoísmo.
La primera escuela toma su nombre de Confucio, el nombre latinizado de
Kong Fu-tzu (transliterado como Kongzi), que significa Maestro Kong. La
tradición sitúa su nacimiento en 551 a. C., y fue primer ministro en la corte del
duque de Lu, un estado del imperio oriental de Zhou. Sus ideas están incluidas
en las Analectas, una breve recopilación de las conversaciones con sus
seguidores que fueron complicadas a lo largo de un periodo de entre 30 y 40
años por la primera y la segunda generación de discípulos. Posteriormente
surgieron otras ramas del confucionismo, entre las que destaca el Libro de
Mencio, latinización de Meng-tzu (371-289 a. C.), que estudió con el nieto de
Confucio y fue posteriormente reconocido como el auténtico transmisor de la
filosofía confucionista.
Para el confucionismo, el Camino para restaurar la estabilidad social y el
gobierno justo pasaba por los valores tradicionales. Su pensamiento se centraba
en la ética, y muy en particular en las relaciones entre gobernante y súbdito,
padre e hijo, hermano mayor y hermano menor, esposo y esposa, y amigo y
amigo. Estas cinco relaciones tenían que estar basadas en la reciprocidad. «Lo
que no quieras para ti, no lo quieras para los demás»,[14] una versión de lo que
posteriormente pasó a conocerse como la Regla de Oro y que fue defendida por
muchos pensadores del mundo antiguo. Esta receta virtuosa debía cultivarse con
el respeto necesario a la etiqueta y el ritual.
El mohismo fue la escuela que siguió el pensamiento de Mozi (circa 490-403
a. C.), que se oponía a la utilización de los valores tradicionales como Tao, por
considerarlos variables y poco fiables. Los valores éticos son constantes del
Tian, o Naturaleza, que muestran una preocupación imparcial para todo y todos.
Mozi determinaba el Camino ético con una perspectiva pragmática. Defendía
que los actos deberían calibrarse valorando el balance entre beneficios y daños
que causan. Sus conclusiones incluían la oposición a la agresión militar y a
infringir daño a los demás, y defendía un estado gobernado por un soberano
benévolo y administrado por una meritocracia. Los puntos de vista mohistas
estimularon el pensamiento de otros, como Mencio, y muchos de ellos fueron
absorbidos por el confucionismo.
Por otro lado, los primeros pensadores taoístas se concentraron en la realidad
suprema, igual que los videntes de los Upanishards, y su receta para la conducta
humana es consecuencia de ello.
El primer texto taoísta es el Lao Tsé, o Viejo Maestro, nombre de su
legendario autor, de quien se dice que fue contemporáneo de Confucio. En
Occidente, esta colección de aforismos se conoce como el Libro del Camino y de
su Virtud. El segundo libro clave, más extenso, es el tratado Zhuangzi, que recibe
el nombre de su autor que supuestamente fue unos doscientos años posterior a
Lao Tsé. Los especialistas modernos sugieren que es muy probable que Lao Tsé
y Zhuangzi sean colecciones de ideas recopiladas por distintos autores en
distintos momentos; en las culturas antiguas era práctica común que los
discípulos de un maestro atribuyeran sus puntos de vista al fundador de su
escuela.
En estos textos, el Tao es el Camino por el cual todo el universo cobra
existencia y que lo sostiene todo. Es la realidad suprema e inefable, como
brahmán, pero se manifiesta en el Camino mediante el cual funciona el mundo
natural. Esta cualidad dinámica demuestra un flujo continuo y un cambio en un
ciclo interminable entre dos opuestos que constituyen un todo, simbolizados por
el yin oscuro y el yang luminoso del diagrama de la Realidad Suprema (véase
figura 28.1).
Con un origen probable en los patrones cíclicos de la naturaleza, como la
noche y el día, el ying y el yang dan origen a todos los opuestos
complementarios que percibimos: invierno y verano, masculino y femenino,
Tierra —oscuridad, receptiva, femenina— abajo y Cielo —luminoso, fuerte,
masculino— arriba, etc.
Para alcanzar el estado ideal deberíamos armonizar nuestra vida con el Tao.
Seguir este Camino, o ley universal, es similar al Dharma del hinduismo y el
budismo que se discute más adelante.
Estas primeras ideas taoístas tienen su origen en la percepción. El Zhuangzi
rechaza de forma explícita el razonamiento:

El conocimiento más amplio no Lo conoce necesariamente; el razonamiento no hará hombres sabios


en Él. Los sabios han decidido contra estos dos métodos.[15]

Europa[16]

En Europa, el pensamiento filosófico se inicia en el siglo VI a. C. con los


antiguos griegos. Rastrearé su emergencia siguiendo el convencionalismo
arbitrario de considerar a los pensadores previos a Sócrates, que dejó su huella
un siglo después. El lugar donde iniciar el relato es Jonia, una estrecha franja de
territorio en lo que hoy es la costa occidental de Turquía que había sido
colonizada por los griegos.
En cuanto a por qué se inició en este lugar, solo podemos hacer
especulaciones. La explicación más probable es que Mileto era un puerto jónico
y una de las ciudades griegas más prósperas de su época, con importantes
vínculos comerciales y culturales con Egipto, Babilonia y otras regiones
orientales. Seguramente, la astronomía y las matemáticas de egipcios y
babilónicos llegaron a Mileto, y de ahí al resto de Jonia, como un subproducto
del comercio. Esos conocimientos estimularon a los jonios, alejados de la
ortodoxia religiosa de la Grecia continental, a desarrollar sus propias ideas.
Russell no aporta evidencias para sustentar su afirmación de que el primer
filósofo fue Tales de Mileto. Y no es de extrañar. No ha sobrevivido nada de lo
que Tales pudiera escribir. Tenemos que confiar en Aristóteles que, dos siglos
después, explica que Tales, Anaximandro y Anaxímenes de Malero fueron los
primeros physici, que dieron explicaciones naturales del mundo, en
contraposición con los theologi, que creían que todo era resultado de las
acciones de dioses impetuosos. Parece, sin embargo, que Aristóteles tampoco
disponía de material escrito en el que basar su reivindicación de Tales como
fundador de la filosofía natural.
Según su relato, Tales decía que todo estaba hecho de agua, y que las piedras
imán tenían vida (o alma, psyche, que significa más o menos lo mismo) porque
movían el hierro. Fuentes posteriores, como el poco fiable Diógenes Laercio,
que escribió 800 años después sobre Tales y que afirmaba recurrir a fuentes
secundarias de las que no queda ningún vestigio, declararon que Tales no solo
fue el primero en predecir un eclipse solar, sino también otros logros que son
poco probables o directamente erróneos.
Una parte de una frase de Anaximandro sobrevive en forma de una cita
realizada casi mil años más tarde por el neoplatónico Simplicio, que cita a
Teofrasto, ayudante de Aristóteles y su sucesor en 322 a. C. como director del
Liceo de Atenas, y no está claro si se trata de una paráfrasis o de una cita directa
extraída de un libro. Según Simplicio, Anaximandro expresaba sus ideas
sirviéndose del lenguaje poético de la mitología griega. La idea atribuida a
Anaximandro por Simplicio y otras fuentes terciarias es que el arché, o materia
fundamental del universo, no era el agua de Tales sino el ápeiron, un concepto
que se traduce comúnmente como lo ilimitado o lo indefinido, lo que carece de
cualidades observables pero del que surgen todos los fenómenos observables.
Lo primero que surge es la contradicción entre frío y calor, que se enzarzan
en una batalla, supervisada por el Tiempo, en la que cada uno invade el territorio
del otro y devuelve de este modo la «injusticia» cometida por el otro. Se
conjetura que podría significar que los opuestos fundamentales siguen un ciclo
indefinido, en el que el dominante cede paso al dominado siguiendo un patrón de
alternancia a partir del cual se generan todos los opuestos, algo similar al ying y
al yang del Tao.
No ha sobrevivido nada del trabajo del tercer filósofo de Mileto,
Anaxímenes. Tenemos que confiar de nuevo en fuentes terciarias, principalmente
Simplicio, que nos explica que su idea del arché, o materia fundamental del
universo, no era ni el agua de Tales ni la infinitud inobservable de Anaximandro,
sino el aire, que soporta la Tierra. Pero se trata de aire en el sentido de psyche,
que significaba tanto aliento como alma, o la fuerza que da la vida, como vimos
ya en los mitos homéricos. En su forma más rarificada es el fuego, en su forma
más ordinaria es el aire que percibimos, pero su condensación progresiva da
como resultado el viento, las nubes, el agua, la tierra y las piedras. El
movimiento constante provoca estas rarificaciones y condensaciones.
Cicerón, que escribió cuatro siglos más tarde, decía que Pitágoras (circa 570-
500 a. C.) fue el primero en utilizar el término «filósofo» (philosopos, amante de
la sabiduría) al describirse ante León, gobernador de Fliunte. Pitágoras era jonio,
pero fundó una secta en Crotón, una colonia griega del sur de Italia. Según
Russell:

Este elemento místico entró en la filosofía griega con Pitágoras, que fue reformador del orfismo, y
Orfeo fue reformador de la religión de Dionisos. A partir de Pitágoras, los elementos órficos
entraron en la filosofía de Platón, y a partir de Platón en cualquier filosofía que fuera en algún
sentido religiosa.[17]

El problema que plantea desentrañar la verdad del mito de Pitágoras es que


nada de lo que dijo o escribió ha sobrevivido hasta nuestros tiempos y los
pitagóricos, los cultos ascéticos secretos fundados, o inspirados, por Pitágoras, le
atribuyeron a él todas las ideas, incluyendo muy probablemente el teorema
geométrico que lleva su nombre.
Los pitagóricos creían que el alma es eterna y se reencarna en todos los seres
vivos. Para ellos, la liberación de la reencarnación y la reunión con el dios del
que emana toda la vida se conseguía llevando una vida de contemplación e
indagación. Los pitagóricos conservaron la diferenciación órfica entre lo que
puede aprenderse del mundo a través de los órganos sensoriales y el
conocimiento puro que se obtiene a través del alma, es decir, la percepción. El
examen de la geometría, la música y los cuerpos celestes revela para ellos los
principios divinos que ordenan el universo, y los pitagóricos los veían
expresados en los números y sus relaciones, a pesar de que no hay evidencias de
que realizaran observaciones detalladas de las estrellas o dedujeran relaciones
matemáticas a partir de ellas, como sí hicieron con las escalas musicales.
Heráclito (circa 540-475 a. C.) era nativo de Éfeso, una de las doce ciudades
de la Liga Jónica conquistada por los persas a mediados del siglo VI a. C. Los
130 fragmentos supervivientes de su obra revelan los enigmáticos aforismos de
un místico que creía que lo que tenía que decir iba más allá de los límites del
lenguaje humano. Su clave para comprender el mundo era la introspección, y sus
ideas muestran una congruencia considerable con las de los místicos orientales.
Su universo es un todo que siempre ha existido. Consiste en opuestos percibidos
por los sentidos en un estado de cambio y lucha constante, pero estos opuestos
son en realidad lo mismo, porque todas las cosas son una sola, el logos, el
principio que gobierna el universo. Es un concepto similar al Tao, que da lugar a
la interacción del ying y el yang y los opuestos subsiguientes.
Por debajo de este fluir del mundo fenomenológico está el aiezoon pyr (el
fuego eterno) que tiene poder transformador. Es similar al prana, la palabra
sanscrita utilizada en las Upanishads para indicar la energía vital, el sustrato
inicial de todas las formas de energía.
Parménides, nacido hacia 510 a. C. en la colonia griega de Elea, en el sur de
Italia, y sus seguidores eran contrarios a esta idea de cambio constante. A partir
de las 150 líneas que sobreviven de su poema Sobre la naturaleza, se deduce que
tiene una percepción de la realidad («lo que es») como algo único, atemporal,
completo e invariable. «Lo que no es» (la nada) no existe. En consecuencia, «lo
que es» no puede venir de «lo que no es» y, por lo tanto, no habría habido un
suceso de creación. Y ya que «lo que es» no tiene un «lo que no es» a donde ir,
el movimiento o cambio es imposible. Lo que percibimos como cambio es una
ilusión creada por nuestros cinco sentidos.
Zenón, su discípulo, defiende este punto de vista en una serie de paradojas
provocativas. Por ejemplo, después de haber sido disparada, una flecha ocupa
una posición estacionaria en cada momento del tiempo. Su vuelo consiste en una
serie de instantes estacionarios. Por lo tanto, la flecha es estacionaria.
De entre los filósofos de la siguiente generación destaca Empédocles (circa
492-433 a. C.), ciudadano de Agrigento, al sur de Sicilia, parece, según fuentes
secundarias y terciarias, haber sido un individuo pintoresco que afirmaba haber
alcanzado la divinidad después de muchas reencarnaciones. Se le atribuye haber
dicho que todo está hecho a partir de una combinación de cuatro elementos
irreducibles —tierra, aire, fuego y agua—, y que la fuerza del amor provoca su
combinación y la fuerza del odio los separa.
Anaxágoras (circa 500-428 a. C.) trasladó la tradición de los pensadores
jónicos a Atenas en torno a 460 a. C. Permaneció en la ciudad durante 30 años
como amigo del estadista Pericles antes de ser condenado por irreverente
después de negar que los cuerpos celestes eran dioses a los que venerar; las
estrellas, decía, eran piedras ardientes. Se oponía a la superstición y se le
atribuye haber dicho que una mente universal (nous, que se traduce también
como razón) ponía orden a la materia primordial y controlaba todos los procesos
naturales.
Leucipo está considerado el fundador de la escuela atomista y, aparte de eso,
sabemos muy poco de él. Demócrito (circa 460-370 a. C.) desarrolló la idea de
que todo en el cosmos está formado por unos elementos irreductibles llamados
átomos. En griego, átomo significa «sin cortar»; lo cual responde a Zenón, cuyas
paradojas dependen de la divisibilidad infinita.
En el vacío del espacio hay innumerables átomos en movimiento caótico
constante. Las colisiones que se producen aleatoriamente entre ellos dan como
resultado distintos tipos de átomos que se adhieren entre sí y producen todos los
fenómenos, tanto físicos como mentales, que percibimos. Pero estas adhesiones
son solo temporales; al final, acaban descomponiéndose de nuevo en átomos.
Este punto de vista no da cabida ni a un dios creador, ni a un principio rector de
la naturaleza, ni a la inmortalidad del alma: todo acaba reduciéndose otra vez a
átomos y la muerte es la aniquilación total. En un universo infinito, nuestro
mundo no es más que una de las muchas posibilidades, una posibilidad en la que
se dan las condiciones adecuadas para la vida. Esta idea prefigura la
especulación moderna del multiverso.
Para Demócrito, el concepto atomista tenía implicaciones éticas y médicas.
Las pasiones desordenan y perturban los átomos de la mente, o alma, y, por lo
tanto, el individuo solo puede alcanzar la felicidad a través de la moderación, la
ecuanimidad y la ausencia de deseos perturbadores. Lo mismo aplica a la
civilización que pretende prosperar, impedir su desintegración y caer en el
barbarismo. La salud física es también un equilibrio de los átomos del cuerpo.

Oriente Próximo[18]

El psiquiatra y filósofo alemán, Karl Jaspers (1883-1969) acuñó el término


«Era Axial» para describir el periodo comprendido entre 900 y 200 a. C. durante
el cual apareció, de forma independiente, un pensamiento revolucionario similar
en India, China, Grecia y Oriente Próximo. Jaspers enumera a varios de los
pensadores considerados en esta sección y la siguiente, que versa sobre la
evolución de la filosofía, e incorpora a la lista los profetas hebreos Elías, Isaías,
Jeremías y al persa Zoroastro.
El objetivo de Elías era liderar a los israelitas para alejarlos de la adoración
de falsos dioses, como Baal, y convencerlos de la existencia de un solo dios,
Yahvé. Según la Biblia hebrea, defendió su caso resucitando a los muertos,
haciendo descender el fuego del cielo y ascendiendo luego a él a bordo de un
carro de fuego. Pese a que tanto Isaías como Jeremías defendían la paz y la
justicia y se mostraban contrarios a la guerra, sostenían que sus ideales solo
podían conseguirse con la intercesión del Dios de Judá.
Zoroastro fue sacerdote y profeta y fundó una religión de la antigua Persia.
Predicaba el dualismo de dos poderes primigenios enzarzados en conflicto en
este mundo: el Bien, personificado por el dios Ahura Mazda, y el Mal,
personificado por Angra Mainyu, que podría o no ser su hermano gemelo (los
textos difieren en este punto). Zoroastro defendía la adoración exclusiva de
Ahura Mazda y la práctica de buenos pensamientos, palabras y obras para
conseguir el triunfo del Bien.
A pesar de defender la buena conducta, la justicia y la paz en contraposición
con la lucha agresiva por el dominio y el territorio basada en la competencia, el
pensamiento de estos cuatro hombres está circunscrito por la adoración y la
creencia en un dios intervencionista. Nada representa un intento de ir más allá
del pensamiento primitivo.

América Central

Desconozco cualquier intento por parte de las poblaciones indígenas de


América Central, o el resto del continente americano, de ir más allá del
pensamiento primitivo hasta siglos después de ser conquistadas por los europeos.

La evolución del pensamiento filosófico

India[19]

Sin abandonar la lucha por emerger de sus raíces primitivas, el pensamiento


filosófico empezó a evolucionar en India. Se dividió básicamente en seis
tradiciones ortodoxas hinduistas y en un movimiento que rechazaba las creencias
y los rituales religiosos y a partir del cual emergieron dos tradiciones más.

Tradiciones filosóficas ortodoxas hinduistas

La palabra «hinduista» deriva de la antigua palabra persa «indo» y


probablemente hacía referencia a los pueblos del valle del Indo y sus
descendientes. Utilizo la palabra «ortodoxo» para referirme a las diversas
tradiciones interrelacionadas que, en términos generales, comparten la
veneración a los Vedas junto con tres creencias: la realidad suprema es Brahmán,
o Consciencia Cósmica, que se identifica con el alma individual o Yo (Atman);
todas las criaturas están atrapadas en samsara, un ciclo infinito de nacimiento,
sufrimiento, muerte y renacimiento dependiente del karma, el principio según el
cual los actos cometidos por un individuo en otras vidas determinan su vida
actual; y que existe la posibilidad de alcanzar moksha, o la liberación de este
ciclo de reencarnación.
Cada una de las tradiciones está enraizada en muchas escuelas, que discuten
posturas contradictorias como el dualismo y el monismo, si Brahma es o no es
Dios, y la existencia de dioses como realidades o aspectos de Dios.

Shramana

El shramana es un movimiento poco definido integrado por videntes que, a


nivel individual, buscaban una visión más directa, normalmente renunciando a la
vida en sociedad y practicando el ascetismo. De los muchos videntes, dos
acabaron teniendo muchos seguidores y convirtiéndose a su vez en tradiciones.

Jainismo

La primera de estas tradiciones es el jainismo, cuya figura principal,


Vardhamana, fue conocido como Mahavira, o «gran héroe». Según la tradición,
nació en 599 a. C. como príncipe en lo que en la actualidad es el estado de Bihar,
una región del este de India bañada por el Ganges. Con treinta años de edad,
Mahavira renunció al mundo y se convirtió en un hombre sagrado errante. Doce
años más tarde, alcanzó la percepción que lo llevó a ser reconocido como un
tirthankara, literalmente «constructor de vados», un ser iluminado que enseña a
cruzar el río de las reencarnaciones para alcanzar el estado de liberación eterna
del alma.
El canon del jainismo, conservado en un antiguo dialecto prácrito pero solo
escrito varios cientos de años más tarde, afirma que Mahavira estaba en el
tirthankara veinticuatro y final de su medio ciclo del cosmos eterno.[20]
Defendía la aplicación de su forma de vida ética, con ascetismo extremo y no
violencia, para alcanzar la liberación de la reencarnación.
Como otros videntes, Mahavira atrajo discípulos pero no fue hasta después
de que Chandragupta, fundador del imperio Maurya, y varios reyes de Guyarat,
se convirtieran al jainismo que no se convirtió en una tradición importante que
hoy en día cuenta con seis millones de seguidores, principalmente en India. Los
monjes y monjas jainas llevan el estilo de vida extremo predicado por Mahavira,
mientras que los laicos juran seguir sus prácticas lo mejor posible.
Para reconciliar las distintas escuelas de filosofía y acabar con las disputas, el
jainismo desarrolló la idea de la no exclusividad, una teoría de la lógica que
reconoce siete valores verdaderos: la verdad, lo falso, lo indescifrable y cuatro
combinaciones de estos tres. Desarrollaron asimismo una teoría metafísica,
según la cual todas las cosas tienen infinitos aspectos, razón por la cual ninguna
descripción es enteramente cierta ni enteramente falsa.
Con el paso de los siglos, se produjo una división importante entre los
«vestidos con el cielo», o desnudos, y los vestidos de blanco. Cada una de estas
comunidades se subdividió a su vez y la veneración a los tirthankaras, reales y
místicos, evolucionó hacia adoración; algunas sectas acabaron incorporando
deidades hindúes, como Rama y Krishna, a su panteón.

Budismo

La segunda de estas tradiciones shramana importantes es el budismo,


fundado por Siddhartha Gautama. Separar los hechos de los mitos que se
multiplican después de la muerte de un líder carismático siempre es complicado,
y muy en especial en este caso. Podemos concluir con certeza que Siddhartha era
hijo del jefe de la nación Sakia, localizada en la región del Himalaya, en el
Nepal actual. Distintas tradiciones dan distintas fechas de nacimiento; los
eruditos occidentales solían situar la fecha en 566 o 563 a. C., pero
investigaciones recientes la sitúan entre 490 y 480 a. C.
Con veintinueve años de edad, decidió alejarse del lujo, de su esposa y de su
hijo e iniciar una vida de vagabundo para intentar comprender el sufrimiento
físico y mental del que llevaba tiempo siendo testigo y comprender cómo
aliviarlo.
Al parecer, estudió meditación con distintos maestros y durante un tiempo
practicó el jainismo, o llevó como mínimo una vida de ascetismo severo, aunque
decidió que era demasiado extremo. Según las escrituras budistas, con treinta y
cinco años de edad se sentó bajo una higuera y juró no moverse de allí hasta
encontrar la respuesta a su pregunta. Su meditación le dio lo que ahora
conocemos como las Cuatro nobles verdades.

1. La vida humana es sufrimiento (duhkha).


2. La causa del sufrimiento es el deseo, sobre todo el deseo de sensaciones
placenteras.
3. El sufrimiento puede extinguirse mediante la cesación del deseo.
4. El deseo puede extinguirse siguiendo el Noble camino óctuple:
comprensión correcta, pensamiento correcto, palabras correctas, acciones
correctas, medio de subsistencia correcto, esfuerzo correcto, atención
correcta, meditación correcta.

Seguir este camino conduce a la liberación del sufrimiento y del ciclo de


reencarnación. Posteriormente fue conocido como el Buda, o el Iluminado, y
empezó a enseñar este Camino medio (entre los extremos de la indulgencia
mundana y el ascetismo severo) a un pequeño grupo de discípulos que formaron
una sangha, o comunidad, comprometida a la práctica de sus enseñanzas.
Siddhartha no dejó nada escrito y enseñaba en su dialecto local. Diversas
versiones de sus enseñanzas sobreviven a modo de fragmentos de texto en
dialectos sanscritos y prácritos. El primer conjunto completo de escrituras fue
escrito en Sri Lanka en pali, un dialecto prácrito, entre 29 y 17 a. C. El canon
budista comprende el Sutra (Sutta en pali) o discursos pensados para ser
memorizados, el Vinaya o reglas monásticas, y el Abhidharma (Abhidhamma en
pali), conceptos metafísicos entre los que incluye la idea de origen co-
dependiente. Según esta idea, todos los fenómenos —físicos, mentales y
emocionales— surgen, y dependen, de una red temporal de causas contingentes;
como consecuencia de ello, nada es permanente. Esto significa que el Yo o alma
eterna no existe; cuando se produce la muerte de un iluminado que ha alcanzado
la liberación del ciclo de reencarnación, no subsiste ninguna identidad personal
ni límite mental (a diferencia de la creencia jaimista). Si esta conclusión es de
Siddhartha o de discípulos que la formularon en su nombre sigue siendo un tema
controvertido.
El cuerpo de las enseñanzas budistas recibe el nombre de Dharma. Esta
palabra sanscrita se utilizaba en el hinduismo para hacer tanto referencia a la ley
natural del cosmos como a la conducta del individuo en conformidad con esta
ley. Su significado, tanto budista como hinduista, es similar en concepto al Tao
chino.
Siddhartha Gautama y su pequeña sangha no fueron más que uno de muchos
grupos shramana hasta que un poderoso gobernante decidió adoptar sus
enseñanzas. En el siglo III a. C., el poderoso emperador Ashoka, perturbado por
el sufrimiento que su conquista había provocado en el reino de Kalinga, en la
costa este de India, abrazó las enseñanzas del budismo. En aquella época, el
emperador controlaba gran parte de India y envió misioneros budistas al sur,
hasta lo que en la actualidad es Sri Lanka, y hasta los reinos del mundo
helenístico.
Pero ya en el siglo III a. C. el budismo había empezado a dividirse. El
budismo theravada, o doctrina de los antiguos, afirmaba conservar las ideas y las
enseñanzas originales de Siddartha.[21]
Surgieron otras escuelas adoptaron la postura de que la vida en una sangha, o
monasterio, era demasiado exclusiva y que el budismo debería ser accesible para
todo el mundo. A principios del siglo I a. C., este movimiento se había
desarrollado y dado lugar al budismo mahayana, o Gran Camino. Esta escuela
sostenía que buscar la liberación del sufrimiento y la reencarnación a nivel
individual era egoísta y que el camino ideal era el del bodhisattva, el que
pospone la liberación que el individuo se merece hasta después de que dicho
individuo haya ayudado a los demás a alcanzar este estado. Siddhartha Gautama
había sido uno de estos bodhisattvas, la manifestación terrenal temporal del
Buda eterno y omnisciente. Las escuelas mahayana veneraban reliquias e
imágenes de bodhisattvas y apelaban a ellos en busca de ayuda y asistencia, una
práctica que apenas se distingue de la adoración a dioses.
Entre tanto, el budismo siguió expandiéndose hacia el sur y hacia el este y,
finalmente, también hacia el norte, adaptándose a las condiciones locales de cada
lugar. Los misioneros habían llevado el budismo theravada hasta Sri Lanka,
donde se convirtió en la religión dominante, y desde allí, y también desde India,
hasta Tailandia, Birmania e Indonesia.
Desde el siglo I o II d. C., las diversas variedades de budismo mahayana se
difundieron hacia el este siguiendo la ruta de la seda hasta llegar a China,
asimilando por el camino las tradiciones y creencias indígenas. En China se
encontró con periodos de oposición y otros de apoyo y se dividió en diversos
formatos como respuesta a las condiciones locales, destacando entre ellos una
escuela meditativa llamada Ch’an. Hacia el siglo VI, el príncipe Shotuku, regente
de Japón, adoptó las prácticas y las ideas budistas y el budismo Ch’an se
desarrolló en ese país como el budismo zen.
Sin embargo en India, hacia 1000 d. C. el budismo como filosofía había
desaparecido debido principalmente a dos factores. En primer lugar, la adopción
de rituales y creencias por parte del budismo mahayana lo hacía menos
diferenciable de la religión brahmánica, conocida comúnmente como hinduismo,
y, por otra parte, el carácter ecléctico del hinduismo lo llevó a asimilar las ideas
y las prácticas budistas. En segundo lugar, las invasiones musulmanas
destruyeron muchos monasterios budistas, pues consideraban blasfemas las
imágenes de Siddhartha y otros bodhisattvas.
En el siglo VIII d. C., distintas versiones del budismo se habían propagado
hacia Nepal y Tíbet, pero el budismo no logró echar raíces allí hasta que los
gobernantes del Tíbet occidental lo adoptaron en el siglo XI. La versión
dominante adoptaba muchos rituales religiosos hindúes, como la recitación
repetitiva de mantras, los sonidos sagrados para invocar el poder de las deidades,
y las mandalas, o diagramas sagrados, que jugaban un papel similar. Las
consortes de los bodhisattvas cobraron gran importancia como deidades y se
convirtieron en versiones de la antigua diosa madre. Esta rama del budismo
recibe el nombre de vajrayana, o del camino del diamante. Asimiló diversos
elementos de la religión tibetana bon, basada en el animismo y el chamanismo, y
se desarrolló en una religión que a su vez se dividió en distintas escuelas, cada
una de ellas gobernada por el abad, o gran lama, de su monasterio principal.
La autoridad de los grandes lamas aumentó después de que se llegara al
acuerdo de que eran bodhisattvas reencarnados. Los monasterios compitieron
por el poder político —a veces incluso con conflictos armados de por medio—
después de que los mongoles llegados desde China nombraran virrey al gran
lama del monasterio de Sakia. En el siglo XVII, este control pasó al gran lama del
orden Dge-lugs-pa, conocido como el Dalai Lama, y considerado la quinta
reencarnación.
Tíbet pasó de ser una teocracia a una «budocracia». Y siguió así hasta que las
tropas de la China comunista invadieron el territorio en 1950 y se hicieron con el
poder. En 1959, Tenzin Gyatso (nacido Lhamo Dondrub), reconocido como la
catorceava reencarnación del primer Dalai Lama, huyó al norte de India donde
estableció un gobierno en el exilio.
Pese a que algunas escuelas budistas actuales sostienen una tradición
filosófica no teística, en su mayoría se han convertido en religiones en las que,
paradójicamente, Siddhartha y otros místicos son venerados como dioses.

China[22]

En China se siguió un patrón muy similar.


Después de su brutal unificación en el siglo III a. C., el autoproclamado
primer emperador, Qin Shi Huang, adoptó el legalismo como política oficial del
gobierno y eliminó todas las demás escuelas filosóficas. El mohismo perdió
importancia hasta acabar desapareciendo. La suerte del confucionismo fluctuó
según el apoyo recibido por los emperadores. La dinastía Han, que inició su
reinado en el siglo I d. C., consideró que sus preceptos respaldaban la jerarquía
establecida, lo cual era cierto en gran parte, y sus emperadores hicieron
sacrificios al Cielo y veneraron a Confucio.
Pero el confucionismo tuvo que competir con el taoísmo, y luego con el
budismo, y sufrió un declive entre los siglos III y VII. Con la subida al poder de la
dinastía Sung (962-1279) llegó el auge del neo-confucionismo, que se convirtió
en la filosofía dominante entre los chinos cultos. Inspirándose en ideas taoístas y
budistas, los pensadores del neo-confucionismo formularon un sistema de
metafísica, que no había formado parte del confucionismo tradicional, pero
conservaron la visión jerárquica política y social de las primeras enseñanzas de
Confucio. El filósofo Chu Hsi (1130-1200) unificó las diversas tendencias y su
sistema pasó a dominar la vida intelectual china hasta 1911, cuando se produjo el
derrocamiento de la monarquía, a la que siempre había estado asociado. Su
declive se aceleró a partir de la revolución comunista de 1949.
El actual politburó de la China comunista, después de introducir el
capitalismo para incrementar la prosperidad del país, fomenta ahora el
confucionismo a expensas del marxismo-leninismo para mantener su autoridad y
conseguir la estabilidad social.
A pesar de que el taoísmo emergió como una perspectiva mística de la
realidad suprema, buscando una ley o patrón natural hacia el funcionamiento del
cosmos, experimentó un cambio profundo en 142 d. C., unos 600 años después
de la muerte de su legendario fundador, Lao Tsé. Zhang Daoling, un ermitaño,
anunció que Lao Tsé se le había aparecido en una visión y lo había nombrado
Maestro Celestial. Fundó entonces una religión que veneraba a Lao Tsé como
encarnación del Dios Supremo y en la que predicaba que la esencia de la
divinidad reside también en cada individuo; la longevidad y la inmortalidad
podían cultivarse a través de la meditación, la dieta y tratamientos de alquimia.
Las sectas religiosas taoístas adoptaron las instituciones del budismo. A lo
largo de los siglos siguientes, se vincularon a movimientos populares contrarios
al apoyo que el orden social y político establecido daba al confucionismo, a las
religiones locales con dioses relacionados con la naturaleza, a la alquimia y a las
artes marciales. Como consecuencia de ello, a partir del siglo V el taoísmo dejó
de existir como sistema de pensamiento filosófico.

Europa[23]

Sócrates

En términos generales, Sócrates (469-399 a. C.) está considerado como el


primero de los tres grandes pensadores que conformaron la evolución de la
filosofía occidental. No escribió nada y lo que ha llegado hasta nosotros de sus
ideas es a partir de cuatro fuentes. El dramaturgo Aristófanes fue el único que
escribió sobre Sócrates estando el filósofo con vida y lo hizo para desacreditarlo.
Jenofonte, alumno de Sócrates, se hizo historiador después de seguir la carrera
militar, pero carecía del alcance intelectual necesario como para servirnos como
guía fiable hacia la filosofía de Sócrates. Aristóteles, nacido quince años después
del fallecimiento de Sócrates, conoció las ideas de Sócrates indirectamente a
través de Platón. La fuente más extensa es Platón, un discípulo que idolatró a
Sócrates hasta el punto de que le atribuía a su maestro todo lo que consideraba
sabiduría, y lo que Platón consideraba sabiduría cambió mucho en el transcurso
de cuarenta años.
Sabemos de Sócrates que era un ateniense de ascendencia noble que
prescindió de las riquezas para consagrarse al pensamiento, que empleaba un
tipo especial de razonamiento y que murió por sus creencias. A diferencia de la
mayoría de sus predecesores griegos, no le preocupaba la realidad suprema o la
materia básica que componía el universo. Sócrates se centró en la ética: en cómo
debería comportarse el hombre y por qué. Su método consistía en interrogar las
creencias de los demás, en exponer las debilidades de esos argumentos y en
buscar a través de este sistema la verdad.
Presentados de esta manera, Sócrates y Buda, que vivieron aproximadamente
en la misma época, no podían ser más distintos. Sócrates proclamaba que toda su
vida había sido una búsqueda infructuosa de la sabiduría mientras que Buda
reivindicaba ser un hombre iluminado. Sócrates empleaba el razonamiento
dialectico, mientras que Buda daba forma a sus ideas a través de la meditación.
Sin embargo, una investigación más profunda revela similitudes
sorprendentes, además del foco que ambos ponen en la ética. Según Platón,
Sócrates, durante su servicio militar

empezó a pelearse con algún problema justo al amanecer y se quedó allí en pie, perdido en sus
pensamientos, y cuando le llegó la respuesta siguió todavía allí, pensativo […]. Y por fin, cuando
cayó la noche, después de cenar, los jonios le trajeron la ropa de cama […] en parte para ver si
pensaba quedarse allí toda la noche. Y allí se quedó, hasta la mañana, y en cuanto amaneció, dirigió
sus oraciones al sol y se marchó.[24]

Si sustituimos sentarse por quedarse en pie y le añadimos una higuera,


tendremos que esta descripción es comparable a la meditación de Siddhartha
Gautama.
Sócrates consideraba que nuestra conducta no tendría que estar determinada
por la esperanza de una recompensa celestial o el miedo a un castigo en la otra
vida, sino por lo que nos aporte felicidad ahora. Y no le parecía una postura
egoísta porque defendía que la única manera de alcanzar la felicidad es actuando
con justicia y comportándose virtuosamente con todo el mundo, incluyendo —y
en eso contradecía la tradición griega— tanto los enemigos como los amigos. Su
receta es similar a la del Noble camino óctuple del Buda, y su descripción de la
felicidad es un estado de serenidad como el que el Buda garantizaba a aquellos
que seguían su camino.

Platón

El segundo gran pensador fue Platón (circa 429-374 a. C.), un noble


ateniense que abandonó su ciudad después de que su maestro y amigo, Sócrates,
fuera condenado y sentenciado a muerte por un jurado integrado por quinientos
ciudadanos por haberse negado a reconocer los dioses oficiales. Ese hecho
confirmó en Platón una profunda desconfianza en la democracia, a la que
después sumó una profunda desconfianza en los tiranos (el tirano era por aquel
entonces aquel que se hacía con el poder, a veces liderando una revuelta popular
contra un gobierno aristocrático o plutocrático, y gobernaba con autoridad
absoluta aunque no necesariamente cruel u opresiva).
Viajó entonces durante doce años y, entre otros lugares, realizó estancias en
las ciudades griegas del sur de Italia, donde recibió la influencia de los
pitagóricos, y en la ciudad griega de Siracusa, en Sicilia, donde coincidió con el
tirano Dionisio I.
Llegó a la conclusión de que solo los filósofos deberían ser gobernantes, o
los gobernantes convertirse en filósofos, porque solo los filósofos poseían la
sabiduría y los conocimientos necesarios para actuar con justicia. A su regreso a
Atenas, fundó una academia para educar a los hijos de los nobles en la
indagación filosófica. Su obra escrita suele dividirse en tres fases, aunque tanto
la datación como la autenticidad de algunos textos son cuestionables.
Su conjetura más influyente es su concepto de las Formas. Una Forma es una
idea trascendental y eterna que nuestros sentidos perciben, aunque solo a través
de ejemplos imperfectos y temporales. Por ejemplo, un plato circular es tan solo
un ejemplar imperfecto y provisional del Círculo ideal que existe por encima y
aparte del mundo material. De un modo similar, la Sabiduría, la Justicia y la
Bondad son las Formas de cualidades que en el mundo solo encontramos de
manera imperfecta pero a las que deberíamos aspirar.
Aristóteles

Los antiguos pensadores griegos eran supuestamente eruditos. Si tenemos


que creer las fuentes secundarias y terciarias, el tercer gran filósofo griego,
Aristóteles (384-322 a. C.), los supera a todos en cuanto a alcance y volumen de
su obra. Pero solo nos ha llegado entre una cuarta y una quinta parte de su
trabajo, y debemos tener presente que nunca escribió nada pensando en
publicarlo. Lo que ha sobrevivido son notas que preparaba para sus conferencias
y discusiones, apuntes de sus alumnos y notas de investigación, todo lo cual fue
después editado y compilado en libros por sus alumnos, en especial por Eudemo
y Teofrasto, del Liceo, la academia de Atenas donde Aristóteles impartió sus
enseñanzas durante doce años.
La versión que nos ha llegado de su obra fue editada por Andrónico de Rodas
en el siglo I a. C. Fue descubierta en el siglo VIII por eruditos musulmanes que la
tradujeron al árabe y al sirio, después de lo cual diversos filósofos musulmanes,
entre los que destaca Averroes, en el siglo XII, escribieron sus comentarios. Las
traducciones del árabe y el sirio al latín empezaron a aparecer en Occidente a
finales del siglo XII.
El cuerpo de la obra incluye retórica, lógica, ética, teoría política, teoría
literaria, metafísica, teología y lo que ahora clasificamos como ciencias de la
biología, anatomía, física, astronomía y cosmología. Antiguo alumno de Platón y
elogiado en Occidente como «El filósofo», a Aristóteles se le atribuye la
invención de la ciencia y el método científico. Y puesto que el objetivo de
nuestro viaje es descubrir lo que la ciencia puede explicarnos sobre la evolución
humana desde el nacimiento del universo, me centraré en este aspecto concreto
de la obra de Aristóteles.
Su método científico deriva de un sistema de lógica que formalizó el
razonamiento deductivo y de su búsqueda de la causa de las cosas y su esencia, o
forma. A diferencia de la Forma trascendental de Platón, la forma de Aristóteles
es intrínseca de cada cosa.
Clasificó las cosas en una escala de perfección que queda expresada en su
forma, que se deduce a partir de la organización interna de lo que denominó
psyche, o alma. Las plantas son la forma de vida inferior y poseen un alma
vegetativa responsable de su reproducción y crecimiento, los animales tienen un
alma vegetativa más un alma sensitiva responsable de la movilidad y las
sensaciones, y los humanos poseen un alma vegetativa, un alma sensitiva y un
alma racional, con capacidad de pensamiento y reflexión.
Aristóteles aplicó su método con éxito a la fisiología y la conducta de
alrededor de 540 ejemplares zoológicos basándose tanto en sus propias
disecciones y observaciones como en los informes de estudios realizados por
otros. A pesar de que cometió varios errores, una gran parte de su explicación
sobre el corazón y el sistema circulatorio, por ejemplo, no fue superada hasta el
siglo XVII.
Dividió a los animales en animales con sangre y sin sangre (o, al menos, sin
sangre roja), con cierta correspondencia con la distinción moderna entre
vertebrados e invertebrados, y agrupó luego las especies con formas comunes en
un género. Su clasificación no quedó superada hasta la de Lineo, en el siglo XVIII.
Sin embargo, en sus restantes investigaciones sobre la naturaleza, Aristóteles
dejó de lado el empirismo. En anatomía llegó a la conclusión de que los hombres
tenían más dientes que las mujeres. En física razonó que los cuerpos caían hacia
la Tierra con una velocidad proporcional a su masa, una conclusión que
Filópono, en el siglo VI d. C., desaprobó mediante un sencillo experimento.
Aristóteles no dio la talla en este sentido. Su trabajo puede describirse más como
filosofía natural que como ciencia, tal y como la entendemos actualmente y
queda definida en el capítulo 1.
En cosmología llega a la conclusión de que la luna, el sol y las constelaciones
están incrustadas en una serie de esferas cristalinas perfectas y concéntricas que
giran eternamente a distintas velocidades alrededor de la Tierra. Y de ahí pasa a
la metafísica. Todo tiene una causa. En un libro, Aristóteles razona que esas
esferas están conectadas de tal modo que el movimiento de la esfera más interior
y próxima a la Tierra está causado por el movimiento de la esfera adyacente,
cuyo movimiento está a su vez causado por el movimiento de la siguiente esfera,
y así sucesivamente. Pero la cadena de causalidad tiene que detenerse en algún
punto. ¿Qué es lo que provoca el movimiento de la esfera más exterior? El
primer motor inmóvil, o motor primario. Aristóteles razonó que esta primera
causa sin causa tenía que ser sencilla, inmutable, perfecta, eterna y sin tamaño ni
forma física; constituida única y exclusivamente por contemplación intelectual,
el ejercicio de la razón más puro posible: es divino.
A diferencia de prácticamente todos sus predecesores en el mundo griego y
otros orígenes, Aristóteles no muestra indicios de haber tenido una revelación.

Filosofía helenística

La muerte de Aristóteles un año después de que falleciera su antiguo alumno,


Alejandro Magno, marca convencionalmente el fin de la fase helénica (griega)
del pensamiento filosófico y el inicio de la fase helenística (greciana). El imperio
de Alejandro se fragmentó y sus gobernadores intentaron hacerse con el poder en
sus respectivas regiones para crear monarquías independientes. Se desarrollaron
centros intelectuales que rivalizaron con Atenas, entre los que destaca Alejandría
en Egipto, Antioquia en Siria, Pérgamo en Asia Menor y, posteriormente, la isla
egea de Rodas.
El Liceo de Aristóteles continuó su existencia en Atenas, pero cayó en el
declive a partir de mediados del siglo III a. C. En este periodo surgieron tres
escuelas de pensamiento destacadas. Los epicúreos, los estoicos y los escépticos,
que coincidían en que la filosofía tenía que ser práctica y que su objetivo era
alcanzar la ataraxia, un estado de tranquilidad. Lo que sugiere que estaban más
influidos por Sócrates que por Aristóteles.
Epicuro (341-271 a. C.) siguió la metafísica atomística de Leucipo y
Demócrito y argumentó que, puesto que la mente no era más que un conjunto de
átomos que se dispersaría cuando la vida abandonara el cuerpo, el miedo a la
muerte carecía de sentido y había que buscar el placer en esta vida. Sus
detractores, y posteriormente los cristianos, le dieron efectivamente la vuelta al
concepto describiéndolo como una indulgencia excesiva en manjares y sexo. Sin
embargo, el placer para Epicuro era «la libertad del dolor del cuerpo y el tumulto
del alma», y por lo que parece llevó una vida abstemia durante la cual cultivó las
amistades y mostró generosidad con sus esclavos.
Los estoicos, una escuela de pensamiento fundada por Zenón de Citio a
principios del siglo III a. C., creía que la ataraxia se alcanzaba cuando el hombre
vivía en consonancia con la naturaleza. De ahí que preguntaran a la naturaleza y
llegaran a la conclusión de que todo está determinado por el destino; en
consecuencia, que proporcionaba la tranquilidad era una actitud de aceptación
del destino.
Los escépticos sostenían no conocemos con seguridad la naturaleza de las
cosas, lo cual demostraban formulando cualquier pregunta en dos sentidos; por
lo tanto, la paz mental se conseguía con la suspensión del juicio sobre las cosas.

Filosofía grecorromana

Todas estas corrientes de pensamiento siguieron evolucionando durante el


ascenso del imperio romano, en el cual los romanos adoptaron y desarrollaron el
pensamiento griego. El aristotelismo revivió durante esta época, aunque sus
seguidores se concentraron en conservar y comentar las obras de Aristóteles más
que en realizar algún avance a partir de ellas, y la escuela acabó muriendo en el
siglo III d. C.
Pero no se consiguió transformar la filosofía en una forma de pensar
puramente racional. En el siglo II, por ejemplo, Marco Aurelio, emperador
romano de pensamiento estoico, aconsejaba retraerse en uno mismo, y ese uno
mismo en el que el hombre tenía que retraerse era «como la inteligencia
universal que permea y organiza el mundo; de hecho, forma parte de esa
inteligencia».[25] Es un argumento similar a la revelación central de los
Upanishads: no solo todo es Brahmán, sino que el Yo también es Brahmán.
Podemos decir que el principal pensador de esta fase fue Plotino (circa 205-
270 d. C.), considerado el fundador del neoplatonismo. Por las evidencias de las
seis Enéadas, se deduce que era un místico cuyo objetivo era la unión con el
Uno, algo que afirmaba haber experimentado en diversas ocasiones. Para
disfruta de la unión dichosa con el Uno, aconsejaba que debemos abandonar

las demostraciones, las pruebas, el diálogo del alma consigo misma. Pero no confundamos la razón
con el acto y la facultad de ver; porque ambas cosas son mejores que la razón y aun anteriores a ella,
como lo es su objeto mismo.[26]

A través de la contemplación y de la virtud moral podemos elevar la mente


hacia el Uno. Este viaje mental no es solo un regreso al origen de nuestra
existencia, sino también un descubrimiento de nuestro verdadero yo. «Cuando el
alma empieza a ascender de nuevo, no va hacia otro ser sino hacia sí misma».
[27] Esta revelación es también un reflejo de la revelación de los Upanishads.
El pensamiento filosófico, sin embargo, bien sea a través del razonamiento o
de la revelación, a diferencia de la creencia en fuerzas sobrenaturales como los
dioses o un Dios, quedó reprimido en Occidente a partir de 529 d. C., cuando el
emperador romano Justiniano clausuró las escuelas atenienses porque socavaban
el auge del cristianismo.

Escolasticismo

Los eruditos cristianos conocieron el aristotelismo en el siglo XII a través de


las traducciones y los comentarios árabes y sirios. La corriente había tenido
escasa o nula relevancia en Occidente durante casi mil años, lo que equivalía
prácticamente al doble de su existencia (a pesar de que en el mundo musulmán
había renacido después de cinco siglos).
Los teólogos cristianos conocidos como escolásticos adoptaron el
razonamiento aristotélico para demostrar la existencia de Dios. El más destacado
de ellos, el dominico Tomás de Aquino, que vivió en el siglo XIII, utilizó entre
otros argumentos la primera causa sin causa y el primer motor inmóvil.
Paradójicamente, el cristianismo había nacido a partir de la revelación. Los
evangelios de Mateo, Marcos y Lucas hablan del Espíritu de Dios que descendió
sobre Jesús de Nazaret, que pasó cuarenta días y cuarenta noches en el desierto
sin comida. Emergió de aquella circunstancia para predicar la revelación de que
amar a Dios y amar al prójimo igual que nos amamos a nosotros mismos (una
versión de la Regla de Oro) era más importante que la adherencia ciega a las
leyes proclamadas en la Biblia hebrea.
La revelación espiritual continuó con los Padres del Desierto del siglo III, a
los que siguieron las órdenes monásticas y una serie de personajes
contemplativos como el Maestro Eckhart, santa Teresa de Ávila y san Juan de la
Cruz, hasta el siglo XVI.
A partir de finales del siglo XII, sin embargo, el razonamiento escolástico
pasó a ser dominante y se convirtió en el único método de pensamiento de las
escuelas y universidades occidentales, controladas todas ellas por la iglesia
católica romana.

Filosofía moderna

El razonamiento escolástico acabó tan incrustado en Occidente, que los


reformadores protestantes del siglo XVI lo utilizaron para atacar a la iglesia
católica romana, mientras que los pensadores de la Ilustración del siglo XVIII se
sirvieron de él para argumentar contra cualquier Iglesia. En la actualidad, los
departamentos de Filosofía de las universidades occidentales, la inmensa
mayoría de las cuales son seglares, enseñan solo razonamiento escolástico. De
las nueve enciclopedias y diccionarios norteamericanas y británicas que he
consultado, siete definen la filosofía única y exclusivamente en términos de este
razonamiento. Esto, creo, fusiona esencia con método.

La ramificación del pensamiento filosófico

A medida que el pensamiento filosófico evolucionó en distintas partes del


planeta, se ramificó en incontables tradiciones y escuelas que han seguido
ramificándose.
La división básica que suele presentarse es la que divide entre el Oriente
místico y el Occidente racional a partir de la época de los antiguos griegos. Pero
a mi entender, una ramificación más fundamental sería entre revelación y
razonamiento, definiendo estos términos como:

Revelación: ver con claridad la esencia de una cosa, normalmente de


forma repentina después de una meditación disciplinada o después de un
intento infructuoso de llegar a su comprensión a través del razonamiento.

Razonamiento: intento de comprender la esencia de una cosa a través de


un proceso lógico, basado en evidencias o en supuestos tomados como
obvios.

Además de la meditación disciplinada para obtener una revelación, en la


antigua India se empleó también el razonamiento en varios Upanishads, en el
sistema lógico Nyaya, que es comparable en muchos sentidos al razonamiento
aristotélico, en el sistema lógico de los siete valores jainistas, en los discursos
del Buda y la metafísica budista del origen co-dependiente, etc. En China, a
pesar de que el taoísta místico Zhuangzi rechaza el razonamiento como método
de indagación, Mencio, atribuido al filósofo confucionista del siglo IV a. C.,
utiliza el razonamiento en sus discursos mientras que, por otro lado, los mohistas
utilizaron la lógica para llegar a sus ideas.
Estos son solo algunos de los muchos ejemplos que muestran que los
pensadores orientales utilizaron tanto la revelación como el razonamiento, y
muchas escuelas siguen empleando el razonamiento, por mucho que no sea su
medio principal. Además, el colonialismo occidental del siglo XIX dio como
resultado que muchos países orientales adoptaran normas académicas
occidentales. Describir la filosofía oriental como únicamente mística es un error.
La escasez de evidencias nos lleva a no poder afirmar si muchos pensadores
occidentales de la antigüedad utilizaban la revelación o el razonamiento. No
existen datos fiables de pensadores pre-socráticos que, con la excepción de
Zenón, utilizaran el razonamiento para llegar a sus ideas, y las evidencias
existentes sugieren que el concepto de lo ilimitado de Anaximandro fue
probablemente resultado de la revelación, igual que las ideas místicas de
Pitágoras y los pitagóricos. Heráclito era un místico, mientras que el joven
Sócrates podría haber utilizado la revelación. Filósofos como Marco Aurelio, en
el siglo II d. C., y Plotino, un siglo después, eran sin duda alguna místicos,
mientras que pensadores como Arquímedes tuvieron revelaciones matemáticas y
científicas, un tema que exploraré en el próximo capítulo.
La excepción más clara a esta combinación de revelación y razonamiento la
ofrece Aristóteles, que valoraba el razonamiento por encima de todo. Pero el
aristotelismo no fue adoptado en Occidente hasta el siglo XII. La posterior
consagración del razonamiento por parte de la filosofía occidental podría deberse
no solo a siglos de control de la educación por parte de la Iglesia, sino también a
la visión de que el razonamiento es superior a la revelación. El distinguido
filósofo británico Anthony Quinton escribió en 1995:

La filosofía es una búsqueda colaborativa, a diferencia de la actividad meditativa de los sabios, que
normalmente florece mejor en condiciones de aislamiento e, incluso, eremíticas. El tipo de
colaboración involucrada, sin embargo, no es colaborativa sino competitiva […] un asunto de
argumentos críticos. Los argumentos tienen que persuadir y, para alcanzar el éxito, deben superar
los contrargumentos. Los sabios se limitan a comunicar sus pronunciamientos a aquellos que visitan
su lugar de retiro.[28]

Esta última frase está muy lejos de la realidad. Además, que un método de
pensamiento filosófico sea superior al otro es cuestionable. El razonamiento
depende de un conjunto de supuestos previo o de la selección e interpretación de
las evidencias. Aristóteles, el racionalista supremo, razonó que los cuerpos
celestiales están incrustados en esferas cristalinas que giran alrededor de la
Tierra, junto con otras cosas que son claramente erróneas.
Por otro lado, la revelación mística de que una realidad suprema inefable —
independientemente de que se llame Brahmán, Tao, lo ilimitado de Anaximandro
o el logos de Heráclito— dio lugar a todas las cosas del cosmos, se acerca a la
hipótesis moderna del campo cuántico que defiende que el universo que
percibimos se materializó a partir de una fluctuación en un campo quántico
cósmico preexistente.[29]
De un modo similar, la revelación mística de los Upanishads de que por
debajo de toda la materia y energía existe una fuerza de energía universal
(prana), igual que la revelación del pyr de Heráclito, recuerda la moderna
conjetura de cuerdas de que toda la materia y la energía consisten en cuerdas de
energía.[30]
Y la revelación mística de los primeros taoístas de que el Tao no es solo el
origen de todo sino también el Camino hacia el funcionamiento natural del
mundo, así como el logos de Heráclito, prefiguran las leyes físicas de la ciencia
que regulan la formación y la evolución del universo que percibimos pero cuya
causa la ciencia no puede explicar.[31]
Estas revelaciones no implican ningún dios o Dios antropomórfico. Las
llamaré místicas para diferenciarlas de las revelaciones espirituales que
reivindican una revelación por parte de Dios o de un dios o por parte de un
mensajero de ese Dios o dioses que normalmente exhorta al receptor a defender
un determinado proceder entre los creyentes en esa deidad. En este sentido, la
revelación espiritual forma parte del pensamiento primitivo tal y como se definió
en el anterior capítulo. El límite entre ambos aspectos es borroso y así se ve, por
ejemplo, cuando Aristóteles atribuye divinidad a la primera causa sin causa o
cuando algunas escuelas hinduistas interpretan Brahma como el dios supremo
que está por encima de todas las formas. Otras escuelas hinduistas, sin embargo,
cruzan este límite y personifican a Brahma como el dios Visnú o el dios Shiva,
cada uno de los cuales, según sus devotos, se encarna periódicamente para
intervenir en los asuntos humanos.
Si aceptamos como principal ramificación de la filosofía la división que se
produjo del siglo XII en adelante, cuando en Occidente se identificó el
razonamiento como único método filosófico válido, ¿cómo podemos plasmar las
ramificaciones que se han producido posteriormente en el pensamiento
filosófico?
A medida que el pensamiento filosófico fue extendiéndose, interactuando y
multiplicándose, y a medida que fueron produciéndose descubrimientos que
generaron más pensamiento, se empezaron a formar incontables escuelas. La
tendencia clara para afrontar este gran incremento de ideas fue la
especialización. La forma más útil de plasmar el siguiente nivel de ramificación
es a partir de los objetos de indagación, lo que genera seis campos principales de
especialización. A pesar de que sus límites son confusos, en términos generales
podrían resumirse como sigue.

Metafísica: la rama del razonamiento que investiga e intenta comprender


la realidad suprema o la esencia y la causa de todas las cosas, tanto
materiales como inmateriales.

Filosofía natural: la rama del razonamiento que investiga e intenta


comprender el mundo natural que perciben nuestros cinco sentidos, así
como su funcionamiento.

Lógica: la rama del razonamiento que intenta distinguir de manera


sistemática las inferencias válidas de aquellas que no lo son concibiendo
reglas para el razonamiento inductivo y deductivo, principalmente.

Epistemología: la rama del razonamiento que investiga la naturaleza, las


fuentes, la validez, los límites y los métodos del conocimiento humano.

Ética: la rama del razonamiento que evalúa la conducta humana e intenta


producir códigos que gobiernen la buena conducta entre individuos, entre
un individuo y un grupo de individuos (como podría ser una sociedad o
un estado), y entre grupos de individuos.

Estética: la rama del razonamiento que intenta comprender y comunicar


la esencia de la belleza en la naturaleza y en las creaciones humanas.

Estos campos evolucionaron, y siguen evolucionando. Antes de Platón no


había distinción entre metafísica y filosofía natural, y la filosofía natural
evolucionó gradualmente hacia la ciencia, como veremos en el próximo capítulo.
Las ramas se ramificaron y siguen ramificándose. Por ejemplo, la metafísica
se dividió en tres escuelas de pensamiento: monismo, que sostiene que la
realidad suprema consiste solo en una cosa; el dualismo, que defiende que lo
material y lo mental (o consciencia) son cosas fundamentalmente distintas; y el
pluralismo, que sostiene que la realidad consiste en numerosos tipos de cosas
que no pueden reducirse solo a una o dos.
La revelación tiende a ser holística, pero lo que se ramificó
considerablemente fue la interpretación de la revelación inefable del vidente por
parte de discípulos de posteriores generaciones. Creo, de todos modos, que
resulta útil mostrar una ramificación entre los objetos de revelación y reconocer
que, como consecuencia de su carácter holístico, las ramas se solapan incluso
más que las ramas del razonamiento. Así, por ejemplo, la revelación psicológica
de Siddhartha Gautama de las Cuatro nobles verdades se fusionó con la
revelación ética del Noble camino óctuple.
Sugiero seis divisiones básicas, que defino como sigue, aunque reconozco
que son debatibles.

Revelación mística: la comprensión directa de la realidad suprema; la


esencia y la causa de todas las cosas.

Revelación científica: la comprensión directa de la esencia o las causas


de los fenómenos naturales, sus interacciones u otras relaciones y, a
menudo, de las reglas que gobiernan estas interacciones o relaciones.

Revelación matemática: la comprensión directa de las propiedades, o de


las relaciones, entre números, formas reales y abstractas y, a menudo, de
las reglas que gobiernan estas relaciones.

Revelación psicológica: la comprensión directa de por qué y cómo los


individuos, o grupos de individuos, piensan y se comportan como lo
hacen.

Revelación ética: la comprensión directa de cómo, y a menudo por qué,


los humanos deberían comportarse como individuos o como grupo con
respecto a otros individuos y otros grupos.

Revelación artística: la comprensión directa que da como resultado la


creación de obras visuales, musicales o escritas bellas o capaces de
provocar el pensamiento.

Con frecuencia, la revelación científica no surge de un proceso de meditación


disciplinada sino después de que el científico no consigue resolver el problema a
través del razonamiento y entra en un estado de consciencia alterada, a menudo
de forma no intencionada, relajándose, dejando de razonar y desconectando
(pensando muy poco); es entonces cuando, de repente, la respuesta aparece
como surgida de la nada.[32] Lo mismo aplica para la revelación matemática y
otras revelaciones.

Visión general de la evolución noética

La figura 28.2 es un intento de ofrecer una visión general de la evolución del


pensamiento filosófico, mostrando su emergencia a partir de la superstición del
pensamiento primitivo, junto con la evolución de las principales ramas del
pensamiento primitivo discutidas en el capítulo anterior, más el instinto.
Igual que la figura 27.1, de la que deriva, la figura 28.2 es una imagen
bidimensional de un proceso dinámico e interactivo de cuatro dimensiones en el
que las ramas, sub-ramas, y sub-sub-remas no solo cambian con el paso del
tiempo sino que además interactúan con otras ramas para hibridar, mutar o
generar una nueva rama. Por ejemplo, las revelaciones psicológicas y éticas de
Siddhartha Gautama interactuaron con la metafísica para desarrollar una rama
dentro de la metafísica que razonaba —y sigue razonando— sobre temas como
la esencia del yo y el no-yo, mientras que la lógica interactuó con la creatividad
y la inventiva para generar la nueva rama de los lenguajes informáticos.
El diagrama no está confeccionado a escala. Mientras que la consciencia
reflexiva emergió plenamente de la consciencia en el Paleolítico Superior, hace
entre 40.000 y 10.000 años (para abreviar, hace aproximadamente 25.000 años),
el pensamiento filosófico solo emergió de la superstición del pensamiento
primitivo hará cuestión de 3.000 años, y la revelación y el razonamiento
divergieron hace aproximadamente 800 años. Dicho de otro modo, si la
existencia humana se representara mediante un reloj de 24 horas, la filosofía
aparecería aproximadamente 2 horas y 53 minutos antes de la medianoche,
mientras que el razonamiento, como único método de pensamiento filosófico
impartido en Occidente, aparecería 45 minutos antes de la medianoche.
La superstición —en forma de mitos y creencias religiosas que surgen de la
ignorancia de las leyes de la naturaleza o del temor a lo desconocido y que ahora
sabemos que entra en conflicto con evidencias sólidas— se ha inculcado en la
humanidad a lo largo de más de mil generaciones. No es de extrañar que su
influencia siga siendo tan fuerte y generalizada hoy en día y que siga siendo un
formidable competidor de la razón y la revelación en los intentos de responder
las principales preguntas de la existencia humana.

Conclusiones

1. Los intentos de responder a las preguntas fundamentales de qué somos y


de dónde venimos entraron en una nueva fase en distintos lugares del
planeta hace aproximadamente 3.000 años, cuando el pensamiento
filosófico se separó de las supersticiones del pensamiento primitivo. Los
intentos se caracterizaron por un deseo de buscar explicaciones que no
invocaran espíritus imaginarios, dioses antropomórficos o Dios, figuras en
las que se había creído durante más de 20.000 años.
2. El pensamiento filosófico emergió probablemente en primer lugar en el
subcontinente indio, mientras que los otros centros principales fueron
China y la colonia griega de Jonia.
3. Los filósofos se sirvieron de la revelación, a menudo resultante de un
ejercicio disciplinado de meditación, y del razonamiento, basado en
supuestos o interpretaciones de las evidencias.
4. Como todas las emergencias consideradas hasta el momento, resulta difícil
distinguir los primeros y torpes intentos de pensamiento filosófico de sus
raíces, las supersticiones primitivas inculcadas por las religiones. A medida
que se desarrollaron y diseminaron, su evolución mostró un patrón similar
al de la evolución filetica de la biología en su respuesta a los distintos
entornos locales. Hubo capullos del pensamiento filosófico que nunca
llegaron a desarrollarse; otros se desarrollaron y se marchitaron; algunos
fueron asimilados y alterados por otras escuelas; los hubo que
interactuaron con las creencias locales y mutaron en religiones; algunos
fueron asimilados o destruidos por las religiones o los gobernantes; otros
quedaron en barbecho y revivieron mucho más tarde; algunos fueron
fomentados por los gobernantes y florecieron; los que sobrevivieron,
siguen evolucionando y ramificándose.
5. Las revelaciones de los videntes, fueran indios, chinos o romanos, suelen
compartir rasgos comunes, en particular la unidad subyacente de todas las
cosas. En la mayoría de los casos, esta unidad subyacente, o realidad
suprema, fue experimentada como algo inefable que podría definirse como
una consciencia trascendente cósmica o una inteligencia informe que
existe más allá del espacio y el tiempo, que además es inmanente, en el
sentido de que da origen a todos los fenómenos percibidos por nuestros
cinco sentidos físicos y por nuestra mente; a partir de esta unidad
subyacente, la esencia de todos nosotros es idéntica al todo. Además, esta
realidad suprema se manifiesta en el cosmos y regula su funcionamiento, y
para alcanzar la plenitud deberíamos armonizar nuestra vida con ella.
6. A pesar de que la revelación suele ser holística, podría dividirse en ramas
según el objeto de indagación. Lo que se ramificó considerablemente
fueron las escuelas fundadas para interpretar, practicar e impartir las
enseñanzas relacionadas con las revelaciones de los distintos videntes.
7. El razonamiento se empleó para impartir las enseñanzas relacionadas con
las revelaciones y como método de indagación. Podría dividirse también
en ramas según el objeto de indagación, que a su vez se ramifican en
distintas escuelas a medida que el razonamiento se difunde, interactúa y se
multiplica en respuesta a nuevas ideas.
8. Allí donde el pensamiento se concentra en la ética —cómo deberíamos
comportarnos—, todos los antiguos filósofos, independientemente de que
utilizaran la revelación o el razonamiento, predicaron que la felicidad o la
tranquilidad solo se alcanza si actuamos sin egoísmo y actuamos con los
demás como quisiéramos que actuaran los demás con nosotros. Esto iba en
contra del impulso instintivo hereditario de agresión, guerra y conquista
dominante en todas las sociedades. La base de esta idea es que la
cooperación, y no la competencia, es lo que genera el progreso de la
humanidad.
9. A finales del siglo XII se produjo una ramificación fundamental entre
revelación y razonamiento; fue en el momento en que Occidente adoptó el
razonamiento como único método de pensamiento filosófico, aunque la
evidencia no sustenta la superioridad de un método sobre otro.

En el siguiente capítulo me centraré en la emergencia de la siguiente fase de


la evolución humana, el pensamiento científico y su posterior desarrollo.
[1]Russell (1946), p. 21.
[2]A History of Western Philosohy, editado en español bajo el título Historia de la filosofía occidental,
Espasa Libros, Madrid, 1984.
[3]The Oxford Companion to Philosophy, de Ted Honderich, editado en español bajo el título
Enciclopedia Oxford de filosofía, Ed. Tecnos, Madrid, 2008.
[4]Quinton, Anthony, «History of Centres and Departments of Philosophy», pp. 670–672 en The Oxford
Companion to Philosophy editado por Ted Honderich. Oxford University Press, Oxford,1995.
[5]Las fuentes para esta sección incluyen The Upanishads (1987); Nagler (1987); The Upanishads
(1884); The Ten Principal Upanishads (1938); Honderich (1995); Smart (1992); más dos semanas en el
Mandala Yoga Ashram (Director, Swami Nishchalananda Saraswati) en 2002.
[6]Citado en Nagler (1987), p. 300.
[7]The Upanishads (1987), p. 21.
[8]Nagler (1987), p. 253.
[9]Mohanty, Jitendra Nath «Philosophy, Indian», Microsoft Encarta Online Encyclopedia, 2005,
http://uk.encarta.msn.com
[10]Chakrabarti, Arindam, «Indian Philosophy», pp. 401–404 en The Oxford Companion to Philosophy,
1995.
[11]David Frawley, comunicación personal, 1 de marzo de 2004.
[12]Citado en Nagler (1987), p. 256.
[13]Las fuentes para esta sección incluyen Confucio (1893); Zhuangzi (1891); Riegel (2012); Shun,
Kwong-loi, «Taoism», pp. 864–865 en The Oxford Companion to Philosophy, 1995; Fraser (2012); Hansen
(2012); «Confucianism», The Columbia Electronic Encyclopedia, 6ª ed., Columbia University Press, 2012;
Smart (1992), pp. 103–114; Capra (2000), pp. 101–118.
[14]Confucio 15:24.
[15]Zhuangzi (1891), capítulo 22:5.
[16]Las fuentes para esta sección incluyen Russell (1946), pp. 10–101; Gottlieb (2001) pp. 1–108;
O’Grady (2006); Couprie (2006); Curd (2012); Hussey, E. L., «Heraclitus of Ephesus», pp. 351–352 en The
Oxford Companion to Philosophy, 1995; Taylor, C. C. W., «Sophists», pp. 839–840 en The Oxford
Companion to Philosophy, 1995.
[17]Russell (1946), p. 37.
[18]Las fuentes para esta sección incluyen The Revised English Bible; Armstrong (2006).
[19]Las fuentes para esta sección incluyen Chakrabarti, Arindam, «Indian Philosophy», pp. 401–404 en
The Oxford Companion to Philosophy, 1995; Frawley (1992); Batchelor (1998); Bronkhorst (2011); Keown
(2003); Mohanty (2005); Smart (1992), pp. 55–102; Pauling (1997); Shun (1995); más un retiro de estudio
y meditación de nueve días en la Buddhist Gaia House, Devon, dirigido por Stephen y Martina Batchelor,
varios retiros de meditación guiados en: Gaia House Londres, y cursos y sesiones de meditación guiada en
el North London Buddhist Centre.
[20] Véase página 39 para los ciclos del cosmos del jainismo.
[21]Gombrich (2006), p. 8.
[22]Las fuentes para esta sección incluyen Hansen (2012); Fraser (2012); Smart (1992), pp. 103–129.
[23]Las fuentes para esta sección incluyen Gottlieb (2001), pp. 131–431; Russell (1946), pp. 102–510;
Platón (1965); Shields (2012); Charles, David, «Aristotelianism», pp. 50-51 en The Oxford Companion to
Philosophy, 1995.
[24]Quoted in Gottlieb (2001), p. 131.
[25]Marco Aurelio Meditaciones VII, 28 citado en Gottlieb (2001), p. 314.
[26]Plotino (2010), VI, 9º Tratado, 10.
[27]Ibíd. VI, 9º Tratado, 11.
[28]Quinton, Anthony, «History of Centres and Departments of Philosophy», pp. 670–672 en The
Oxford Companion to Philosophy, 1995.
[29] Véase página 95.
[30] Véase página 121.
[31] Véase página 166.
[32] Véase página 794 para ejemplos.
CAPÍTULO 29. LA EVOLUCIÓN HUMANA 3: El
PENSAMIENTO CIENTÍFICO

Un científico, queridos amigos, es un hombre que predice; y es así porque la ciencia proporciona los
medios para predecir lo que es útil, y los científicos son por ello superiores a todos los demás hombres.

HENRI DE SAINT-SIMON, (1760-1825)

La ciencia puede describirse como el arte de la simplificación excesiva sistemática.

KARL POPPER, 1982

La tercera fase de la evolución humana se caracteriza por el pensamiento


científico, en el que el conocimiento y la comprensión se obtienen
empíricamente y no a través de especulaciones filosóficas o creencias basadas en
supuestas revelaciones sobrenaturales.
Como vimos en el capítulo 1, el significado del término «ciencia» ha
cambiado con el paso de los siglos y, por lo tanto, resulta útil reafirmar la
definición contemporánea que se ha utilizado en este libro.

Ciencia: el intento de comprender y explicar los fenómenos naturales mediante la observación y la


experimentación sistemáticas, y preferiblemente mensurables, y de aplicar el razonamiento al
conocimiento obtenido de esta manera para deducir leyes verificables y realizar predicciones o
retrodicciones.

A pesar de que solapa con la tecnología, considero útil realizar una distinción
entre ambas.

Tecnología: la invención, creación y utilización de herramientas o


máquinas para solventar un problema.

La ciencia es inseparable de su método. Y esto también ha cambiado con el


tiempo. La convención actual defiende un método de cinco pasos que se resume
en la siguiente definición.

Método científico (teórico)


1. Los datos se recopilan mediante la observación sistemática, o la
experimentación, del fenómeno objeto de estudio.
2. A partir de estos datos se obtiene una conclusión provisional, o hipótesis.
3. Las predicciones deducidas a partir de esta hipótesis se someten a test
mediante más observaciones o experimentos.
4. Si los test confirman las predicciones, y verificadores independientes
reproducen estas confirmaciones, la hipótesis se acepta como teoría
científica hasta que llega el momento en que nuevos datos entran en
conflicto con la teoría.
5. Si aparecen nuevos datos que entran en conflicto con la teoría, la teoría se
modifica o se descarta a favor de una nueva hipótesis que es consistente
con todos los datos.

En la práctica, no siempre se siguen todos los pasos. Alexander Fleming no


descubrió las propiedades antibióticas de la penicilina a partir del Paso 1, sino
que un día, al regresar a su laboratorio después de semanas de ausencia,
descubrió que las bacterias que había dejado por descuido en una placa de
cultivo habían sido destruidas por un moho llamado penicilina. Wilhelm
Rontgen descubrió los rayos X en una habitación oscura después de tapar con
cartón negro un tubo de rayos catódicos con el que había estado experimentando
y al ver que una pantalla fluorescente se iluminaba de forma inesperada. En el
capítulo 3 vimos que la evidencia del fondo cósmico de microondas fue
descubierto por casualidad.[1]
La revelación, más que el Paso 2, ha sido la responsable de la mayoría de
avances científicos. Es lo que se conoce popularmente como el «momento
eureka», en honor a Arquímedes, el matemático e inventor de la antigua Grecia,
de quien se dice que saltó desnudo de la bañera y empezó a correr por las calles
gritando «eureka» (lo he descubierto) después de comprender de repente que la
fuerza ejercida por un cuerpo inmerso en un líquido es igual al peso del líquido
que el cuerpo desplaza. El químico alemán August Kekule informó de que,
después de no conseguir descifrar la estructura molecular del benceno, se
adormiló delante de la chimenea. En las llamas del fuego vislumbró la imagen
del antiguo mito de la serpiente mordiéndose su propia cola y de pronto cayó en
la cuenta de que el benceno no tenía una estructura lineal, sino de anillo.[2]
Cuando Albert Einstein explicaba cómo llegó a sus ideas revolucionarias, decía:

Una nueva idea llega de repente y de forma intuitiva. No se llega a ella a través de mediante
conclusiones lógicas conscientes.[3]

A menudo, la respuesta de los científicos cuando descubren datos que entran


en conflicto con una teoría consagrada no es seguir el Paso 5, sino cuestionar los
datos y los métodos mediante los cuales esos datos fueron recopilados, o
ignorarlos,[4] o interpretarlos de tal manera que sean consistentes con la teoría.
[5]
Lo que se describe a menudo como el método hipotético-deductivo quedaría
mejor descrito como un análisis lógico de cómo las teorías científicas obtienen
solidez a partir de las evidencias, pero suele ser el único método científico que se
enseña en la actualidad en las universidades.

La emergencia del pensamiento científico

Las primeras ciencias pueden dividirse en tres grupos que se solapan entre sí
—ciencias físicas, ciencias de la vida y ciencias médicas—, cuyas ramas
emergieron en momentos distintos.

Ciencias físicas: las ramas de la ciencia que estudian los fenómenos


inanimados; incluyen la astronomía, la física, la química y las ciencias de
la Tierra.

Ciencias de la vida: las ramas de la ciencia que estudian las


características de los organismos vivos (plantas, animales y humanos), así
como las relaciones entre dichas características.

Ciencias médicas: las ramas de la ciencia que se aplican para conservar


la salud, impedir y tratar enfermedades, y tratar lesiones.

Ciencias médicas

Este último grupo aplica los descubrimientos de los dos primeros, en especial
de las ciencias de la vida, para alcanzar el objetivo de la supervivencia humana.
Sus raíces se remontan a la antigüedad, cuando las enfermedades y los males se
consideraban producto de los espíritus o los dioses. Los primeros intentos de
comprender y tratar las causas físicas de la enfermedad surgieron a partir de
estas supersticiones y están relacionados con ellas.
Sin embargo, tanto el Papiro Edwin Smith, datado hacia 1600 a. C. y
considerado una copia de varias obras egipcias anteriores, como el Manual de
diagnóstico, de origen babilónico y datado hacia 1050 a. C., detallan de manera
racional el examen, diagnóstico, tratamiento y prognosis de diversas
enfermedades.
El texto fundacional de la medicina china es el Huangdi neijing, atribuido
tradicionalmente al mítico Huangdi, o «emperador amarillo», datado entre el
siglo IIIy II a. C. El texto aborda con un enfoque empírico, basado en la filosofía
taoísta, diversas enfermedades y sus tratamientos y se impone como objetivo
recuperar el equilibrio dinámico de las energías vitales del cuerpo, en especial
del qi (la fuerza vital) y de la circulación sanguínea, armonizando el yin y el
yang tanto de la conducta como de los órganos del cuerpo.[6] Su legado es la
medicina tradicional china que se practica hoy en día.
En la antigua India, la ayurveda, que significa conocimiento de una larga
vida, aplicaba métodos racionales a los tratamientos médicos. Sus dos textos más
influyentes pertenecen a las escuelas de Charaka y Sushruta, nacidas ambas en
torno a 600 a. C. El primero detalla ocho ramas de la medicina, mientras que el
segundo incorpora un amplio abanico de técnicas quirúrgicas, entra las que
destaca la cirugía de las cataratas y la cirugía plástica para reconstruir la nariz
(que solía cortarse a modo de castigo). La ayurveda aplicaba la teoría de los
cinco elementos que componen todo el universo y hacía hincapié en el equilibrio
entre tres energías elementales, o humores, para mantener un estado óptimo de
salud. En la antigua Grecia (ver más adelante) encontramos un enfoque similar.
La pregunta de si se trata de conclusiones alcanzadas de forma independiente o
resultado de la transmisión cultural sigue abierta.
En la antigua Grecia se construyeron asclepieia, templos dedicados a
Escolapio, el dios de la curación, adonde acudían los pacientes para ser tratados.
A partir de esos inicios basados en la superstición surgieron cerca de setenta
textos atribuidos al médico del siglo V a. C., Hipócrates de Cos (aunque lo más
probable es que fueran escritos por sus alumnos a lo largo de varias décadas),
que describen y clasifican muchas enfermedades, tratamientos —incluyendo
tratamientos quirúrgicos— y prognosis. Los textos se basan en la visión
dominante en la época de que todo en el cosmos estaba constituido por cuatro
elementos: fuego, aire, agua y tierra.[7] Por el cuerpo circulaban además cuatro
humores, o líquidos —la bilis negra, la bilis amarilla, la flema y la sangre—,
resultado de distintas combinaciones de los cuatro elementos. Para conservar un
cuerpo sano y una buena disposición mental era imprescindible que estos
humores se mantuvieran en equilibrio.
Durante el periodo helenístico, las disecciones de animales realizadas por
Aristóteles estimularon la aparición de nuevas ideas sobre la anatomía y la
fisiología humanas, una tendencia que culminó en el periodo grecorromano con
las obras del griego Galeno (circa 130-200 d. C.). Su síntesis y desarrollo de las
teorías anatómicas y médicas aristotélicas, platónicas e hipocráticas, incluyendo
los cuatro humores, crearon un canon.
Hacia 750 d. C., los eruditos del imperio musulmán habían traducido al árabe
las obras atribuidas a Charaka, Sushruta, Hipocrates y Galeno. Sus médicos, y
muy en especial el erudito Ibn Sina (conocido en Occidente como Avicena),
utilizaron y desarrollaron estas ideas. La magistral enciclopedia escrita por
Avicena en 1025, el Canon de Medicina, fue traducida al latín en el siglo XII y se
convirtió en el texto médico más influyente hasta el siglo XVII, no solo en el
mundo musulmán sino también en Europa.
A mediados del siglo XVI, sin embargo, la investigación con cadáveres
humanos llevada a cabo por el belga Andreas Vesalio, de la Universidad de
Padua, demostró unos doscientos errores en la anatomía de Galeno (los
conceptos de Galeno estaban basados en la disección de animales, a partir de los
que se habían extraído conclusiones sobre la anatomía humana). En 1628, el
médico inglés William Harvey publicó Exercitatio Anatomica de Motu Cordis et
Sanguinis in Animalibus (Estudio anatómico sobre los movimientos del corazón
y la sangre de los animales), que describe una serie de experimentos que
condujeron al descubrimiento de la circulación de la sangre y del papel
desempeñado por el bombeo del corazón que anuló numerosos conceptos
galénicos. Este respetable trabajo empírico señaló la emergencia de la ciencia
médica moderna a partir de sus raíces en la medicina antigua.

Ciencias de la vida

Las ciencias de la vida se remontan a la clasificación de ejemplares


zoológicos llevada a cabo por Aristóteles[8] y a la clasificación de ejemplares
botánicos realizada por Teofrasto, su sucesor como director del Liceo.
Podría decirse que las ciencias de la vida, tal y como las entendemos en la
actualidad, surgieron en el siglo XVII con los experimentos de Harvey y las
observaciones llevadas a cabo con el recién inventado microscopio por eruditos
como Antoine van Leeuwenhoek, que descubrió los glóbulos rojos, los
espermatozoides y las bacterias.

Ciencias físicas

La ciencia física más antigua es la astronomía.

Astronomía: estudio observacional de lunas, planetas, estrellas, galaxias


y cualquier otra materia que quede más allá de la atmósfera de la Tierra, y
de sus movimientos.

Como vimos en el capítulo 27, a la evidencia del alineamiento de megalitos


europeos hace alrededor de 5.200 años le siguen los catálogos estelares de
babilonios, indios, chinos y mayas.[9] El hecho de que la astronomía se utilizara
al servicio de la superstición no niega sus métodos de observación sistemática de
los fenómenos naturales, a partir de los cuales se realizaron mediciones y
predicciones muy precisas.
Los eruditos islámicos utilizaron las traducciones al griego de trabajos de
astronomía griegos e indios para desarrollar la ciencia. Construyeron
observatorios, entre los que destaca el de Maragheh, en Persia, que se remonta a
1259. Las evidencias no dejan claro si fueron astrónomos islámicos los que
propusieron por primera vez la rotación de la Tierra. Nicolás Copérnico, el
erudito polaco y canónigo de la catedral católica de Fraunberg, Prusia, está
reconocido como el postulante de la teoría de que la Tierra rota sobre su eje y
traza una órbita alrededor del sol, igual que los demás planetas. Pero lo más
probable es que se inspirara en los argumentos geométricos de astrónomos
islámicos como Ala al-Din Ibn al-Shatir y otros para la elaboración de su
trascendental libro, De revolutionibus orbium coelestium (Sobre las revoluciones
de las esferas celestes), que desafió la visión bíblica y aristotélica de que la
Tierra era el centro del universo. Se negó a publicarlo hasta 1543, el año de su
muerte, por temor a la respuesta de la iglesia católica.[10]
La teoría de Copérnico fue corroborada y refinada por los astrónomos Tycho
Brahe y Johannes Kepler, pero fue Galileo Galilei, a principios del siglo XVII,
quien proporcionó no solo la base matemática, sino también observacional con
uno de sus primeros telescopios e informó, entre otras cosas, de la existencia de
las cuatro lunas de Júpiter y de las fases de Venus.
La interacción de la astronomía con la filosofía natural jugó un papel
decisivo en la aparición de la física.

Física: la rama de la ciencia que investiga la materia, la energía, la fuerza


y el movimiento, y la interacción entre todos ellos.
Esta emergencia apenas fue reconocida en su momento, y el término
«filosofía natural» siguió utilizándose hasta mucho después de que el
conocimiento empezase a adquirirse a través de métodos empíricos, lo que lo
distinguió con claridad de los conocimientos filosóficos, adquiridos a través del
razonamiento o la revelación.
De hecho, la física, tal y como la entendemos en la actualidad, había
empezado a florecer a partir de la filosofía natural en un momento tan temprano
como el siglo VI a. C. Juan Filopón, en un experimento que normalmente se
atribuye a Galileo pero que fue llevado a cabo más de mil años antes de que este
naciera, refutó la teoría de la caída de los cuerpos de Aristóteles lanzando dos
objetos de peso muy distinto y demostrando que impactaban contra el suelo al
mismo tiempo.[11] Pero este capullo no llegó a más. Ocho siglos más tarde, un
grupo de eruditos, que pasó a la posteridad como los Calculadores de Oxford,
introdujo la medición y el cálculo en la filosofía natural y creó el concepto de
velocidad; distinguieron también entre calor y temperatura.[12] Pero este capullo
tampoco llegó a florecer.
Galileo había leído acerca del experimento de Filopón. Expresó en términos
matemáticos la aceleración uniforme de los cuerpos en movimiento y sentó las
bases de la mecánica que Isaac Newton publicaría en 1687, con sus tres leyes del
movimiento y la ley de la gravitación universal, que relegaron a la papelera la
cosmología de Aristóteles. Los experimentos de Newton con prismas que
separaban la luz blanca en distintos colores dieron como resultado la teoría de
que la luz estaba compuesta por corpúsculos minúsculos, o partículas, que
obedecían sus leyes del movimiento.
En un periodo de aproximadamente 150 años, desde mediados del siglo XVI
hasta finales del siglo XVII, el pensamiento científico emergió con fuerza en
Europa, no solo para desaprobar gran parte de los conceptos de filosofía natural,
astronomía y medicina originadas en la antigüedad, sino también para proponer
nuevas teorías con predicciones sustentadas por la observación sistemática y la
experimentación. Fue lo que posteriormente fue calificado como la «revolución
científica».
Su emergencia fue consecuencia de cinco factores sinérgicos. En primer
lugar, la traducción al latín de las traducciones al árabe de los antiguos textos
griegos y de los avances árabes desarrollados a partir del siglo XII, ayudaron a
dar forma al Renacimiento. Esta resurrección de la cultura clásica produjo la
aceptación inicial de la autoridad de pensadores como Aristóteles y Galeno,
seguida a continuación por la puesta en duda de sus ideas.
En segundo lugar, la demanda creciente de conocimiento llevó a un aumento
del número de universidades repartidas por la Europa del Renacimiento, donde
las ideas se divulgaron y se discutieron.
En tercer lugar, la tecnología para la supervivencia se adaptó a los nuevos
conocimientos y salió favorecida con ello. En las ciudades italianas de Venecia y
Florencia se refinó la fabricación del cristal a partir del siglo XIII y los nuevos
productos se utilizaron para crear lentes para cristales de ampliación y
posteriormente gafas, que ayudaron a compensar los problemas de visión. Pero
la invención del telescopio, que se atribuye a fabricantes de cristal holandeses,
no se produjo hasta 1608. Uno de ellos, Hans Lippershey, descubrió por
casualidad que mirando a través de dos lentes con distinta longitud óptica
colocadas en posición alineada se obtenía una visión aumentada de los objetos
lejanos. Llamó a su invento «lente de espionaje»,[13] porque pensó que serviría
para espiar a los ejércitos enemigos en tiempos de guerra.
La noticia del gran invento corrió como la pólvora. El matemático y
científico inglés, Thomas Harriot, produjo en agosto de 1609 un telescopio que
sextuplicaba la potencia del primero para observar la luna. Galileo fabricó uno
que multiplicaba por veinte la potencia del que había empleado para observar la
luna y descubrió cuatro lunas de Júpiter y resolvió el problema de los cúmulos
de estrellas; publicó los resultados en marzo de 1610. Con cada incremento de la
potencia de ampliación, el conocimiento de los cuerpos celestiales y de sus
movimientos fue multiplicándose.
El microscopio fue para las ciencias de la vida el equivalente del telescopio
para la astronomía.
Métodos para medir el tiempo, como el reloj de sol, el reloj de agua y el reloj
horario, habían sido inventados para fines astrológicos, astronómicos, agrícolas,
religiosos y demás. Pero el invento del reloj de péndulo por parte del científico
holandés Christian Huygens en 1655 ofreció una precisión mucho mayor y se
utilizó para recopilar datos y poner a prueba muchas teorías dentro del campo de
la astronomía y la física.
En cuarto lugar, la diseminación del conocimiento aumentó rápidamente
gracias a otro invento tecnológico. La impresión sobre papel había sido
inventada en China en el siglo IX para copiar y distribuir las frases de Buda, pero
fue el invento de la imprenta con tipos móviles que realizó Johannes Gutenberg
en 1439 lo que transformó el volumen y la velocidad de las impresiones y, con
ello, la divulgación del conocimiento, de los nuevos descubrimientos y de las
nuevas teorías.
En quinto lugar, se fomentó la cooperación entre la gente estimulada por la
divulgación de los conocimientos y los descubrimientos. La competencia seguía
siendo fuerte, tal y como ejemplifican los distintos intentos de patentar el
telescopio y las rivalidades entre científicos como Newton y Lebniz por el
invento del cálculo. Pero cada vez más, las nuevas generaciones de científicos
adoptaron un enfoque distinto y cooperaron para desarrollar ideas y difundir la
información sobre sus descubrimientos. En 1652, un grupo de médicos de la
ciudad alemana de Schweinfurt fundó la Academia de las Curiosidades de la
Naturaleza, que acabaría convirtiéndose en la Academia Alemana de las
Ciencias; en 1670 publicaron la primera revista médica y científica del mundo.
En 1660, un grupo de científicos, entre los que destacaban Robert Boyle y
Christopher Wren, decidió reunirse semanalmente para intercambiar
información, discutir y realizar experimentos. Al año siguiente habían recibido
ya una carta estatutaria real. La Real Sociedad de Londres para el Avance de la
Ciencia Natural, que acabó transformándose en la Royal Society, adoptó como
lema Nullius in verba (En las palabras de nadie) para expresar su determinación
a cuestionar la autoridad recibida y buscar la verificación de todo mediante la
experimentación o la observación. Difundió sus descubrimientos a través de su
revista, Proceedings of the Royal Society. Un patrón similar siguió la fundación
en 1666 de la Academia Francesa de las Ciencias, en 1700 la Academia Prusa de
las Ciencias y en 1725 la Academia Rusa de las Ciencias.

La evolución del pensamiento científico

Después de su emergencia, el pensamiento científico evolucionó rápidamente


debido a los factores que acabamos de mencionar y, en particular, gracias a la
mejora del acceso a la educación, al desarrollo de nuevas tecnologías —
diseñadas ahora específicamente para la indagación científica más que
simplemente adaptadas de aquellas diseñadas para otros fines—, al desarrollo de
medios incluso más efectivos para copiar y difundir la información y gracias
también al aumento de la cooperación entre científicos.
Todo ello llevó a una expansión cada vez más rápida del conocimiento
científico que dio como resultado la ramificación de la indagación científica en
ramas cada vez más especializadas, con sus propias sociedades y publicaciones y
sus propios departamentos universitarios. La figura 29.1 es un intento de ofrecer
una visión general de este proceso. Se centra en la ramificación de la rama de la
filosofía natural que aparece ilustrada en la figura 28.2. Igual que sucedía con
aquella figura, se trata de una imagen bidimensional simplificada de un proceso
dinámico e interactivo de cuatro dimensiones. Con el fin de plasmar la situación
con claridad, no se muestran todas las ramas y sub-ramas.[14]
La emergencia del pensamiento científico no significó que el pensamiento
supersticioso dejara de tener practicantes. Más bien al contrario. La superstición,
que aparece como una rama importante en la figura 28.2 interactuando con la
filosofía natural, siguió interactuando también con la ciencia. El reconocido
matemático, astrónomo, geógrafo e hidrógrafo del siglo XVI, John Dee, intentó
comunicar con los ángeles sirviéndose de oraciones, cristales, espejos, números
místicos y otros artilugios mágicos. Las observaciones y los cálculos de Kepler
demostraron que las órbitas que trazaban los planetas alrededor del sol eran
elípticas y no circulares, pero él siguió practicando la astrología, creyendo que el
movimiento y la posición de la luna, el sol y los planetas influían la conducta y
el destino de los individuos. Newton, descrito a menudo como el padre de la
física e incluso de la ciencia, dedicó la mayor parte de su vida a la alquimia, el
arte esotérico de transformar metales en oro y descubrir el elixir de la vida
eterna. Según el historiador de la filosofía Anthony Gottlieb, Newton escribió
más de un millón de palabras de jerigonza sobre este tema.[15] Todo ello viene
simplemente a reforzar el patrón de que las nuevas ramas de pensamiento están
inevitablemente entrelazadas con sus raíces.
Antes de indicar cómo y por qué cada una de estas primeras ramas del
pensamiento científico se ramificaron en la forma que queda plasmada en la
figura 29.1, mencionaré dos tecnologías utilizadas por todas ella, cuyo avance
demuestra la veloz aceleración de esta fase del pensamiento humano.
La primera son las ayudas para el cálculo. Las máquinas de cálculo mecánico
empezaron a desarrollarse en el siglo XVII y sus versiones más sofisticadas
permanecieron vigentes hasta el siglo XX. Sin embargo, en la segunda mitad de
este siglo, los ordenadores transistorizados que utilizaban cálculos y
almacenamiento digitalizados se desarrollaron rápidamente a través de
microprocesadores para dar lugar a ordenadores con 128 bytes de memoria
RAM, para seguir, a partir de los años setenta, con el desarrollo de ordenadores
personales y de superordenadores como el Titán, diseñado para estudios
climáticos. Presentado en 2012, realiza 17,59 miles de billones de cálculos por
segundo, diez veces más potente que el ordenador líder mundial tan solo tres
años antes.
La segunda es la divulgación del conocimiento, que estimula nuevas ideas.
La máquina de impresión de tipos móviles con funcionamiento manual que
Gutenberg inventó en el siglo XV se hizo mucho más rápida gracias al invento, en
1810, de la prensa de impresión a vapor. La velocidad y el volumen de
producción aumentaron aún más, y el coste por unidad del material impreso bajó
drásticamente, con la invención de la impresión litográfica ófset a principios del
siglo XX. Sin embargo, la digitalización y el desarrollo a partir de 1970 de las
redes informáticas que acabó generando la aparición de Internet, seguido por la
World Wide Web (WWW), no solo dio como resultado la divulgación
prácticamente instantánea del nuevo conocimiento sino que además globalizó
esta divulgación.
La WWW fue inventada por Tim Berners-Lee, de la Organización Europea
para la Investigación Nuclear, CERN [European Council for Nuclear Research],
en 1991 con el fin de compartir información relacionada con la investigación de
la física nuclear. Después de popularizarse en 1993 gracias a la introducción de
un navegador con un interface gráfico y de que el CERN la pusiera
gratuitamente a disposición de todo el mundo, el acceso a la información se
transformó y democratizó. Anteriormente, los artículos científicos se publicaban
en las revistas impresas de las sociedades científicas, como la Royal Society, y
circulaban solo entre sus miembros y suscriptores, como las bibliotecas
universitarias, mayoritariamente del mismo país. Ahora, y por un módico precio,
es posible descargar desde cualquier rincón del mundo las versiones digitales
tanto de estas revistas como de los artículos a nivel individual. Además, fuentes
de acceso público como arXiv (que empezó con la física en 1991 y a partir de
ahí se expandió hacia otras ciencias) y PLoS (Public Library of Science, desde
2003) permiten a los investigadores poner su trabajo a disposición del público
sin coste alguno. Muchos científicos, además, ofrecen ejemplares de descarga
gratuita en sus páginas web, mientras que buscadores como Google Scholar
facilitan la búsqueda de lo que se ha publicado por autor y por cualquier tema.

Ciencias físicas

Astronomía

El telescopio fue inventado para espiar a los ejércitos enemigos. Sin


embargo, después de la aparición de la astronomía como consecuencia del
rechazo de la creencia de que la Tierra era el centro del universo, los astrónomos
desarrollaron tecnologías al servicio de sus necesidades en vez de utilizar
aquellas diseñadas con otros fines.
Newton se dio cuenta de que el telescopio refractor, que consistía en dos
lentes de cristal, daría refracciones distintas de luz para distintos colores, de
modo que desarrolló un telescopio reflector que utilizaba espejos en lugar de
lentes para eliminar de esta manera las aberraciones cromáticas. Los telescopios
reflectores de diseño cada vez más sofisticado se convirtieron en el telescopio
astronómico predominante. Los individuos que observaban el cielo con sus
propios instrumentos han dado paso a equipos cada vez más numerosos de
astrónomos y técnicos que trabajan en cooperación, una forma de trabajo cuya
culminación será el Telescopio Europeo Extremadamente Grande que, según las
previsiones, entrará en funcionamiento en la década de 2020 en Chile. Su espejo
principal consistirá en 798 segmentos hexagonales que alcanzaran en conjunto
40 metros de diámetro y será capaz de reunir más luz que la suma de todos los
telescopios existentes en la actualidad en el planeta.[16]
El descubrimiento casual en 1931 de las emisiones naturales de
radiofrecuencia desde el espacio llevó al ingeniero de radio norteamericano
Grote Reber a instalar en el jardín de su casa un radiotelescopio parabólico de 9
metros de diámetro que utilizó en 1940 para identificar la Vía Láctea como una
de las fuentes de emisión. En 1957, el departamento de Astronomía de la
Universidad de Manchester instaló un radiotelescopio de 76 metros de diámetro
en Jodrell Bank, al noroeste de Inglaterra, para investigar rayos cósmicos,
meteoritos, cuásares, púlsares y otras fuentes de ondas de radiofrecuencia así
como para realizar el seguimiento de sondas espaciales.
La investigación de los fenómenos celestes a través de sus emisiones y
absorciones en frecuencias fuera del espectro visible dio como resultado
tecnologías cada vez más desarrolladas y una cooperación cada vez más extensa
que se amplió más allá de los miembros de una única universidad. El
Observatorio Solar Orbital, una serie de ocho satélites lanzados entre 1962 y
1971 por la Administración Nacional de la Aeronáutica y del Espacio de los
Estados Unidos, conocida por todos como la NASA, detectó imágenes en
longitudes de onda ultravioletas y de rayos X que habrían pasado desapercibidas
debido a la atmósfera de la Tierra. El telescopio Hubble, lanzado en 1990 por la
NASA y operado no solo por los científicos de esa organización sino también
por los de la Agencia Espacial Europea, investigó las longitudes de onda
visibles, ultravioletas y más cercanas. A finales del siglo XX, equipos
internacionales de astrónomos especializados empezaron a dibujar mapas del
firmamento a través de las diferentes regiones del espectro electromagnético y a
utilizar las tecnologías del análisis por ordenador y la imagen digital para
realizar reconstrucciones.

Física
Los físicos se sienten orgullosos del aforismo que dice: «Si un biólogo no lo
entiende, pregúntale a un químico; si un químico no lo entiende, pregúntale a un
físico; y si un físico no lo entiende, se lo pregunta a Dios». La frase captura la
realidad de que la física es la ciencia fundamental, puesto que las relaciones
entre materia, energía, fuerza y movimiento forman parte de todas las demás
ciencias físicas, que se ramificaron a partir de la física a medida que los
conocimientos produjeron campos de estudio cada vez más especializados.
A pesar que con el fin de facilitar su comprensión, la figura 29.1 muestra la
física como una sola rama, está ramificada en sub-ramas como la mecánica —
que a su vez se divide en la mecánica de sólidos y la mecánica de fluidos, que
incluye ramas como la hidrostática (fuerzas sobre fluidos en reposo), la
hidrodinámica (fuerzas sobre fluidos en movimiento), la aerodinámica y la
neumática—, la acústica, la óptica, la termodinámica, la electricidad estática y
corriente y el magnetismo.
A partir de esta física clásica, que estudiaba lo que es normalmente
observable, los físicos desarrollaron tecnologías para investigar la materia y la
energía que no son normalmente observables. Las investigaciones sobre la
desintegración radiactiva llevadas a cabo por Ernest Rutherford a finales del
siglo X I X y principios del XX, le llevaron a postular la existencia del núcleo
atómico. Esto, a su vez, provocó la segunda revolución científica que se inició
con la teórica cuántica y la teoría de la relatividad a principios del siglo XX.
Esta segunda revolución produjo más ramificaciones y dio lugar a las sub-
ramas especializadas de la física atómica, la física nuclear, la física de partículas
y la física del plasma.
De los físicos que trabajaban en solitario, como Einstein, y los pequeños
laboratorios, como el laboratorio Cavendish de la Universidad de Cambridge
donde Rutherford trabajaba con J. J. Thompson, la cooperación ha ido
incrementándose, no solo entre científicos sino también entre países. Desde
1954, los veinte estados miembros del CERN cooperan para financiar la
construcción de aceleradores de partículas diseñados por sus físicos e ingenieros
para descubrir la interacción de las partículas fundamentales. En 2008, se puso
en funcionamiento el producto tecnológico más grande y más complejo conocido
hasta la fecha, el Gran Colisionador de Hadrones.
Todas las sub-ramas de la física tienen su propio sub-departamento dentro de
los departamentos de física de las universidades y sus propias publicaciones
especializadas.

Química

La química es otra sub-rama que acabó siendo reconocida como ciencia por
derecho propio.

Química: la rama de la ciencia que investiga las propiedades, la


composición y la estructura de las sustancias y los cambios que
experimentan cuando se combinan o reaccionan en determinadas
condiciones.

Sus raíces se encuentran en la alquimia, en la fabricación de municiones y en


los remedios médicos. Es debatible el momento en que emergió como ciencia tal
y como entendemos actualmente el término. Algunos, sobre todo en el entorno
británico, lo atribuyen al teólogo y físico inglés Robert Boyle, conocido por sus
leyes sobre las propiedades de los gases. Fue, afirman, su publicación de El
químico escéptico, en 1661, lo que separó la química del arte esotérico de la
alquimia. Se trata de una lectura incorrecta del libro, que critica solo a aquellos
alquimistas que divorciaron su trabajo de cualquier base teórica. Boyle siguió
practicando la alquimia durante toda su vida.
Lo que sí es evidente es que la química huyó de sus raíces supersticiosas y se
separó de la física durante el último cuarto del siglo XVIII, gracias al trabajo de un
grupo de científicos franceses liderado por Antoine Lavoisier. Debido al
secretismo que guardaban los alquimistas y los fabricantes de municiones, los
componentes y sus interacciones recibían nombres distintos, razón por la cual
era complicado, si no imposible, realizar comparaciones y pruebas objetivas.
Lavoisier introdujo una nueva nomenclatura química que permitió a los
químicos compartir y expandir sus conocimientos empíricos y escribió el primer
manual de química, que incluía un programa de investigación y una metodología
cuantitativa para futuros químicos.
El reconocimiento como una rama independiente de la ciencia llegó con el
establecimiento de sus propias sociedades de eruditos, como la Chemical Society
de Londres, en 1841, que acabó convirtiéndose en la Royal Chemical Society,
seguida por sociedades similares en Alemania, Estados Unidos y otros países,
además de departamentos propios en las universidades.
El incremento de conocimientos y comprensión de la materia llevó a esta
rama de la ciencia a diversificarse. Los químicos reconocieron que las
propiedades de los componentes de origen biológico eran muy distintos de los de
origen mineral, de modo que algunos se especializaron en investigar lo que
denominaron la química orgánica. En 1828, Friedrich Wohler descubrió que una
molécula orgánica podía estar compuesta de moléculas inorgánicas, de modo que
la definición cambió. La química orgánica se convirtió simplemente en la
química del carbono y sus componentes, y la química inorgánica pasó a ocuparse
de todos los demás elementos, mientras que la química física se consagró al
estudio de las propiedades físicas de las sustancias, como su comportamiento
eléctrico y magnético y su interacción con los campos magnéticos.
Estas ramas se subdividieron aún más en ramas especializadas como la
química órgano-metálica, la química de polímeros y la nanoquímica.

Ciencias de la Tierra

Más difícil es incluso discernir en qué momento las ciencias de la Tierra se


independizaron como grupo.

Ciencias de la tierra: las ramas de la ciencia que estudian el origen, la


naturaleza y la conducta de la Tierra y sus partes, incluyendo sus
interacciones.

Entre los siglos X y XII, los intelectuales del imperio musulmán escribieron
sobre estos temas. En la segunda parte del compendio titulado El libro de la
curación, publicado en 1027, el físico y erudito persa Avicena propuso,
basándose en estudios de campo realizados en lo que hoy en día es Uzbekistán,
explicaciones sobre la formación de las montañas, el origen de los terremotos, la
formación de minerales y fósiles y otros temas clasificados en la actualidad
como geología y metereología.[17] A finales del siglo XV, Leonardo da Vinci
especuló correctamente sobre la naturaleza de los fósiles y el papel que juegan
los ríos en la erosión del terreno y la estratificación de las rocas sedimentarias.
Las ciencias de la Tierra emergieron claramente como disciplina
independiente en 1795, cuando James Hutton[18] publicó su teoría del
uniformismo, que defendía que los procesos que observamos ahora y que dan
forma a la Tierra —como la erosión, el volcanismo, etc.— fueron también los
responsables de dar forma a la Tierra en el pasado. De ahí que la Tierra fuera
mucho más antigua que lo calculado por la Biblia y que sus rasgos no fueran
consecuencia de sucesos catastróficos como el Diluvio universal del que se salvó
Noé.
Las ciencias de la Tierra se dividieron en cuatro ramas interrelacionadas: la
geología, el estudio de la corteza rocosa de la Tierra, o litosfera, que a su vez se
ramificó en especialidades como la mineralogía, la petrología, la paleontología y
la sedimentología; la geografía física, el estudio de las características de la
superficie del planeta; la oceanografía; y las ciencias atmosféricas.

Ciencias de la vida

En el capítulo 16, que describe la evolución de las ideas sobre la evolución


biológica, se trata el desarrollo de las ciencias de la vida.
La evolución de lo que antes estaba considerado como historia natural y a la
que se dedicaban principalmente clérigos y caballeros adinerados, hacia las
actuales ciencias de la vida, fue consecuencia no solo de la envidia de los físicos
—el deseo de dar una base matemática a la biología[19]—, sino también de los
avances de la tecnología. Las mejoras en la capacidad de aumento del
microscopio de lente única de Leeuwenhoek se consiguieron gracias al invento y
la evolución del microscopio compuesto, pero su límite efectivo de 2.000
aumentos, consecuencia de la longitud de onda de la luz visible, se quedó en
nada a partir del invento, en la década de 1930, del microscopio electrónico,
capaz en la actualidad de aumentar un objeto un millón de veces.
La visualización de imágenes por rayos X, que se desarrolló a principios del
siglo XX a raíz del descubrimiento realizado por Rontgen en 1895, permite ver
cosas como las estructuras óseas bajo la piel y los tejidos blandos, mientras que
las imágenes del ADN obtenidas mediante la difracción de rayos X llevó a la
identificación de su estructura en 1953 y supuso el inicio de una nueva era en la
biología molecular.[20]
El ritmo de innovación tecnológica se incrementó más si cabe en la segunda
mitad del siglo XX con técnicas como la RNM (Resonancia Nuclear Magnética),
para estudiar estructuras moleculares, calcular tasas metabólicas y producir
imágenes de estructuras blancas internas, como músculos y tendones; el PET
(Tomografía por Emisión de Positrones) para controlar la actividad metabólica o
bioquímica mediante un trazador radiactivo inyectado en sangre; y la IRMf
(Imagen por Resonancia Magnética Funcional) para trazar mapas de la actividad
neural del cerebro.
La biología se ramificó en la zoología —que a su vez se ramificó en campos
especializados como la etología (conducta animal), la entomología (insectos), la
biología marina, la ornitología y la primatología— y la botánica, a partir de las
que surgió la genética a principios del siglo XX.
En la segunda mitad del siglo XX, la riqueza de datos generada por el uso de
tecnologías cada vez más sofisticadas, junto con la divulgación de dichos datos,
llevó a la ramificación de las ramas de las ciencias de la vida en campos cada
vez más especializados como la neurociencia, la biología celular, la biología
molecular, la genómica y la bioinformática.
El auge de la cooperación quedó ejemplificado por el Proyecto del Genoma
Humano, iniciado en 1990. Fundado principalmente por el National Institutes of
Health de los Estados Unidos y la Welcome Foundation, una organización
británica sin ánimo de lucro, incluyó miles de genetistas que trabajaron en más
de cien laboratorios repartidos por los Estados Unidos, Japón, Francia, Alemania
y España, además de otros trece países, que cooperaron a lo largo de trece años
para producir un mapa del genoma humano. Esto no significa, por supuesto, que
la competencia haya desaparecido. La compañía Celera Genomics, de Craig
Venter, persiguió el mismo objetivo con la intención de patentar sus resultados y
explotarlos para obtener beneficios.
Ciencias médicas

Según Sherwin B. Nuland, profesor de Cirugía clínica de Yale, los médicos


continuaron tratando a sus pacientes en base al antiguo concepto de los humores
orgánicos durante más de trescientos años después de que se demostrara
empíricamente que la idea era errónea.[21] Pero las ciencias médicas
evolucionaron, sobre todo a partir del segundo cuarto del siglo XX, gracias a la
aplicación de las tecnologías utilizadas también en las ciencias de la vida, y se
dividieron en ramas especializadas.
Uno de los avances más importantes fue el aportado por la tecnología de la
ingeniería genética, por la cual es posible introducir en las células de un
organismo genes nuevos o modificados. Esta técnica se ha utilizado para
producir compuestos como la insulina y la hormona del crecimiento. Su
aplicación futura más espectacular es la de la terapia génica humana, pensada
para sustituir los genes defectuosos implicados en unas 3.000 enfermedades. A
pesar de que el concepto es relativamente sencillo, los avances desde el
desbocado optimismo de los años 90 han sido lentos debido tanto a problemas de
implementación, como a la eliminación de los efectos secundarios mortales
provocados por la utilización de vectores retrovirales para insertar genes en el
genoma.

Psicología

La ciencia más novedosa, la psicología, que emergió a finales del siglo XIX,
tiene sus raíces en la filosofía.

Psicología: la rama de la ciencia que investiga los procesos mentales y


las conductas de individuos y grupos.

Su nombre deriva de la palabra griega «psyche», que significa alma o


respiración, aunque se refiere al estudio de la mente. En el siglo XVII, el filósofo
y matemático francésm Rene Descartes, reivindicó la distinción entre el cuerpo y
la mente: el cuerpo estaba hecho de materia, que era mensurable y divisible; la
mente era una entidad completamente aparte, incorpórea, indivisible y no
espacial cuya función era pensar. Se trata del concepto filosófico del dualismo.

Dualismo: la especulación o creencia de que el universo consta de dos


elementos constituyentes fundamentales, materia y mente, o consciencia.

La ciencia de la psicología empezó a emerger como tal a partir de la filosofía


cuando el médico Wilhelm Wundt fundó en 1879, en la Universidad de Leipzig,
el primer laboratorio psicológico para el estudio experimental de las sensaciones,
la memoria y el aprendizaje. Su trabajo atrajo a estudiantes de todo el mundo y
en 1881, puso en marcha la primera revista para divulgar los descubrimientos de
la psicología experimental. En 1890, William James, un filósofo que impartía
clases de medicina en la Universidad de Harvard, publicó Principios de
psicología, que abarcaba el enfoque experimental pero hacía además hincapié en
la experiencia subjetiva de la mente. No fue hasta el siglo XX que las
asociaciones profesionales y los departamentos universitarios de filosofía y
psicología empezaron a independizarse.
A partir de ahí, la psicología se expandió rápidamente, diversificándose en un
amasijo de ramas según el objetivo, el objeto y el método de estudio, junto con
las correspondientes escuelas de pensamiento. Los objetivos se solapan y van
desde la adquisición de conocimientos y comprensión hasta la aplicación de
dichos conocimientos. Las divisiones de la psicología aplicada incluyen desde la
psicología clínica, para curar enfermedades concretas como la esquizofrenia o la
depresión, hasta la psicología educativa, como por ejemplo la psicología infantil,
pasando por la psicología motivacional, como podría ser el caso de la psicología
deportiva. Los objetos de estudio son la inteligencia, la memoria, el aprendizaje,
la emoción, la personalidad y la conducta grupal, mientras que los métodos van
desde la utilización de fármacos a la hipnosis, el psicoanálisis, los cuestionarios
y los experimentos, pasando por tecnológicas relacionadas con la neurociencia
como el PET y los escáneres cerebrales con RNM. Las escuelas van desde la
conductista hasta la freudiana y junguiana. En el capítulo 24 he considerado dos
ideas conductistas, el reflejo condicionado de Pavlov y el condicionamiento
operante de Skinner, que fueron influyentes a principios y mediados del siglo XX,
respectivamente, y he llegado a la conclusión de que no consiguieron explicar
por qué los humanos piensan y se comportan como lo hacen.[22]
A principios de los años 60, el centro neurálgico de este amasijo proteico
había pasado de los departamentos universitarios a hospitales, clínicas, consultas
privadas y empresas. Me centraré en dos de las múltiples sub-ramas de la
psicología porque afirman ser capaces de responder a la pregunta fundamental
de esta investigación: ¿quién somos?

Neuropsicología

En La búsqueda científica del alma,[23] publicado en 1994, Francis Crick,


que había recibido el Premio Nobel por el descubrimiento conjunto de la
estructura del ADN, respondió sucintamente a la pregunta:

La Hipótesis Asombrosa es que «Tú», tus alegrías y tus penas, tus recuerdos y tus ambiciones, tu
sentido de la identidad y tu libre albedrío, no son en el fondo más que la conducta de un montón de
células nerviosas y de las moléculas asociadas a ellas.[24]

Como la mayoría de científicos, Crick rechazó el dualismo cartesiano para


favorecer el monismo.

Monismo: la especulación o creencia de que todo lo que existe está


formado, y es reducible, a la misma realidad suprema o principio de
existencia.

Y su versión particular, conocida como fisicalismo.

Fisicalismo: la especulación o creencia de que solo la materia física es


real y que todo lo demás, como la mente, la consciencia o los
pensamientos, acabarán explicándose como objetos físicos o sus
interacciones; conocido también como materialismo, incorpora una visión
más amplia de la fisicidad que la materia, por ejemplo, fuerzas no
materiales como la gravedad, que surgen de la materia.

El punto de vista de Crick es lo que Julian Huxley denominó «en absoluto


lisonjero». Es evidente que somos algo más que la conducta de nuestras
neuronas y las moléculas asociadas a ellas. Las neuronas transmiten impulsos
eléctricos en respuesta a los estímulos, pero las neuronas y sus redes no
entienden el contenido informativo de estos impulsos.
Aun en el caso de que asumiéramos que la mente está generada por nuestras
neuronas y sus interacciones, o emerge de ellas, la mente no es lo mismo que el
cerebro. Por ejemplo, la decisión de disparar al vecino provoca la activación de
neuronas cerebrales que envían señales que activan los músculos del brazo y los
dedos para que cojan una escopeta, apunten al vecino y presionen el gatillo. Pero
las que toman la decisión no son las neuronas cerebrales.
Además, la neuropsicología, o al menos lo que dice Crick de ella, no ha sido
capaz de proporcionar observaciones verificadas o experimentos independientes
que expliquen en qué consiste tener experiencias subjetivas de los fenómenos,
como la noción del yo, la sensación de orgullo, la sensación de escuchar música
o de ver un color (lo que se conoce como los qualia). Dos destacados
neurocientíficos, V. S. Ramachandran y Colin Blakemore, describen el
problema:

El acertijo de los qualia queda perfectamente ilustrado con un experimento mental. Imaginemos un
neurociéntifico del futuro, que conoce a la perfección el funcionamiento del cerebro —incluyendo
los mecanismos de la visión del color— pero que resulta que tiene problemas para discriminar los
colores y no puede diferenciar entre rojo y verde. Utiliza las técnicas más novedosas de escaneado
para generar una descripción completa de todos los sucesos eléctricos y químicos que se producen
en el cerebro de un ser humano normal cuando visualiza un objeto rojo. El relato funcional podría
parecer completo, ¿pero cómo es posible que lo sea sin una explicación del carácter de la
experiencia única que proporciona el rojo y que el científico nunca ha percibido personalmente?
Existe una distancia epistemológica inmensa entre las descripciones de los sucesos físicos que se
producen en el cerebro y las experiencias personales y subjetivas que suponemos asociadas a dichos
sucesos.[25]

Hasta que la neuropsicología no pueda explicar empíricamente las


experiencias subjetivas, la respuesta de Crick a la pregunta permanecerá en el
terreno de la filosofía más en el de la ciencia, e incluso en ese terreno el
argumento tiene puntos débiles.

Psicología evolutiva

La otra sub-rama de la psicología que dice responder a la pregunta es la


psicología evolutiva: lo qué somos, en el sentido de qué pensamos, cómo nos
comportamos y qué sentimos, es el resultado de la acumulación neodarwinista de
mutaciones genéticas aleatorias, durante miles de generaciones, que son las
responsables de los mecanismos psicológicos seleccionados naturalmente para
proporcionar una ventaja adaptativa en la competencia por la supervivencia de
nuestros antepasados de la Edad de Piedra. Según lo expresan Leda Comides y
John Tooby, codirectores del Centro de Psicología Evolutiva de la Universidad
de California, Santa Barbara: «Nuestro cráneo moderno alberga una mente de la
edad de piedra».[26]
Los supuestos de los psicólogos evolutivos, por ejemplo, que la mente
humana consiste en una gran colección de módulos computacionalmente
distintos conformados por selección natural para resolver un determinado
problema de la Edad de Piedra, son altamente cuestionables. Sus métodos son
los modelos matemáticos basados en el gen y los juegos de la sociobiología. No
repetiré aquí los muchos defectos de estos modelos aplicados a los animales
puesto que ya han quedado expuestos en el capítulo 23,[27] y solo diré que los
defectos se hacen mucho más patentes cuando se aplican a humanos reflexivos.
Por ejemplo, la persona que ha nacido y se ha criado en Tíbet presenta muchas
más probabilidades de pensar y comportarse como un budista que la persona que
ha nacido y se ha criado en Arabia Saudí, que mucho más probablemente
pensará y se comportará como un musulmán, mientras que quien ha nacido en
Falls Road, Belfast, presentará muchas más probabilidades de ser un cristiano
católico que odia a los cristianos protestantes nacidos y criados en Shankill
Road, al otro lado del famoso «muro de la paz» de 12 metros de altura.
Enfrentados con evidencias de este calibre, algunos psicólogos evolutivos se
alejaron de la línea dura de la explicación de la naturaleza humana como una
máquina de genes, que defiende que somos marionetas de nuestros genes, y
propusieron la hipótesis del entorno de adaptación evolutiva. La hipótesis
defiende que existe una naturaleza humana básica que está genéticamente
programada para la supervivencia en la Edad de Piedra y que determina el
pensamiento, la conducta y emociones como el orgullo y la culpabilidad. Sin
embargo, existe también un programa de desarrollo genéticamente determinado
que absorbe información del entorno social y adapta la mente en consecuencia
mediante un proceso de maduración, afinando, a todos los efectos, estas
facultades básicas para que, por ejemplo, algunos se sientan menos culpables
que otros. Hemos heredado este rango de pensamientos, conductas y emociones
de la Edad de Piedra.[28] No existen evidencias que sustenten este intento
especulativo de racionalizar los defectos del determinismo genético. Además, la
hipótesis sigue sin demostrar cómo ideas humanas como la de concebir la
mecánica cuántica para explicar las interacciones de las partículas subatómicas o
la de componer una sinfonía son el resultado de una naturaleza humana
programada genéticamente para la supervivencia en la Edad de Piedra.
Otro cambio en el énfasis hacia la idea de que el entorno tiene una influencia
sobre lo que somos adopta la forma de la hipótesis de la co-evolución genético-
cultural, o herencia dual, que defiende que lo que somos y cómo nos
comportamos es resultado de la interacción de dos mecanismos evolutivos
darwinianos distintos: el genético y el cultural. Una hipótesis que no está
tampoco libre de problemas. Por ejemplo, diversos estudios divergen en cuanto a
explicar si existe una base genética para la homosexualidad. Los que afirman
que la hay, se abonan al neodarwinismo. En consecuencia, necesitan explicar
cómo se transmite esta combinación de genes y cómo se acumula en el acervo
génico humano a lo largo de muchísimas generaciones, puesto que los
homosexuales presentan menos probabilidades de tener descendencia y
transmitir sus genes. Los intentos de explicación son, en el mejor de los casos,
en absoluto convincentes.
Nadie razonable puede negar que los genes jugaron un papel importante en la
evolución biológica humana o que podrían jugar un papel en la evolución del
pensamiento, las emociones y la conducta humana. Sin embargo, como vimos en
la segunda parte, a pesar de las reivindicaciones del neodarwinismo, las
complejidades de su papel, de su regulación y de su interacción con el entorno
en la evolución biológica siguen sin estar bien comprendidas. Lo cual concede
menos firmeza a los deterministas genéticos en el campo de la psicología.
Para completar la explicación, me gustaría añadir que la facultad de la
consciencia reflexiva no solo permite a los humanos trascender su herencia
genética, sino que además les permite trascender su herencia cultural: muchas
personas nacidas y criadas en Falls Road han llegado a la conclusión que odiar a
los protestantes que viven al otro lado del «muro de la paz» es moralmente
incorrecto y hacen campaña para que sea derribado.

Interactividad y sub-ramas híbridas

La imagen bidimensional simplificada de la figura 29.1 no muestra las


ciencias psicológicas ni otras ciencias sociales como la arqueología, la
antropología y la sociología que se ramificaron a partir de las ciencias de la vida
a finales del siglo XIX.
Tampoco transmite ni la profusión de sub-ramas especializadas ni sus
interacciones para producir nuevas sub-ramas híbridas, como la astrofísica, la
astroquímica, la biogeografía y la bioquímica.

Tendencia convergente

La figura 29.1 muestra el patrón de ramificación divergente del pensamiento


científico desde finales del siglo XVI. Pero contra esta tendencia predominante
aparece la de la convergencia, liderada por la ciencia fundamental de la física.
La figura 29.2 se inspira en la explicación del descubrimiento de las cuatro
fuerzas fundamentales de la naturaleza del capítulo 8 para ilustrar esta tendencia.
Se inició a finales del siglo XVII, cuando Newton reconoció que la fuerza que
lleva a los objetos a acelerar hacia el suelo es la misma fuerza que lleva a los
planetas a orbitar alrededor del sol y a las lunas a orbitar alrededor de sus
planetas. La corriente eléctrica fue descubierta a mediados del siglo XVIII y
resultó ser una manifestación de la fuerza de la electricidad estática, que se
conocía desde la antigüedad, mientras que ya en el primer cuarto del siglo XIX,
los físicos demostraron que la fuerza eléctrica y la fuerza magnética son aspectos
distintos de una fuerza electromagnética subyacente.

La comprensión de que fenómenos físicos subyacentes aparentemente


distintos eran la misma causa de otros fenómenos, aumentó con rapidez en el
siglo XX. Los físicos teorizaron que la fuerza electromagnética y la fuerza
nuclear débil —la interacción entre partículas elementales responsable de la
desintegración nuclear que es en varios órdenes de magnitud más débil que la
fuerza electromagnética— eran manifestaciones distintas de la misma fuerza, a
la que dieron el nombre de fuerza electrodébil, o interacción electrodébil. La
teoría predijo la existencia de nuevas partículas, que acabaron descubriéndose a
través de experimentos.
Los físicos teóricos produjeron varios modelos matemáticos para una Teoría
de Gran Unificación (TGU) que una la fuerza electrodébil y la fuerza nuclear
fuerte, la fuerza más fuerte conocida que actúa solo a distancias muy pequeñas
dentro de un núcleo atómico y une partículas dentro del núcleo, aunque no
existen todavía datos experimentales que validen ninguno de los modelos.[29]
El santo grial de la física, sin embargo, sería unir todas estas teorías, que
pretenden explicar las interacciones de fenómenos a escala minúscula —del
tamaño de un átomo o inferior— con la teoría de la relatividad, que explica las
interacciones a escala muy grande —del tamaño de una estrella y superior— en
una Teoría del Todo.[30] Se han planteado candidatas, como las muchas
versiones de la conjetura de cuerdas y la gravedad cuántica de bucles. Y mientras
que por el momento no existe forma conocida de someter estas hipótesis a
pruebas empíricas,[31] el impulso de la física teórica, sobre todo en los últimos
veinticinco años, está en intentar demostrar que todos los fenómenos físicos del
universo son manifestaciones de energía a un nivel inferior de una energía
fundamental presente en los inicios del universo.

Resultados del pensamiento científico[32]

Un resultado remarcable de esta fase de la evolución humana es el


incremento del conocimiento empírico. La figura 29.1 no transmite su verdadero
volumen. Según el historiador de la ciencia, Derek de Solla Price:

Cualquier tipo de unidad de medición, independientemente de cómo se haya llegado a ella, muestra
a primera vista que la ciencia aumenta exponencialmente, con un interés compuesto de en torno al 7
por ciento anual, lo que significa que suplica su tamaño cada 10-15 años, se multiplica por diez cada
medio siglo, y por un millón en los 300 años que nos separan del invento del artículo científico en el
siglo XVII, cuando se inició el proceso.[33]

La unidad de medición principal que emplea es el número de artículos


científicos publicados hasta 1960. Peder Olesen Larsen y Markus von Ins
controlaron ese crecimiento entre 1907 y 2007, y llegaron a la conclusión de que
no existen indicios de que el ritmo haya bajado en los últimos 50 años.[34]
Además, como se ha indicado ya en un momento anterior de este capítulo, desde
finales del siglo XX tenemos que sumar a esto el crecimiento en el número de
artículos científicos publicados en páginas web de acceso abierto como arXiv,
PLoS y las páginas web personales de muchos científicos.
Volviendo a las ramas científicas a nivel individual, una medida de los
resultados del pensamiento científico en las ciencias médicas es la esperanza de
vida al nacer, un dato que se plasma en la tabla 29.1.

A pesar de que, en todos los casos excepto en los datos más recientes, se trata
de burdas estimaciones, lo que resulta chocante es el gran incremento en la
esperanza de vida observado a lo largo de los últimos cien años en países
científicamente desarrollados como los Estados Unidos, lo que demuestra de
manera inequívoca que es un hecho que no puede atribuirse a la selección
natural. Y no se trata simplemente de una prolongación de la vida libre de
enfermedades, sino también de la duración de la vida activa.[35] La explicación
más razonable es la correlación existente con la evolución de las ciencias
médicas, que han producido una mejor comprensión de las enfermedades y han
desarrollado medidas para combatirlas. Por ejemplo, el agua potable, el
alcantarillado, la eliminación de basuras, los estándares de seguridad alimentaria,
los programas de control del mosquito y los programas de educación para la
salud han reducido drásticamente la propagación de muchas enfermedades
infecciosas. Las vacunas han eliminado prácticamente enfermedades que
antiguamente eran comunes como la difteria, el tétanos, la poliomielitis, la
viruela, el sarampión, las paperas y la rubeola. Además de las tecnologías de
diagnóstico antes mencionadas, este periodo ha vivido también el desarrollo de
intervenciones quirúrgicas cada vez más perfeccionadas, incluyendo trasplantes
de riñón, corazón y otros órganos.
La primera parte de este libro y el primer capítulo de la segunda parte
detallan los principales resultados del pensamiento científico en las ciencias
físicas que han producido un veloz incremento de nuestros conocimientos y
nuestra comprensión del origen y la evolución del universo y de cómo la Tierra
acabó convirtiéndose en un planeta adecuado para la vida, y detallan asimismo
los límites actuales de estos conocimientos y comprensión. El resto de la
segunda parte hace lo mismo para las ciencias de la vida en términos de
emergencia y evolución de la vida en general, mientras que la tercera parte es un
intento de mostrar los resultados de nuestro conocimiento y comprensión de
nuestra emergencia y evolución, no solo a través de la física y las ciencias de la
vida, sino también a través de las ciencias sociales.
Este incremento geométrico del conocimiento —un logro notable para el
pensamiento científico— ha dado necesariamente como resultado el crecimiento
de la especialización del pensamiento científico, demostrado por el aumento en
el número de publicaciones científicas, cada una de las cuales se centra en un
campo de investigación determinado. Sin embargo, el distinguido entomólogo y
pensador Edward O. Wilson, lanza unas palabras de advertencia:

Los científicos, en su mayoría, nunca han sido más que obreros de prospección. Y hoy en día la
situación es aún más clara. Se concentran única y exclusivamente en su profesión; su formación no
los orienta hacia los contornos más amplios del mundo. Adquieren la formación necesaria para
viajar hasta la frontera y hacer descubrimientos, y hacerlos lo más rápidamente posible, puesto que
la vida en el límite es cara e incierta. Los científicos más productivos, instalados en laboratorios de
millones de dólares, no tienen tiempo para pensar en la imagen global y tampoco ven que puedan
obtener de ella pingües beneficios […]. No es de extrañar, por lo tanto, encontrar físicos que no
sepan ni lo que es un gen y biólogos que piensen que la teoría de cuerdas es algo que tiene que ver
con los violines. En la ciencia, las becas y los premios se otorgan por descubrimientos, no por la
erudición y la sabiduría.[36]

Ser un científico de éxito en la actualidad significa dedicar toda a una carrera


a la química de coloides, a la paleoarqueología, al estudio de los chimpancés o a
cualquier otro campo igual o más especializado. Esta estrechez de miras con
respecto a la indagación ha producido una gran profundidad de conocimientos,
pero también ha excavado trincheras de experiencia en los que sus practicantes
encuentran difícil entablar un diálogo con sentido con otros especialistas,
excepto en aquellos puntos donde las trincheras se entrecruzan en un estudio
interdisciplinario sobre el mismo y limitado tema.
Son muy pocos los científicos que trascienden su campo de especialización
para abordar preguntas fundamentales de la existencia humana como quién
somos. Los pocos que lo hacen rara vez se enzarzan con mentalidad abierta en
ningún tipo de debate. En general, son incapaces de ver la imagen global y desde
sus trincheras tienden a disparar una descarga de puntos de vista derivados de la
formación, la concentración y la cultura de la estrecha disciplina académica a la
que consagran su vida profesional.
La especialización, por otro lado, refuerza además la creencia en el
reduccionismo científico —desensamblar un objeto en sus distintas partes para
comprender qué es y cómo funciona— como único método de indagación
científica. Esta herramienta analítica ha demostrado ser extremadamente útil
para aumentar nuestra comprensión de los fenómenos naturales y puede explicar
de forma satisfactoria la esencia y la conducta de sistemas relativamente simples
y aislables, como por qué un cristal de sal se disuelve en agua. Su poder
explicativo pierde efectividad cuanto más complejo y menos aislable es el
fenómeno. Como se ha visto en el capítulo 13, presenta limitaciones
considerables cuando se aplica a explicar y definir la vida.[37] Sus limitaciones
quedan en más evidencia si cabe cuando se trata de ofrecer una explicación de
qué son los humanos, tal y como hemos visto en la conclusión simplista de
Crick.
Además, hay que plantearse la pregunta de hasta dónde llega el alcance el
reduccionismo. Crick tal vez pensara que la reducción hasta el nivel de la célula
proporciona una explicación completa para el fenómeno de la consciencia, pero
¿por qué detenerse aquí? Si seguimos reduciendo hasta el nivel de las moléculas,
luego los átomos y luego las partículas subatómicas, llegamos al nivel cuántico.
Varias interpretaciones de la teoría cuántica exigen la observación consciente del
campo cuántico antes de que este colapse en materia.[38] Si estas
interpretaciones son correctas, la consciencia no podría ser resultado de
fenómenos materiales como las neuronas y su interacción.
Por lo que al reduccionismo se refiere, el teórico cuántico David Bohm
comenta:

Un cambio esencialmente relevante en el orden descriptivo exigido por la teoría cuántica consiste,
pues, en dejar de lado el concepto de análisis del mundo en partes relativamente autónomas, que
existen por separado pero interaccionan. El énfasis principal debe ponerse ahora en la totalidad
indivisa.[39]

Como Bohm, la mayoría de pioneros de la teoría cuántica se apuntaron a una


versión distinta de monismo que el fisicalismo denominó idealismo.

Idealismo: la especulación o creencia de que las cosas materiales no


existen independientemente sino que existen solo como construcciones de
la mente o consciencia.

Cuando se aplica a responder a las preguntas fundamentales de la existencia


humana, este idealismo monista converge hacia una revelación mística común.
De hecho, muchos teóricos cuánticos sostienen puntos de vista similares a los de
los místicos. Erwin Schrodinger, que creó la ecuación de onda de la mecánica
cuántica, expresó en su último libro, Mi concepción del mundo,[40]una visión
metafísica que mantiene muchos paralelismos con el misticismo de la escuela
vedanta, advaita, que ve los fenómenos materiales como una ilusión o como una
manifestación de la Consciencia Cósmica que es el origen y la base de la
realidad. Según Max Planck, que formuló la revolucionaria teoría cuántica de la
radiación:[41]

Toda la materia se origina y existe solo en virtud de una fuerza […]. Debemos asumir detrás de esta
fuerza la existencia de una Mente consciente e inteligente. Esta Mente es la matriz de toda la
materia.[42]

En El tao de la física,[43] publicado por primera vez en 1975, el físico


especializado en física subatómica Fritjof Capra, realiza una comparación
sistemática entre los descubrimientos de la física moderna y las revelaciones del
misticismo oriental. Y concluye:

Los dos temas básicos [de las revelaciones místicas orientales] son la unidad e interrelación de todos
los fenómenos y la naturaleza intrínsecamente dinámica del universo. Cuánto más nos adentremos
en el mundo submicroscópico, más nos daremos cuenta de que el físico moderno, al igual que el
místico oriental, ve el mundo como un sistema de componentes inseparables, interrelacionados y en
constante movimiento, en el que el observador forma parte integral de dicho sistema.[44]

Si las ramas de la física llevan convergiendo los últimos 25 años hacia una
explicación de que todo lo que percibimos en el universo son manifestaciones de
energía inferior de la energía única que estaba presente en sus inicios, y esto
converge también con las antiguas revelaciones místicas, podríamos estar ante
una profunda tendencia convergente opuesta a la tendencia divergente que ha
caracterizado más de 400 años de evolución del pensamiento científico.
[1] Véase página 58.
[2]Roberts (1989), pp. 75–81.
[3]Citado en Stachel (2002), p. 89.
[4] Véase, por ejemplo, página 146, página 155, página 435 y página 608.
[5] Véase, por ejemplo, página 154, página 597 y página 640.
[6]Ni (1995).
[7] Véase página 763.
[8] Véase página 775.
[9] Véase páginas 740 a 743.
[10]Ragep, F. Jamil, «Copernicus and His Islamic Predecessors: Some Historical Remarks», History of
Science, 45, 2007, pp. 65–81; Saliba, George, «Whose Science is Arabic Science in Renaissance Europe?»,
1999, http://www.columbia.edu/~gas1/project/visions/case1/sci.1.html#t1,consultado el 30 de noviembre
de 2012.
[11]Gottlieb (2001), p. 386.
[12]Ibíd, pp. 402–403.
[13] De hecho, en inglés se conserva el nombre original y spyglass significa catalejo o anteojo. (N. de
la T.)
[14]Van Helden, Albert, 1995, http://galileo.rice.edu/sci/instruments/telescope.html#4, consultado el 11
de mayo de 2014.
[15]Gottlieb (2001), p. 414.
[16]http://www.eso.org/public/teles-instr/e-elt.html, consultado el 8 de marzo
de 2013.
[17]Al-Rawi, Munim M., «The Contribution of Ibn Sina (Avicenna) to the Development of Earth
Sciences», Foundation for Science Technology and Civilisation, 2002,
http://www.muslimheritage.com/uploads/ibnsina.pdf, consultado el 11 de mayo de 2014.
[18] Véase página 401.
[19] Véase página 438.
[20] Véase página 441.
[21]Nuland, Sherwin B., «Bad Medicine», New York Times, 8 de Julio de 2007, Book Review.
[22] Véase página 615.
[23]The Astonishing Hypothesis: The Scientific Search for the Soul, publicado en español bajo el título
La búsqueda científica del alma, Editorial Debate, Barcelona, 2003.
[24]Crick (1995), p. 3.
[25]Ramachandran, V. S. y Blakemore, Collin, «Consciousness», en The Oxford Companion to the
Body, Oxford University Press, Oxford, 2003.
[26]Cosmides, Leda y Tooby, John, «Evolutionary Psychology: A Primer», 1997,
http://www.cep.ucsb.edu/primer.html, consultado el 30 de enero de 2013.
[27] Véase páginas 585 a 602.
[28]Cosmides y Tooby (1997); Wright (1996).
[29] Véase páginas 88 y 192.
[30] Véase página 192.
[31] Véase página 130.
[32]Véase, por ejemplo, MacIntyre, Ferren y Estep, Kenneth W., «Sperm Competition and the
Persistence of Genes for Male Homosexuality», Biosystems, 31: 2–3, 1993, pp. 223–233.
[33]Price (1965).
[34]Larsen, Peder Olesen e Ins, Markus, «The Rate of Growth in Scientific Publication and the Decline
in Coverage Provided by Science Citation Index», Scientometrics, 84: 3, 2010, pp. 575–603.
[35]«Life Expectancy», Gale Encyclopedia of American History, 2006.
[36]Wilson (1998), pp. 40–41.
[37] Véase páginas 326 a 339.
[38] Véase página 160.
[39]Bohm (1980), p. 134.
[40]My View of the World, publicado en español bajo el título Mi concepción del mundo, Tusquets
Editores, Barcelona, 1988.
[41]Schrodinger (1964).
[42]Citado en Braden (2008), p. 212, de una conferencia «Das Wesen der Materie» ofrecida por Planck
en 1944 en Florencia.
[43]The Tao of Physics, publicado en español bajo el título El tao de la física, Editorial Sirio, Málaga,
2012.
[44]Capra (2000), p. 25.
CAPÍTULO 30. LA SINGULARIDAD DEL SER
HUMANO

No somos más que una tercera especie de chimpancés.

JARED DIAMOND, 1991

Este es un regalo de un mundo pequeño y lejano, una muestra de nuestros sonidos, nuestra ciencia,
nuestras imágenes, nuestra música, nuestras ideas y nuestros sentimientos. Estamos intentando sobrevivir a
nuestro tiempo para poder vivir en el vuestro.

MENSAJE DEL PRESIDENTE DE LOS ESTADOS UNIDOS, JIMMY CARTER, GUARDADO EN LA


NAVE ESPACIAL VOYAGER, 1977

La ortodoxia actual

Una inmensa mayoría de primatólogos, antropólogos y biólogos evolutivos


niega que el hombre sea distinto a los demás animales. Sus argumentos pueden
agruparse en tres conjuntos que se solapan entre sí.

Ego-antropocentrismo

Según este argumento, pese a que los humanos son superiores a otras
especies en determinadas características, como el tamaño del cerebro y la
destreza manual, existen otras especies que los superan en otras características.
Así, los murciélagos poseen unas dotes de ecolocalización excelentes, las aves
poseen unas dotes de navegación supremas, y podríamos encontrar muchos
ejemplos más entre otras especies. Poner un conjunto de características por
encima de otro por el simple hecho de que las poseemos nosotros es
antropocéntrico, egoísta, subjetivo y en absoluto científico.
Este punto de vista se centra en las diferencias fisiológicas y no reconoce las
facultades que transforma u origina la consciencia reflexiva, una facultad
superior exclusiva del hombre. Por mucho que los humanos no dominen la
ecolocalización, han inventado el radar, que realiza esta función por ellos. Por
mucho que los humanos no sean buenos navegantes, han inventado el GPS
(Global Positioning System) que les ofrece una capacidad de navegación muy
precisa. Resulta difícil pensar en una característica animal que la creatividad y la
inventiva de los humanos no haya compensado. Ninguna otra especie ha
trascendido sus características fisiológicas naturales de esta manera.

Identidad genética

Este argumento, articulado por Gerhard Roth, del Brain Research Institute de
la Universidad de Bremen, defiende que los humanos comparten el 99 por ciento
de sus genes con dos especies de chimpancés. Estas tres especies están más
estrechamente relacionadas genéticamente que los chimpancés puedan estarlo
con cualquier otro primate actual. De ahí que podría crearse un nuevo taxón que
incluyera el chimpancé, el bonobo y el hombre.[1]
De hecho, los humanos y los chimpancés no comparten el 98,5 por ciento de
sus genes, como se afirma con frecuencia. Esta diferencia del 1,5 por ciento es
una medida de la diferencia entre genes equivalentes; la diferencia real en
complementos de genes es más bien del 6 por ciento.[2] Además, una serie de
mutaciones en el ADN humano producidas con posterioridad al antepasado
común de chimpancés y humanos genera, entre otras cosas, moléculas de ARN
que están implicadas en el desarrollo del cerebro en los fetos humanos.[3]
Y lo que es más importante, esta fijación en el 2 por ciento del genoma
humano que consiste en genes productores de proteínas ignora secuencias
reguladoras mucho más importantes que determinan cuándo, en qué grado y
durante cuánto tiempo están conectados los genes y, en consecuencia, las
características observables del organismo. Ignora también el aspecto cualitativo
conductual y otras diferencias que se consideran en la réplica siguiente.
Diferencia conductual solo en grado

Esta posición argumenta que las características conductuales humanas no son


únicas. Que el chimpancé, la especie genéticamente más próxima a la nuestra,
también las posee y que la diferencia con la conducta humana es solo en grado,
no en tipo.
Sus defensores sustentan su reivindicación con ejemplos de chimpancés en
estado salvaje. La primera vez que se utilizó este tipo de ejemplo fue en los años
60, cuando se observó un chimpancé retirando las hojas de una rama para poder
hurgar con ella en un termitero y extraer termitas para comérselas. El
antropólogo y paleontólogo Louis Leakey llegó a la conclusión de que
«Debemos definir la herramienta, redefinir al hombre, o aceptar al chimpancé
como humano».[4] Otras observaciones de uso de herramientas muestran a
chimpancés colocando un fruto seco sobre una piedra y sirviéndose de otra
piedra para abrirlo, lo que se ha descrito, tal vez demasiado
antropomórficamente, como fabricación y utilización de un yunque y un
martillo. Además, los chimpancés son capaces de aprender este tipo de
habilidades. Por otro lado, los chimpancés pueden emitir distintos sonidos para
comunicar distintas cosas, lo que demostraría un sencillo lenguaje vocal.
La conducta dominante en todas las especies de los grandes simios es la
agresión. Los gorilas macho luchan entre ellos para poseer su harén y es
frecuente que el ganador mate tanto a las crías del perdedor como al perdedor.
Los chimpancés suelen lanzar ataques sorpresa en grupo contra el territorio de
otras comunidades de chimpancés, aíslan a algún ejemplar adulto, lo golpean y
destrozan a la víctima incluso hasta después de que haya dejado de moverse.
Dentro de una comunidad de chimpancés, los cambios en la jerarquía de machos,
que suele estar liderada por un macho alfa, se producen después de peleas
virulentas, mientras que el mantenimiento de la jerarquía se consigue mediante
exhibiciones de agresividad más que con peleas reales.
Los primatólogos, sin embargo, destacan conductas que contrastan con esta
agresión, como el vínculo entre madre e hijo, el acicalamiento mutuo y la caza
en colaboración. Ejemplos de conductas similares a las humanas son la vida en
sociedades jerárquicas donde el engaño, la infidelidad y la sumisión son
comunes. Además, los científicos destacan también en los grandes simios
emociones similares a las humanas. El conocido ejemplo de dolor es el de una
gorila llamada Gana del zoológico de Munster, en el norte de Alemania, que en
2008 se negaba a abandonar a su bebé de tres meses que había muerto; lo acunó
y lo acarició durante más de una semana.
Además, los test cognitivos realizados por primátologos con grandes simios
jóvenes en cautividad aportan más ejemplos de conducta similar a la humana
(los simios mayores suelen ser demasiado agresivos para ser sometidos a
pruebas). Los jóvenes chimpancés superan a veces a los niños menores de tres
años. Algunos primatólogos afirman que los chimpancés tienen un sentido del yo
porque son capaces de reconocerse en el espejo. También se dice que crías de
grandes simios han aprendido un lenguaje pulsando botones con símbolos en un
ordenador, y que un chimpancé y un gorila habían aprendido el lenguaje de los
signos: habían aprendido centenares de palabras, las habían unido en frases con
sentido y habían creado frases nuevas, como «pájaro de agua» para referirse a un
cisne.
Steven Pinker, psicólogo cognitivo especializado en lenguaje, ha
desacreditado estas afirmaciones, que nunca fueron sometidas a la revisión
científica sino realizadas directamente ante periodistas científicos en la prensa y
television.[5] De hecho, los chimpancés y el gorila habían sido entrenados como
animales de circo. No demostraban más conocimiento de fonología, morfología
y sintaxis que los de aquellos chimpancés jóvenes que salían en anuncios de
televisión en el Reino Unido, disfrazados de humanos adultos y bebiendo té para
demostrar su preferencia por el té PG Tips.
A pesar de ser sometidos a entrenamiento intensivo, ningún chimpancé (a
diferencia de muchos loros) ha demostrado ser capaz de imitar el habla. La
vocalización de emociones en estado salvaje, como el grito de advertencia de
peligro, es cualitativamente distinto a la conversación humana, y ningún
chimpancé sin entrenamiento ha escrito jamás una palabra, y mucho menos un
poema o una novela.
Los bebés humanos nacen con un cráneo blando y flexible que se expande
rápidamente hasta los dos o tres años de edad para acomodar un incremento en el
tamaño y la estructura del cerebro.[6] En consecuencia, no es de extrañar que los
chimpancés jóvenes, que nacen con el cerebro completamente formado, rindan
mejor que los niños de dos años en algunos test cognitivos, del mismo modo que
tampoco es sorprendente que los chimpancés no rindan mejor que niños ya más
mayores.

Conductas exclusivas de los humanos

En el capítulo 24, he cartografiado el aumento de la consciencia a lo largo del


linaje humano examinando cinco tipos de conducta que se solapaban entre sí:
respuesta directa, innata, aprendida, social e innovadora. La emergencia de la
consciencia reflexiva inició una transformación radical de muchos de estas
conductas.
Los humanos siguen exhibiendo respuestas directas de supervivencia. Sin
embargo, a diferencia de lo que sucede con otros animales, los humanos pueden
tomar la decisión de reprimirlas. Recurriendo al ejemplo ofrecido en el capítulo
24, un humano puede decidir mantener la mano en el fuego o incluso quemarse
vivo: la autoinmolación tiene siglos de tradición en algunas culturas y en
tiempos modernos se ha utilizado como forma de protesta política.
El solapamiento de respuesta directa y conductas innatas que puede
agruparse como instinto sigue jugando un papel importante. Por ejemplo, la
inmensa mayoría de humanos responderán a un ataque con otro ataque o con la
huida. Sin embargo, si las reflexiones nos han llevado a creer en el principio de
la no violencia y elegimos exhibirlo, reprimiremos el instinto de atacar o huir,
como hicieron los seguidores de Gandhi, que se dejaron matar por las tropas
colonialistas británicas en la India anterior a su independencia. En un ejemplo
mucho menos dramático, la mayoría de humanos varones reprimen el instinto de
mantener relaciones sexuales con cualquier mujer cuyo aspecto les estimule
porque han elegido racionalmente respetar los derechos de las mujeres y/o han
acordado respetar una ley determinada por la sociedad de la que forman parte,
del mismo modo que los humanos que deciden ponerse a dieta reprimen el
instinto de comer cuando el hambre los estimula.
La conducta humana aprendida es radicalmente distinta de la de cualquier
otro primate porque su proceso de aprendizaje se diferencia, tanto cualitativa
como cuantitativamente, de cuatro maneras:
1. Los primates no humanos aprenden casi exclusivamente a través de la
imitación, mientras que los humanos aprenden principalmente a través de
la enseñanza.
2. Con los primates, la relación de aprendizaje suele ser entre las crías y sus
padres o parientes próximos, mientras que los padres humanos enseñan a
su descendencia durante los primeros cinco años de vida y luego, durante
los diez o veinte años posteriores, la enseñanza pasa manos de figuras sin
parentesco alguno con el aprendiz: especialistas en colegios, institutos,
universidades, empresas, etc. que utilizan medios diversos, como clases,
libros, ayudas audiovisuales e internet.
3. Los primates solo aprenden habilidades de supervivencia, tanto directas
como indirectas, como la búsqueda de comida, la caza, la fabricación de
utensilios rudimentarios para uso individual, o el acicalamiento mutuo,
mientras que los humanos aprenden además una inmensa variedad de
habilidades que van mucho más allá de la simple supervivencia, como
literatura, artes, filosofía y ciencia.
4. Los humanos son capaces de aprender por sí solos utilizando recursos
creados por otros humanos, como bibliotecas y la World Wide Web.

En términos de conducta social, los primates no humanos pertenecen a un


único grupo social, casi siempre familiar, cuyos objetivos son la supervivencia y
la reproducción. En las llamadas sociedades de fisión-fusión, la pertenencia al
grupo puede cambiar pero, en cualquier momento de su vida, el individuo solo
será miembro de un único grupo. Por otro lado, los humanos pueden pertenecer
simultáneamente a muchos grupos sociales, cuyos objetivos van mucho más allá
de la supervivencia y la reproducción y pueden operar a nivel familiar, local,
regional, nacional, supranacional y global.
La interacción entre los miembros de los grupos de primates son sensoriales:
tacto, gusto, olfato, vista y oído. Con los humanos, sin embargo, por mucho que
el tacto, el gusto y el olfato estén presentes en el seno de las familias, estos
sentidos juegan un papel relativamente pequeño en el resto de interacciones
sociales. Además, en los humanos, la vista y el oído están aumentados gracias a
inventos como las cartas, el correo electrónico, la fotografía, el cine, las
imágenes de webcam, los teléfonos fijos los teléfonos móviles y las conferencias
online que extiende su alcance de lo local a lo global.
Estos inventos son resultado del quinto tipo de conducta: la innovadora.
Los 533 casos de innovación, definidos como soluciones nuevas a problemas
medioambientales o sociales, citados por los primatólogos para todos los
primates,[7] pueden ampliarse con los que aportan los investigadores que
estudian la familia de los cuervos y mamíferos marinos como los delfines y las
ballenas. Son ejemplos, que difieren de las innovaciones humanas tanto
cualitativa como cuantitativamente.
El único objetivo de las innovaciones no humanas es la supervivencia, como
sucede cuando un chimpancé retira las hojas de una rama para sacar termitas de
un nido o utiliza una piedra para partir la cáscara de un fruto y, en ambos casos,
obtener sustento.
Además, las reivindicaciones de los primatólogos en cuanto a la similitud en
genes y en conductas, como la fabricación de utensilios, entre humanos y simios
ilustra una de las consecuencias de la especialización científica mencionada en el
capítulo 29, es decir, una concentración de estudio tan grande que impide ver la
imagen global. En este caso, los primatólogos no reconocen que las conductas de
los primates están también presentes en otras especies genéticamente muy
distintas. Los cuervos de Nueva Caledonia limpian y modelan ramas para darles
forma de gancho y poder extraer con ellas las larvas de insectos que se acumulan
en los agujeros de los árboles. Los científicos que estudian estas especies
aseguran que los utensilios de los cuervos son más sofisticados que los de los
chimpancés. Los investigadores que estudian la chara floridana, otra especie de
los córvidos, informan de que estas aves almacenan alimentos perecederos y no
perecederos en escondites repartidos por áreas muy extensas y que recuerdan a la
perfección la localización y el contenido de cada escondite. Algunas charas
observan y roban de los escondites de otras y toman todas las precauciones
posibles para ocultar luego sus escondites de los ojos de las demás charas.[8]
Al parecer, la costumbre de los chimpancés de utilizar una piedra para
romper la cáscara de los frutos data de hace al menos 4.300 años.[9] Es muy
probable que por aquellos tiempos utilizaran también ramas desprovistas de
hojas para hurgar en los termiteros, pero no nos han llegado evidencias. Desde
entonces, no han avanzado en el uso de la piedra, ni siquiera hasta la primitiva
fase olduvayense de tallar láminas de una piedra para obtener un canto cortante,
como hacían los homininos pre-humanos. Han inventado muy pocos utensilios.
Y todos ellos son para uso individual y tienen una función relacionada única y
exclusivamente con la supervivencia.
Por otro lado, la tremenda cantidad, complejidad y tamaño de los utensilios
inventados por los humanos, que en su mayoría tienen objetivos distintos a la
supervivencia, se indican en el capítulo 29. La afirmación de que un chimpancé
solitario utilice una piedra para partir una cáscara es similar a la iniciativa de un
gran equipo de científicos internacionales que colabora para inventar y construir
el Gran Colisionador de Hadrones con el objetivo de descubrir la interacción de
las partículas fundamentales es, si se me permite sugerirlo, poco menos que
válida.
Paradójicamente, justo en la época en que se afirmaba que los utensilios de
los humanos y de los chimpancés mostraban una diferencia solo en grado entre
las dos especies, los humanos inventaron dos utensilios, llamados Voyager 1 y
Voyager 2, sondas espaciales operadas remotamente diseñadas para explorar los
planetas más exteriores antes de, en septiembre de 2013, 35 años más tarde,
abandonar nuestro sistema solar. Ambas transportan un disco audiovisual con
sonidos de la Tierra entre los que se incluye el mensaje del entonces presidente
de los Estados Unidos, Jimmy Carter, que aparece reproducido bajo el
encabezamiento de este capítulo.
La capacidad de reconocer la propia imagen en un espejo es algo muy
distinto a la consciencia que reflexiona sobre sí misma y el lugar que ocupa en el
universo.
Ningún animal no humano presenta conductas que no estén relacionadas con
conseguir alimento y cobijo, huir de los depredadores, encontrar pareja, criar su
descendencia o reforzar la colaboración en el seno del grupo para incrementar
las probabilidades de supervivencia y reproducción.
Los humanos, por otro lado, presentan un amplio abanico de conductas que
no tienen nada que ver con su supervivencia y reproducción. Se formulan
preguntas sobre sí mismos tanto como entidades físicas como pensantes, sobre
su entorno, sobre el universo y sobre su propia conducta. Ningún animal no
humano posee esta capacidad de pensamiento introspectivo ni la habilidad
resultante de decidir actuar en contra de la conducta determinada genética o
culturalmente.
Todas las evidencias válidas presentadas para sustentar estas tres falacias
solapadas son consistentes con la teoría desarrollada en la Segunda y la tercera
parte de este libro. En correlación con el incremento de complejidad biológica y
la centralización, la consciencia surge y se intensifica a lo largo de distintos
linajes evolutivos hasta que alcanza la estasis o, en el caso de una especie, se
produce un cambio de fase en el que la consciencia se vuelve consciente de sí
misma. Para utilizar una analogía, esta intensificación es como el calor aplicado
a una olla de agua: produce un aumento de la temperatura. En las ollas que
representan el linaje de los gibones, los gorilas y los chimpancés, por ejemplo,
este calor, correlacionado con la complejidad neural y la centralización, resulta
insuficiente para que la temperatura del agua ascienda por encima de, por
ejemplo, 85, 90 y 95 grados Celsius, respectivamente, temperaturas que
representan su nivel de cognición y conducta. Pero en la olla que representa el
linaje humano, la intensidad de calor hace aumentar la temperatura hasta el
punto de ebullición. En el líquido empiezan a formarse burbujas de vapor que
irrumpen hacia la superficie y forman un gas por encima del agua en ebullición;
el calor mantiene una temperatura de 100 grados Celsius y el líquido sigue
experimentando un cambio de fase que lo transforma en gas a un ritmo creciente
durante el cual el volumen de agua también disminuye.
Por mucho que los humanos estén conformados por su herencia genética y su
entorno cultural, este cambio de fase hacia la consciencia reflexiva les ha dado la
capacidad exclusiva de trascender ambos aspectos.
[1]Roth (2001), p. 555.
[2] Véase página 504.
[3]Pollard, K., «What Makes Us Human?», Scientific American Magazine, 300: 5, 2009, pp. 44–49.
[4]http://www.janegoodall.org/chimpanzees/tool-use-hunting-other-discoveries, consultado el 11 de
mayo de 2013.
[5]Pinker (2000), pp. 367–374.
[6]Guihard-Costa, Anne-Marie y Ramirez-Rozzi, Fernando, «Growth of the Human Brain and Skull
Slows Down at About 2.5 Years Old», Comptes Rendus Palevol, 3: 5, 2004, pp. 397–402.
[7] Véase página 618.
[8]Patton, Paul, «One World, Many Minds: Intelligence in the Animal Kingdom», Scientific American
Mind, diciembre 2008, pp. 72–79.
[9]Mercader, Julio, et al., «4,300-Year-Old Chimpanzee Sites and the Origins of Percussive Stone
Technology», Proceedings of the National Academy of Sciences, 104: 9, 2007, pp. 3043–3048.
CAPÍTULO 31. CONCLUSIONES Y REFLEXIONES
SOBRE LA EMERGENCIA Y LA EVOLUCIÓN DE
LOS HUMANOS

En la actualidad, la red de relaciones que conecta el género humano consigo mismo y con el resto de la
biosfera es tan compleja, que todos los aspectos se influyen mutuamente en grado extremo. Alguien debería
estudiar el sistema en su totalidad, aunque sea toscamente, porque la suma de los estudios parciales de un
sistema complejo no lineal no puede dar idea del comportamiento del todo.

MURRAY GELL-MANN, 1994

La exploración del espacio y el carácter planetario de la complejidad económica, ecológica y


cibernética, están construyendo las bases de una consciencia global inevitable.

RICHARD FALK, 1985

En el hombre científico moderno, la evolución ha empezado por fin a cobrar consciencia de sí misma.

JULIAN HUXLEY, 1959

Conclusiones

Los descubrimientos de la tercera parte nos hacen llegar a las conclusiones


siguientes. Las evidencias y el análisis que lleva a cada una de las conclusiones
se ofrecen en el capítulo indicado entre paréntesis.

1. Las características anatómicas y genéticas de los humanos difieren solo en


grado de las de otros primates. Lo que diferencia al Homo sapiens del resto
de las especies conocidas es la consciencia reflexiva, es decir, que el adulto
humano moderno no solo sabe, sino que además sabe que lo sabe.
(Capítulos 26 y 27).
2. A pesar de las reivindicaciones de muchos primatólogos, antropólogos y
biólogos evolutivos, la emergencia de los humanos, con su capacidad
exclusiva para la consciencia reflexiva, marcó un cambio de tipo, no solo
de grado, en la evolución de la vida, del mismo modo que la emergencia de
la vida marcó un cambio de tipo con relación a la evolución de la materia
inanimada. (Capítulo 30).
3. El origen de la emergencia humana se relaciona, en términos generales,
con el incremento de consciencia en los primates predecesores hasta ese
punto en que la consciencia se torna consciente de sí misma. La falta de
evidencias, sin embargo, hace que resulte imposible remontar el linaje a
partir de un antepasado pre-humano concreto. (Capítulo 26).
4. Los primeros destellos de consciencia reflexiva se hacen patentes a partir
de sus consecuencias, como la aparición de utensilios compuestos
especializados, símbolos, ornamentos, pinturas, esculturas, instrumentos
musicales, entierros y cremaciones de carácter ceremonial y travesías
marítimas. Los vestigios se han descubierto en diferentes lugares del
planeta. A pesar de que su datación suele ser incierta, en su mayoría están
presentes durante la Edad de Piedra tardía en África y el Paleolítico
superior en distintos continentes, un periodo comprendido entre 40.000 y
10.000 años atrás, aunque hay evidencias incompletas o cuestionables que
sugieren que la consciencia reflexiva podría haber emergido antes.
(Capítulo 26).
5. Igual que sucede con la emergencia de la materia y la emergencia de la
vida, la escasez de evidencias hace muy difícil que la ciencia pueda llegar
algún día a identificar cuándo y cómo emergieron los humanos. Lo más
probable es que un entorno fluctuante inducido por un clima fluctuante
llevara a reconocer que era más fácil sobrevivir a los depredadores y
encontrar sustento mediante la cooperación que no con la competencia. La
hibridación o la duplicación completa del genoma podrían haber jugado un
papel en este cambio evolutivo. (Capítulo 26).
6. En términos generales, podría decirse que estamos ante un caso de
emergencia de sistemas en el que la interacción de facultades de un nivel
de complejidad inferior —como podrían ser la comprensión, el aprendizaje
y la comunicación— genera una facultad novedosa de un nivel de
complejidad más elevado —la consciencia reflexiva, en este caso— y esa
facultad de nivel superior interactúa con las facultades de nivel inferior
para transformarlas y generar facultades nuevas, como la imaginación, las
creencias, el lenguaje, la abstracción y la ética. (Capítulo 26).
7. Como sucede con las emergencias importantes, el límite que separa los
humanos de los pre-humanos es borroso, pero es un límite, de todos
modos. Más allá de él se inicia un proceso de cambio irreversible: la
evolución de la consciencia reflexiva. (capítulo 26)
8. Esta evolución puede dividirse en tres fases que se solapan entre sí: el
pensamiento primitivo, el pensamiento filosófico y el pensamiento
científico. (Capítulo 27).
9. Durante la inmensa mayoría del tiempo transcurrido desde que se
separaron por completo de los homininos, los humanos han llevado una
existencia de cazadores-recolectores en pequeños grupos integrados por la
familia extendida, donde la competencia por la supervivencia con grupos
similares y con los depredadores tuvo como resultado una tasa de
mortalidad elevada. (Capítulo 27).
10. El pensamiento primitivo evolucionó lentamente hasta hace cuestión de
10.000 años, momento en el cual los humanos inventaron la agricultura
como una forma más efectiva de obtener el sustento y comprendieron los
beneficios de la cooperación estableciéndose en comunidades agrícolas
más grandes. Este proceso tuvo lugar en distintos lugares en distintos
momentos, y en algunos lugares nunca llegó a producirse. (Capítulo 27).
11. Con más oportunidades pare reflexionar y transmitir ideas a través del
dibujo, el habla y la escritura, los humanos de estas comunidades agrícolas
cooperaron para inventar tecnologías que mejoraron y ampliaron sus
tierras de cultivo, y empezaron además a cooperar con otros asentamientos
para comerciar tanto con productos como con ideas, lo que permitió que
los asentamientos crecieran en tamaño y complejidad. (Capítulo 27).
12. A pesar de que la cooperación había empezado a evolucionar, se enfrentó
inevitablemente con el instinto de competencia arraigado durante millones
de años de antepasados pre-humanos, lo que produjo batallas para el
control de los asentamientos y para hacerse con los recursos tanto de los
asentamientos propios como ajenos. El proceso dio como resultado el auge
y caída de dinastías e imperios. (Capítulo 27).
13. El crecimiento de los asentamientos llevó al desarrollo de una jerarquía
social que era el reflejo de las distintas habilidades transmitidas de padres
a hijos: gobernantes, sacerdotes, guerreros, comerciantes, artesanos,
agricultores y esclavos. El patrón generalizado en todo el planeta fue de un
aumento en tamaño, complejidad y centralización de las sociedades
humanas. (Capítulo 27).
14. La evolución del pensamiento primitivo estuvo íntimamente ligada a la
evolución de las creencias que surgieron de la imaginación, combinada con
la falta de comprensión de los fenómenos naturales y el miedo a lo
desconocido, es decir, la superstición. A partir del animismo, el totemismo
y la veneración a los antepasados de los cazadores-recolectores,
empezaron a desarrollarse religiones que reflejaron el incremento en
tamaño, complejidad y especialización de las sociedades humanas y que, a
partir de diosas de la fertilidad, pasaron por el politeísmo para acabar en un
panteón gobernado por un poderoso dios masculino del cielo y la guerra y,
finalmente, en un monoteísmo patriarcal donde los demás dioses estaban
sometidos a un Dios único o degradados a la categoría de ángeles.
(Capítulo 27).
15. Al aplicar la consciencia reflexiva a la concepción de tecnologías para la
supervivencia y la reproducción, y con el fin de influir las fuerzas
sobrenaturales que se creía que determinaban estos factores, el
pensamiento primitivo dio lugar a las bases del arte, el lenguaje hablado y
escrito, las matemáticas y la astronomía. (Capítulo 27).
16. Los intentos de responder a las preguntas fundamentales de qué somos y
de dónde venimos significaron el inicio de una nueva fase, un fenómeno
que tuvo lugar hace aproximadamente 3.000 años en distintos lugares del
planeta y en el que el pensamiento filosófico se separó de las
supersticiones del pensamiento primitivo. Se caracterizó por un deseo de
buscar explicaciones que no implicaran espíritus imaginarios, dioses
antropomórficos o un Dios, en los que se había creído durante más de
20.000 años. (Capítulo 28).
17. Seguramente, el pensamiento filosófico emergió en primer lugar en el
subcontinente indio, situándose los demás centros principales en China y
en la colonia griega de Jonia. Los filósofos se sirvieron de la revelación, a
menudo resultante de una meditación disciplinada, y del razonamiento,
basado en supuestos previos o interpretaciones de las evidencias. (Capítulo
28).
18. Como todas las emergencias consideradas hasta el momento, los primeros
intentos de pensamiento filosófico fueron toscos y difíciles de diferenciar
de sus raíces, las supersticiones primitivas inculcadas por las religiones.
Pero a medida que se incrementaron y se propagaron, su evolución mostró
un patrón similar al de la evolución filética en la biología en cuanto a su
respuesta a los distintos entornos locales. Algunos brotes de pensamiento
filosófico nunca llegaron a dar una flor; otros se desarrollaron y acabaron
marchitándose; algunos fueron asimilados y cambiados por otras escuelas
de pensamiento; algunos interactuaron con las creencias locales y mutaron
para convertirse en religiones; los hubo que fueron asimilados o destruidos
por religiones o gobernantes; otros cayeron en barbecho y fueron
resucitados mucho más tarde; algunos fueron patrocinados por los
gobernantes y florecieron; los que sobrevivieron siguieron evolucionando.
(Capítulo 28).
19. Las revelaciones de los videntes —fueran indios, chinos, griegos o
romanos— tienden a compartir características en común, en particular la
unidad subyacente de todas las cosas. En la mayoría de los casos, esta
unidad subyacente o realidad suprema es algo inefable, que podría
describirse como una consciencia cósmica trascendente o una inteligencia
que existe sin forma fuera del espacio y del tiempo, pero que además es
inmanente en el sentido de que da lugar a todos los fenómenos percibidos
por nuestros cinco sentidos físicos y por nuestra mente; la esencia de todos
nosotros surge de esta unidad subyacente y es idéntica al todo. Además,
esta realidad suprema se manifiesta y regula el funcionamiento del cosmos,
y para alcanzar la plenitud deberíamos armonizar nuestra vida con ella.
(Capítulo 28).
20. Pese a que la revelación tendía a ser holística, podría dividirse en ramas
según el objeto de indagación. Lo que se ramificó considerablemente
fueron las escuelas fundadas para interpretar, practicar y enseñar las
revelaciones de los distintos videntes. (Capítulo 28).
21. El razonamiento se utilizó para impartir las enseñanzas de las revelaciones
y también como método de indagación. Se puede dividir en ramas según el
objeto de indagación, que se ramificaron a medida que las escuelas de
razonamiento se propagaron, interactuaron y se multiplicaron como
respuesta a nuevas ideas. (Capítulo 28).
22. Allí donde el pensamiento se centraba en la ética —cómo deberíamos
comportarnos—, prácticamente todos los antiguos filósofos,
independientemente de que utilizaran la revelación o el razonamiento,
enseñaron que solo alcanzaremos la tranquilidad y la plenitud si actuamos
sin egoísmo y haciendo a los demás lo que querríamos que nos hicieran a
nosotros. Esto iba en contra del impulso instintivo dominante de sus
sociedades, que favorecía la agresividad, la guerra y la conquista. En el
fondo se trata de una recomendación a favor de la cooperación, y en contra
de la competencia, para alcanzar el progreso de la humanidad. (Capítulo
28).
23. A finales del siglo XII, cuando Occidente adoptó el razonamiento como
método único de pensamiento filosófico, se produjo una ramificación
fundamental entre revelación y razonamiento, a pesar de que las evidencias
no sustentan la superioridad de un método por encima del otro. (Capítulo
28).
24. La tercera fase de la evolución humana, el pensamiento científico, se
caracteriza por el intento de explicar los fenómenos naturales utilizando la
observación o la experimentación sistemática, y preferiblemente
mensurable, y aplicar el razonamiento a los conocimientos así obtenidos
para deducir leyes verificables y realizar predicciones o retrodicciones.
(Capítulo 29).
25. Este tipo de pensamiento se empleó de entrada en tres áreas: las ciencias
físicas que estudian los fenómenos inanimados, las ciencias de la vida que
estudian los organismos vivos y las ciencias médicas que se aplican para
mantener la salud y tratar enfermedades y lesiones. (Capítulo 29).
26. Las ciencias médicas tienen sus raíces en las prácticas de curación de la
antigüedad, que estaban vinculadas con la superstición, y emergieron como
parte de la ciencia moderna en el siglo XVII, igual que las ciencias de la
vida. La ciencia física más antigua, la astronomía, data de tiempos
prehistóricos, donde se desarrolló al servicio de creencias supersticiosas
antes de emerger como ciencia moderna en el siglo XVI. La física, la
ciencia física fundamental, emergió de la filosofía natural en los siglos XVI
y XVII. Durante este periodo, conocido como la revolución científica,
quedaron desacreditadas muchas de las antiguas ideas en el campo de la
medicina, la astronomía y la filosofía natural y se propusieron nuevas
teorías con base empírica. La mayoría de sus practicantes, de todos modos,
conservaron sus creencias supersticiosas. (Capítulo 29).
27. En el siglo XIX, el estudio de los humanos y sus relaciones sociales llevó a
las ciencias sociales a separarse de las ciencias de la vida. (Capítulo 29).
28. Después de su emergencia, el pensamiento científico evolucionó a cada
vez mayor velocidad, un fenómeno que se debió básicamente a cinco
factores sinérgicos (capítulo 29):
28.1. Las ayudas al cálculo que se desarrollaron a partir de las máquinas
mecánicas de cálculo hasta los ordenadores personales y los
superordenadores.
28.2. La divulgación del conocimiento, que estimula nuevas ideas, que
desarrolló desde las máquinas manuales de impresión con tipos móviles
hasta Internet, seguida de la World Wide Web, que no solo ofrece una
comunicación virtualmente instantánea, sino que además ayuda a
globalizar el conocimiento.
28.3. El desarrollo de nuevas tecnologías diseñadas para investigaciones
científicas concretas además de la utilización de tecnologías diseñadas
para otros fines.
28.4. La cooperación entre científicos a través de sociedades científicas
dedicadas a compartir conocimientos e ideas, así como a través del
trabajo en equipo en investigaciones científicas concretas, con un
desarrollo que a partir de lo local va hacia lo nacional y lo internacional.
28.5. El acceso cada vez mayor a la educación que dio como resultado la
formación de más científicos.
29. Estos factores dieron como resultado (capítulo 29):
29.1. La invención de tecnologías para investigar aquella materia y aquella
energía que en condiciones normales no son observables y que produjo
la segunda revolución científica en la física, con el desarrollo de la teoría
cuántica y la teoría de la relatividad.
29.2. Un crecimiento de proporciones geométricas del conocimiento
empírico que produjo la ramificación del pensamiento científico en
ramas y sub-ramas cada vez más especializadas que investigan campos
de indagación cada vez más constreñidos.
29.3. Un conocimiento en profundidad de estos campos que dio como
resultado pozos de experiencia de los que a los científicos les cuesta
salir para entablar un diálogo fructífero con otros especialistas, excepto
cuando esos pozos se entrecruzan en un estudio interdisciplinario sobre
el tema especializado en cuestión.
29.4. Unos cuantos científicos preparados para trascender su
especialización y abordar preguntas fundamentales sobre la existencia
humana, como la de ¿quién somos?
29.5. Una creencia en el reduccionismo científico como único método de
indagación científica, a pesar de las limitaciones que presenta su potente
herramienta analítica cuando se aplica a fenómenos complejos,
interrelacionados y emergentes como la vida o la humanidad.
29.6. La consecuente creencia de muchos científicos en el fisicalismo, que
sostiene que lo único que es real es la materia física y que todas las
demás cosas, como la mente o la consciencia, acabarán explicándose
como objetos físicos o sus interacciones.
30. Los científicos de las dos sub-ramas de la psicología, que investiga los
procesos mentales y la conducta de individuos y grupos, afirman poder
responder a la pregunta de quién somos. (Capítulo 29).
30.1. Los neuropsicólogos que creen en el fisicalismo defienden que no
somos más que la conducta de un gran conjunto de células nerviosas y
de las moléculas asociadas a ellas. Aun en el caso de que supusiéramos
que nuestra mente está generada por nuestras células nerviosas y sus
interacciones, o que emerge de ellas, hay que tener en cuenta que la
mente no equivale al cerebro. Además, hasta que los neuropsicólogos no
proporcionen observaciones o experimentos verificados de forma
independiente que explican qué es tener experiencias subjetivas de
fenómenos —como el concepto del yo, el sentimiento de orgullo, la
audición de música o la visualización de un color—, esta reivindicación
permanecerá en el terreno de la especulación filosófica y lejos del de la
ciencia.
30.2. Los psicólogos evolutivos defienden que lo qué somos —en el
sentido de lo que pensamos, lo que sentimos y cómo nos comportamos
—, queda explicado por la acumulación neodarwinista de mutaciones
genéticas aleatorias que se produjeron a lo largo de miles de
generaciones y que son las responsables de aquellos mecanismos
psicológicos que se seleccionaron naturalmente para proporcionar una
ventaja competitiva que fomentó la supervivencia de nuestros
antepasados de la Edad de Piedra. Sus evidencias consisten en los
modelos matemáticos simplistas basados en el gen y en los juegos de la
sociobiología, que están divorciados de la realidad, están diseñados para
producir cualquier tipo de resultado deseado, carecen de valor predictivo
y quedan refutados por las evidencias de creencias culturales y
conductas incompatibles con la explicación de la naturaleza humana
como una máquina de genes neodarwinista.
30.3. Para acomodar estas evidencias, algunos psicólogos evolucionistas
proponen la hipótesis del entorno de adaptación evolutiva. No existe
evidencias que sustenten este intento especulativo de racionalizar los
defectos del determinismo genético.
30.4. Otros van más allá y proponen la hipótesis de la co-evolución
genético-cultural. Sin embargo, a pesar de las reivindicaciones del
neodarwinismo, la complejidad del funcionamiento de los genes, de su
regulación y de su interacción con el entorno en la evolución biológica
no está hoy en día bien entendida, y menos lo está, si cabe, para explicar
los pensamientos, los sentimientos y la conducta.
31. En contraposición con el patrón divergente y ramificado que ha dominado
el pensamiento científico desde finales del siglo XVI, podemos decir que
desde principios del siglo XX, con la segunda revolución científica, se ha
empezado a observar una tendencia convergente en la ciencia fundamental
de la física. La tendencia parte de la revelación de que por debajo de
fenómenos físicos aparentemente distintos subyace la misma causa. La
principal iniciativa de la física teórica en los últimos 25 años ha girado en
torno a intentar demostrar que todos los fenómenos físicos del universo
son manifestaciones de energía inferior de una energía fundamental
presente en los inicios del universo. (Capítulo 29).
32. Muchos pioneros de la segunda revolución científica rechazaron el
reduccionismo como método de explicación de los fenómenos físicos del
universo y defendieron que el foco debería ponerse en una plenitud
indivisa. (Capítulo 29).
33. Diversas interpretaciones de la teoría cuántica exigen la observación
consciente del campo cuántico antes de que este colapse en materia, lo cual
entra en conflicto con el fisicalismo. Algunos teóricos cuánticos se
suscribieron al idealismo, la conjetura de que los objetos materiales no
existen de forma independiente sino solo como construcciones de la mente
o la consciencia. Varios expresaron una visión metafísica similar a la
antigua revelación mística que defiende la unidad subyacente de todas las
cosas como una Consciencia Cósmica trascendente que da lugar y regula
todos los fenómenos percibidos por nuestros cinco sentidos físicos y por
nuestra mente. (Capítulo 29).
34. Si las ramas de la física llevan los últimos 25 años convergiendo hacia una
explicación de que todo lo que percibimos en el universo son
manifestaciones de energía inferior de una única energía presente en el
principio, y esto converge a su vez con antiguas revelaciones místicas,
podríamos estar ante una profunda tendencia convergente que se opone a
la tendencia divergente que ha caracterizado los más de 400 años de
evolución del pensamiento científico. (Capítulo 29).
35. Por mucho que los humanos estén conformados por su herencia genética y
su entorno cultural, la posesión de una consciencia reflexiva les ha dado la
capacidad exclusiva de trascender ambos aspectos. (Capítulo 30).

Reflexiones

Al repasar el fenómeno de la evolución humana desde que la consciencia


reflexiva marcó su plena emergencia hace entre 40.000 y 10.000 años, se hacen
evidentes varios patrones generales, algunos de larga duración y otros más
recientes.

Disminución de la agresividad

En un siglo que se inició con el atentado de Al Qaeda contra las Torres


Gemelas de Nueva York, que causó la muerte de 2.750 civiles, la invasión de
Irak por parte de los Estados Unidos y la intervención militar en Afganistán, más
las guerras civiles en Congo, Liberia, Sudan, Darfur, Libia y Siria, después de un
siglo marcado por dos guerras mundiales y la utilización de armas nucleares,
podría parecer contradictorio decir que la evolución humana se ha caracterizado
por una disminución de la agresividad.
Cualquier impresión de un incremento en la agresividad se debe a tres
principales factores. En primer lugar, la percepción del concepto de agresividad
ha cambiado. En las sociedades científicamente avanzadas, la gente ya no
considera aceptable, y mucho menos honorable, librar la guerra contra los
infieles respaldándose en la creencia de que es lo que Dios desea, castigar un
acto erróneo según la ley bíblica o coránica del ojo por ojo, solventar las
disputas con duelos, matar a un miembro femenino de la familia cuando se
produce un fallo en el código ético para restaurar de este modo el honor familiar,
torturar hasta la muerte o ejecutar por haber cometido un robo.
Entre los siglos XI y XIII, sin embargo, los reyes y los nobles europeos, a
instancias de Papas que prometían el acceso inmediato al cielo a aquellos que
mataban, libraron guerras sagradas contra los musulmanes y masacraron a judíos
y a otros con creencias supuestamente infieles. Para aquellos que se sienten
horrorizados ante los actuales azotes públicos, las amputaciones de manos y las
decapitaciones en países menos desarrollados como castigo a crímenes que van
desde el robo hasta el adulterio, resulta saludable recordar que todo ello eran
prácticas comunes en nuestra sociedad hasta tiempos relativamente recientes. La
Torre de Londres contiene un museo de instrumentos de tortura, cuya práctica no
quedó abolida en Inglaterra hasta mediados del siglo XVII. El 13 de octubre de
1660, Samuel Pepys anota despreocupadamente en su diario que presenció el
ahorcamiento público del general Harrison y su posterior descuartizamiento ante
los vítores de la multitud.[1] En Gran Bretaña, a principios del siglo XIX, había
más de doscientos crímenes, desde el hurto hasta el asesinato pasando por el
robo, que estaban castigados con pena de muerte. En el Reino Unido, las
ejecuciones públicas tocaron a su fin en 1868, y la última ejecución tuvo lugar
en 1964. En Francia, las decapitaciones públicas continuaron hasta 1939,
mientras que la pena de muerte quedó abolida en 1981. En 2014, castigar con la
vida haber acabado con otra vida era legal según el gobierno federal y según 32
estados de los Estados Unidos.[2]
El segundo factor es el foco en el número de víctimas de la agresividad y la
ignorancia del aumento de proporción geométrica del tamaño de las poblaciones.
Es más racional examinar la agresividad en relación con el tamaño de la
población considerada.
En tercer lugar, hasta el invento de las comunicaciones globales, la mayoría
de la gente desconocía lo que ocurría en otros países. Ahora estamos inundados
por noticiarios televisivos las 24 horas del día, 7 días a la semana, junto con los
vídeos subidos a YouTube que muestran imágenes gráficas de guerras,
violaciones y todo tipo de actos violentos que se producen en el mundo.
Pese a todo, las evidencias de que existe una reducción de la agresividad son
claras. En el capítulo 27 he resumidos los estudios que demuestran el elevado
índice de mortalidad de la época de pensamiento primitivo dominada por las
sociedades cazadoras-recolectoras como consecuencia de batallas crónicas
intergrupales, peleas en el seno del grupo, infanticidio y gerontocidio. En el libro
publicado en 2011, Los ángeles que llevamos dentro,[3] el psicólogo de Harvard,
Steven Pinker, evalúan las evidencias disponibles a partir de investigaciones
forenses, arqueológicas, etnográficas, históricas y estadísticas. La inmensa
mayoría de la existencia humana se ha basado en sociedades de cazadores-
recolectores y cazadores-agricultores. Estudios llevados a cabo con 27 grupos de
este tipo muestran una variación en los índices de mortalidad anuales como
consecuencia de las guerras. Los índices más elevados corresponden a tiempos
remotos, mientras que los más bajos pertenecen a tribus que viven en entornos
aislados e inhóspitos, como desiertos sin apenas agua o estepas gélidas, donde no
están en competencia con otras tribus o donde han sido pacificadas por países o
imperios desarrollados. El índice anual de mortalidad como consecuencia de la
guerra que muestran estos estudios es de 524 fallecimientos por cada 100.000.
En comparación, si sumamos todas las muertes que se han producido en el
siglo XX como consecuencia de la violencia organizada —guerra, genocidios,
purgas y hambrunas provocadas por el hombre—, obtenemos un índice anual de
mortalidad de 60 fallecimientos por 100.000 en el año 2005, con el ejército de
los Estados Unidos implicado en conflictos en Irak y Afganistán, las muertes
militares por cada 100.000 fallecimientos en los Estados Unidos, o en el mundo
entero, representan una cifra demasiado pequeña como para quedar reflejada en
el gráfico de Pinker.[4]

Razones para la disminución de la agresividad

Sugiero que la causa subyacente de esta disminución de la agresividad es la


evolución del pensamiento humano tal y como ha quedado expresada en la
Tercera Parte de este libro. En la fase del pensamiento filosófico, todos aquellos
de distintas culturas que reflexionaron sobre la conducta humana, bien fuera a
través de la revelación bien lo hicieran a través del razonamiento, defendieron la
regla de oro de actuar con los demás como nos gustaría que los demás actuasen
con nosotros. Hubo, como hemos visto, una gran resistencia a este punto de
vista, puesto que iba en contra de un instinto de competencia tremendamente
arraigado. Sin embargo, esta postura inició un largo proceso de cambio de
nuestro concepto de las relaciones humanas que ha quedado codificado en forma
de leyes en el seno de las sociedades y de acuerdos entre sociedades.
La Primera Guerra Mundial fue el último gran conflicto entre países
científica y tecnológicamente desarrollados en el que la lucha estuvo considerada
como un acto noble. La divulgación de información resultante de los avances
científicos y tecnológicos ayudó a cambiar la consciencia popular. A mediados
del siglo XX, no solo la prensa estaba ya masificada, sino que además la radio y
los noticiarios presentados en los cines empezaron a mostrar los horrores de la
guerra, incluyendo la destrucción con bombas atómicas de dos ciudades
japonesas. Todo ello tuvo una consecuencia jamás imaginada por los gobiernos y
los militares que habían ordenado el lanzamiento de las bombas: la comprensión
de que la guerra entre naciones e imperios en competencia es contraproducente.
Los pensadores más destacados de la época tomaron la iniciativa. El filósofo
Bertrand Russell, junto con Albert Einstein, se pusieron en contacto con
distinguidos científicos, entre ellos Joseph Rotblat, que había sido reclutado por
el gobierno norteamericano para trabajar en el diseño de la bomba atómica. En
1955, publicaron en Londres lo que acabó conociéndose como el Manifiesto
Russell-Einstein. Hablando «no como miembros de tal o cual nación, continente
o credo, sino como seres humanos, miembros de la especie humana […]»,
plantearon la pregunta directa: «¿desaparecerá la raza humana o la humanidad
renunciará a la guerra?».[5]
La declaración tuvo como consecuencia las conferencias de Pugwash, que
reunieron a intelectuales influyentes y figuras públicas preocupados todos ellos
por reducir los peligros del conflicto armado y buscar soluciones cooperativas a
los problemas globales. En 1995, Pugwash y su cofundador, Joseph Rotblat,
fueron galardonados conjuntamente con el Premio Nobel de la Paz.
El manifiesto fomentó también movimientos pacifistas en todo el mundo,
pero los gobiernos y los intereses egoístas de sus complejos militares e
industriales se resistieron a sus llamadas al desarme, tal y como el presidente de
los Estados Unidos y antiguo general, Dwight Eisenhower, atestiguó en su
discurso de despedida en 1961. Después de destacar que los Estados Unidos
gastaban más en seguridad militar que el equivalente a los ingresos netos de
todas las compañías norteamericanas, dijo explícitamente:

Debemos protegernos contra la adquisición de influencias indebidas, sean buscadas o no, por parte
del complejo militar-industrial. Existe y existirán circunstancias que harán posible que surjan
poderes en lugares indebidos, con efectos desastrosos. [6]

La segunda mitad del siglo XX vivió pasos titubeantes para dejar atrás los
imperios en competencia y avanzar hacia la cooperación de las sociedades
humanas a nivel supranacional y global. Los vencedores de la Segunda Guerra
Mundial reclutaron 51 países en 1945 para formar las Naciones Unidas con los
objetivos de mantener la paz y la seguridad y fomentar la cooperación
internacional para abordar problemas globales que afectaran a toda la
humanidad. La consecución de este objetivo, sin embargo, se vio entorpecido
por la Guerra Fría entre los Estados Unidos y la Unión Soviética. Pero, de todos
modos, las Naciones Unidos hicieron avances a escala global a nivel económico,
cultural y humanitario a través de las agencias que estableció, como la
Organización Mundial de la Salud y el Fondo de las Naciones Unidas para la
Infancia (UNICEF). Paradójicamente, el imperio soviético fue derrotado no por
la fuerza de las armas, sino por la escalada de precios, que socavó la economía
soviética, combinada con las demandas de libertad por parte de los pueblos que
la opresión soviética había oprimido.
Europa, el continente donde se inició la revolución científica, tomó el
liderazgo en la búsqueda de la cooperación, y no la competencia, entre naciones
estado. En 1951, Francia, Alemania, Italia, Bélgica, Holanda y Luxemburgo
fundaron la Comunidad Europea del Carbón y del Acero (CECA). Su objetivo
era integrar las industrias del carbón y el acero de los estados miembros para no
tener que librar nunca la guerra por esos productos. La CECA evolucionó hasta
la actual Unión Europea (UE) integrada por 28 naciones, 17 de las cuales
comparten además divisa. La pérdida de parte de su soberanía nacional a cambio
de paz y beneficios sociales y económicos, junto con la percepción de
imposición burocrática de medidas presupuestarias en 2013 y 2014, generó un
incremento de votos de facciones ultranacionalistas en las elecciones
parlamentarias europeas de 2014. La crisis de refugiados resultante de las
guerras internas de Oriente Próximo y Afganistán impulsó el auge del
nacionalismo en toda Europa y llevó a la decisión que tomó el Reino Unido por
referéndum en 2016 de abandonar la UE. Pero la evolución noética, igual que la
evolución biológica, no es proceso regular. Fundamentalmente, resulta
impensable que cualquiera de los estados miembros pudiera declarar la guerra a
otro, un hecho reconocido por el Premio Nobel de la Paz que recibió la UE en
2012 por «durante más de seis décadas, haber contribuido a los avances de paz y
reconciliación, democracia y derechos humanos en Europa».[7]
La reducción generalizada de la agresividad entre sociedades ha tenido un
paralelismo en la reducción de la agresividad tanto entre individuos como entre
sociedades e individuos, independientemente de que dichos individuos sean
miembros de esa o de otra sociedad. La amplia aceptación de esta tendencia
estuvo marcada por la adopción en 1948 por parte de la Asamblea General de las
Naciones Unidas de la Declaración Universal de los Derechos Humanos por 48
votos a favor contra cero y las ocho abstenciones del bloque soviético, Sudáfrica
y Arabia Saudí. El primer artículo declara:

Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados como están de
razón y consciencia, deben comportarse fraternalmente los unos con los otros.

Los restantes artículos denuncian la esclavitud, la tortura y el trato y el


castigo cruel, inhumano y degradante. Una señal del desarrollo del pensamiento
humano la representa el hecho de que la mayoría de habitantes de las sociedades
científicamente avanzadas se horrorice ante este tipo de actos, sobre todo cuando
los autores de los mismos son los gobiernos o sus agencias, como es el caso de
las torturas por parte de militares estadounidenses en la cárcel de Abu Ghraib,
Irak, en 2003 y 2004, o la violación de manifestantes políticos por parte de sus
interrogadores y de la guardia revolucionaria iraní en las cárceles iraníes después
de las elecciones de 2009.[8]

Aumento de cooperación

La evolución del pensamiento que provocó una disminución de la


agresividad, causó a su vez un aumento de la cooperación.
Peter Kropotkin, el naturalista de finales del siglo XIX que defendía que el
apoyo mutuo era un factor más importante para la evolución biológica que la
competencia,[9] extendió su argumento a la evolución humana. Sostenía que los
documentos históricos transmiten una impresión distorsionada:

Los poemas épicos, las inscripciones de los monumentos, los tratados de paz… prácticamente todos
los documentos históricos tienen el mismo carácter; hablan de fragmentos de paz, no de la paz en sí
misma. Por lo tanto, incluso el historiador con mejores intenciones traza inconscientemente una
imagen distorsionada de los tiempos que pretende describir.[10]

En la actualidad, el distinguido historiador David Cannadine presenta una


postura similar en el libro que publicó en 2013, The Undivided Past: History
Beyond Our Differences,[11] donde argumenta que los historiadores han hecho
hincapié en los conflictos que se han producido tanto dentro como entre las
diversas divisiones de la humanidad —como las religiones, las razas y las
naciones—, pero han ignorado incontables y fructíferas interacciones y actos de
cooperación que también han tenido lugar.
Existen, no obstante, evidencias de los primeros humanos no solo de
colectivización,[12] como sucede con las sociedades de insectos, sino también
de cooperación, que definimos en el capítulo 19 como:

Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar


objetivos acordados por todos o por el beneficio mutuo.

A diferencia de la colectivización instintiva o coaccionada, la cooperación


requiere la presencia de pensamiento reflexivo, y esto es lo que la hace exclusiva
de la especie humana. Los primeros signos de cooperación se presentan en el
capítulo 26, que examina la emergencia de los humanos.[13] El capítulo 27, que
gira en torno a la evolución del pensamiento primitivo, muestra cómo luchó para
instaurarse por encima del instinto competitivo dominante que había dado como
resultado la colectivización forzada y el desarrollo de imperios jerárquicos.[14]
Con la evolución del pensamiento filosófico, la regla de oro de hacer a los
demás, enemigos incluidos, solo aquello que te harías a ti mismo, se convirtió en
una prescripción enraizada en la cooperación que contratacó el dominio de la
competencia agresiva con otros estados por los recursos y el territorio.
El colapso del imperio romano occidental en el siglo V dio paso a lo que los
historiadores occidentales denominaron periodo medieval. Pero los godos, los
vándalos, los anglos, los sajones, los lombardos y otras tribus conocidas
despectivamente como «barbaros», que invadieron el territorio desde el este,
importaron de sus sociedades rurales la tradición del «folkmoot», o reunión de
todos los hombres adultos, un órgano encargado de tomar decisiones sobre el
cultivo de la tierra, que habitualmente era de propiedad comunitaria. En estas
reuniones se acostumbraba a elegir también los representantes para arbitrar en
caso de disputas, decidir quién era el responsable de un daño o una injusticia, y
recaudar las multas que se imponían a modo de compensación en vez de ejercer
la venganza. Parte de esta compensación quedaba retenida por el pueblo para
trabajos comunales.[15] Estas tradiciones fueron las precursoras de los modernos
sistemas parlamentario y judicial.
A medida que los poblados barbaros se expandieron, Europa desarrolló un
tapiz fluctuante de sistemas socio-políticos distintos. La Iglesia se convirtió en
un poder secular; los invasores se cristianizaron y los ciudadanos del antiguo
imperio romano occidental asimilaron las tradiciones bárbaras; se vivieron
nuevas oleadas de invasiones; bandas de guerreros lideradas por señores de la
guerra ofrecieron su protección a los campesinos que trabajaban las tierras a
cambo de tributos, lo que acabó dando como resultado el sistema feudal. Pero
pese a todo esto, la cooperación siguió siendo evidente en la mayor parte de
Europa, donde los pueblos rurales más prósperos se convirtieron en ciudades y
reafirmaron sus raíces cooperativas a medida que los miembros de las distintas
profesiones establecieron hermandades o gremios basados en el autogobierno
democrático y el apoyo mutuo. Muchas de estas asociaciones cobraron carácter
permanente, como los gremios de comerciantes, artesanos, trabajadores agrícolas
y maestros, pero se formaron asimismo otras de carácter temporal con objetivos
concretos, como las expediciones marítimas o la construcción de catedrales.
Las ciudades medievales europeas se organizaron como una doble
federación: de propietarios agrupados en pequeñas uniones de carácter territorial
—básicamente comunidades de pequeños pueblos cada una de ellas con su
propia parroquia— y de hombres unidos por un juramento en gremios
diferenciados por su profesión. Los residentes de algunas ciudades cooperaron
más aun formando comunas en las que los ciudadanos realizaban un juramento
que los unía mediante un vínculo de apoyo mutuo con fines de comercio y
defensa, mientras que en algunas áreas rurales también se desarrollaron
comunas. Estas comunas con autogobierno democrático crecieron poco a poco y
acabaron siendo prácticamente independientes de los señores feudales. Esta
independencia se vio reforzada por la cooperación con otras comunas y la
formación de federaciones, como la Liga Lombarda, que se extendió por el
centro y el norte de Italia.
En el espacio de 350 años desde principios del siglo XI, el aspecto de Europa
se transformó por completo gracias a esta actividad cooperativa. Pequeños
pueblos y aldeas se transformaron en ricas ciudades medievales amuralladas en
las que floreció el comercio, las artes, la artesanía y la enseñanza, junto con la
construcción de edificios impresionantes, como las catedrales góticas de Colonia
y Chartres.
La desaparición de la mayoría de las comunas medievales entre los siglos XIV
y XVI fue debida a diversos factores en diversos lugares. Destaca entre ellos el
alejamiento de los principios cooperativos con el fin de mantener la riqueza y el
poder. Este proceso marginó a los recién llegados y a los campesinos que
trabajaban la tierra y, paradójicamente, dejó las comunas vulnerables a la
usurpación por parte de tiranos despiadados o subyugadas al poder de estados
centralizadores. Estos estados solían estar gobernados por un monarca de
carácter hereditario, el descendiente del que fuera el señor de la guerra más
poderoso.
A pesar de que la cooperación como forma de gobierno sufrió un retroceso,
sus tradiciones influyeron los diversos acuerdos a los que llegaron los poderes en
competencia representados por el rey, la nobleza, la Iglesia y los comerciantes,
algo que quedó especialmente patente en los parlamentos que se desarrollaron
para aprobar y elaborar leyes y recaudar impuestos.
La cooperación volvió a emerger a mediados del siglo XIX en la Gran Bretaña
industrializada como respuesta a la explotación de la mano de obra por parte de
los poderes capitalistas. Pensadores ilustrados, como el exitoso industrial Robert
Owen, fundaron comunidades cooperativas en las que los miembros podían
trabajar juntos para satisfacer sus necesidades económicas y sociales, incluyendo
la educación de sus hijos. Ninguna de estas cooperativas sobrevivió mucho
tiempo, en gran parte por culpa de su estructura económica. Sin embargo,
abrieron el camino para que en 1844, 28 hombres fundaran la Rochdale
Equitable Pioneers Society, sobre un conjunto de principios socioeconómicos
que alcanzaron un gran éxito. Las sociedades cooperativas organizadas sobre
estos principios se multiplicaron y se propagaron por todo el mundo,
inspirándose en las tradiciones cooperativas locales.[16] En 1895, solo 51 años
después de la declaración de estos principios cooperativos en la entonces ciudad
algodonera de Rochdale, las federaciones cooperativas nacionales trabajaron
conjuntamente para formar una alianza global.[17] En 2012, la Alianza
Cooperativa Internacional estimó que más de mil millones de personas —una de
cada siete de la población mundial— formaban parte de una cooperativa de
consumidores, una cooperativa de trabajadores, una cooperativa de viviendas,
una cooperativa agrícola u otro tipo de empresa cooperativa.[18]
Las organizaciones políticas y económicas arraigadas en la competencia
siguieron la iniciativa con más lentitud. Sin embargo, desde mediados del siglo
XII, la organización jerárquica del imperio gobernada por un autócrata fue
cediendo paso a estados democráticos que cooperan a nivel regional, como la
Unión Europea, e intentan, aunque no siempre con éxito, cooperar globalmente a
través de las Naciones Unidas y sus agencias.
El capítulo 29 muestra que el progreso en la ciencia se alcanzó
principalmente a través de la cooperación. Nadie puede negar los avances
conceptuales importantes que se han realizado a nivel individual, pero es
evidente que han quedado superados por la cooperación con la financiación de
sociedades científicas, la publicación de los descubrimientos y el desarrollo de
equipos internacionales para investigar fenómenos.

La velocidad del cambio

La evolución humana se acelera a un ritmo cada vez mayor. Los humanos


emergieron como una especie introspectiva hace entre 40.000 y 10.000 años. Si
tomamos como punto de partida la media de ese rango, es decir, 25.000 años
atrás, tendremos que durante el 88 por ciento de su tiempo de vida las sociedades
humanas fueron exclusivamente primitivas y las reflexiones sobre el individuo y
su relación con el resto del universo estuvieron basadas en la superstición y con
el único objetivo de la supervivencia. Solo durante el 12 por ciento de ese
tiempo, la reflexión humana ha incluido la búsqueda de conocimiento y la
comprensión a través de la revelación y el razonamiento, mientras que la edad de
la ciencia, que utiliza la observación sistemática y la verificación de las
evidencias, ocupa menos del 2 por ciento de la existencia humana.
Si utilizáramos la analogía de un reloj de 24 horas y planteáramos que los
humanos emergieron a las 0 horas, el pensamiento filosófico habría emergido 2
horas y 53 minutos antes de la medianoche y el pensamiento científico lo habría
hecho solo 27 minutos antes de la medianoche, según ilustra la figura 31.1.
Globalización

De forma exclusiva, los humanos se diseminaron por el planeta sirviéndose


de la consciencia reflexiva para concebir maneras de sobrevivir en cualquier tipo
de entorno, sin dividirse en distintas especies. Desde mediados del siglo XX, la
globalización, más que la dispersión global, empezó a acelerarse como
consecuencia de los avances en los desplazamientos internacionales. Esto, a su
vez, y junto con la invención de comunicaciones globales electrónicas,
incrementó los cruces raciales y disminuyó las diferencias fisiológicas y
culturales.[19]
El comercio también se globalizó. Más que eso. El pensamiento también
empezó a globalizarse. Las organizaciones supranacionales científicas, políticas,
económicas, educativas y humanitarias, como las Naciones Unidas y sus
agencias, empezaron a abrirse paso para convertirse en redes de pensamiento
global.
En diciembre de 1968, en el momento álgido de la Guerra Fría, las imágenes
enviadas por los astronautas del Apolo 8 asombraron al mundo; en ellas se veía
por primera vez el planeta Tierra, azul, verde marrón y blanco, destacando en la
fría oscuridad del espacio y por encima de la superficie grisácea y sin vida de la
luna. Aquella imagen jugó un papel muy importante en la creación de una
consciencia global. En el planeta no aparecía ningún tipo de frontera nacional.
Era el hogar de todos nosotros, de los miembros de una especie que intentaba
sobrevivir en un hábitat pequeño y en precario equilibrio. Aquella visión fue una
experiencia que cambió por completo la vida de los ex pilotos de aviones de
combate que la disfrutaron personalmente. Para el resto de nosotros, supuso el
inicio de muchos movimientos ecologistas y un reconocimiento creciente del
carácter contraproducente de la guerra, en contraposición con la actitud
predominante fomentada por el complejo militar-industrial.
Los pequeños grupos locales crecieron rápidamente para convertirse en
organizaciones no gubernamentales a nivel global. Médicos sin Fronteras,
fundada en 1971 en Francia por unos pocos médicos y el editor de una revista
médica, posee ahora oficinas en 23 países y proporciona ayuda médica urgente a
personas afectadas por conflictos armados, epidemias y desastres naturales.
Actúa de forma imparcial, sin prestar atención ni a filiaciones políticas o
religiosas ni a fronteras nacionales. En 1999, la organización recibió el Premio
Nobel de la Paz. Greenpeace fue fundada en 1971 por doce personas que
protestaron contra la utilización de armas nucleares navegando a vela por la zona
de islas de Alaska donde los Estados Unidos estaban preparando las pruebas para
una bomba nuclear. Sus actividades se han ampliado e incluyen ahora también
conflictos medioambientales a nivel global. La organización opera más de 50
oficinas a nivel nacional y regional repartidas por todo el mundo, y no ha dejado
en ningún momento de lado su compromiso con la protesta pacífica.
Los avances tecnológicos han logrado que, desde principios del siglo XXI,
todas las personas del planeta puedan, en teoría, estar conectadas entre sí a través
de redes multimedia globales. En la práctica, cada vez hay más gente conectada
globalmente a través de redes sociales como Facebook, que en 2012 afirmaba
tener más de mil millones de usuarios activos. En términos generales, en 2011,
una tercera parte de los 7 mil millones de habitantes del mundo estaba conectada
online y había más de 6 mil millones de contratos de telefonía móvil.[20] En
2020, según la compañía de telecomunicaciones sueca Ericsson, la sociedad
global dispondrá de más de 50 mil millones de dispositivos conectados, de los
cuales 15 mil millones tendrán capacidad de vídeo.[21]

Aumento de la complejidad
Durante al menos el 60 por ciento del tiempo de existencia del hombre, los
humanos han vivido en pequeños grupos de estructura sencilla, principalmente
familias ampliadas, en movimiento constante, con el único objetivo de la
supervivencia y con una división del trabajo entre caza y recolección; todos los
adultos varones participaban en la guerra. Tal y como se ha detallado en el
capítulo 27, la invención de la agricultura, y los asentamientos permanentes que
se asocian a ella, iniciaron un proceso de aumento de complejidad de las
sociedades humanas y de su cultura.
La evolución del pensamiento científico llevó a un rápido aumento de la
complejidad en todos los aspectos de las sociedades humanas y de su cultura,
desde las organizaciones sociales, económicas y políticas hasta las
comunicaciones, la educación, los oficios, las artes y las actividades de ocio. En
el siglo XXI, un individuo de un país científicamente avanzado puede vivir con su
familia inmediata y ser miembro de una familia extendida diseminada por el
planeta con la que se comunica electrónicamente. Gracias a su formación, puede
ser una persona socialmente móvil y tener una ocupación profesional muy
distinta a la de sus progenitores. Puede trabajar en una empresa u organización
local, regional, nacional o internacional. Puede ser miembro de un barrio, de una
comunidad local, de un partido político, de un ayuntamiento, de una nación y de
una organización supranacional, como la Comunidad Europea. Por otro lado,
puede ser además miembro de un coro local, de un club de fútbol y de un grupo
de lectura, que pueden ser organizaciones tanto locales como globales, además
de miembro de varias redes sociales globales. Este aumento de la complejidad se
ha iniciado hace aproximadamente 65 años de modo que, teniendo en cuenta que
la especie humana está presente desde hace 25.000 años, estamos hablando de
menos del 0,25 por ciento de la existencia humana.

Tendencia hacia la vanguardia

Estos patrones caracterizan la vanguardia de la evolución humana. Pero la


mayoría de la población humana no forma parte de sociedades científicamente
desarrolladas; en términos generales, su cultura recuerda la de las sociedades
europeas en distintas fases de su desarrollo. En el Bangladesh actual, por
ejemplo, los trabajadores textiles viven en suburbios pobres, trabajan
muchísimas horas en condiciones penosas y cobran salarios que se cuentan entre
los más bajos del mundo; los gobiernos se alían con los propietarios de las
fábricas para desbaratar los intentos de los trabajadores de crear sindicatos y
arrestar a los activistas obreros, ignoran las intimidaciones de los propietarios
hacia sus trabajadores y dificultan los sindicatos.[22] Podríamos estar
perfectamente ante una descripción de los trabajadores del sector textil del
noroeste de Inglaterra a finales del siglo XVIII y principios del XIX. En general, los
países en vías de desarrollo evolucionan de un modo similar, aunque con mayor
rapidez, a cómo evolucionaron en su momento las naciones científicamente
avanzadas.
La mayoría de la población de las sociedades científicamente avanzadas, sin
embargo, no es inmune a las creencias que se han inculcado a lo largo de varios
centenares de generaciones y que provienen de la imaginación primitiva y del
miedo a lo desconocido. En la figura 31.1 se observa que el pensamiento
primitivo no cesa con la emergencia del pensamiento científico. No es de
extrañar que, por ejemplo, un gran porcentaje de la población de los Estados
Unidos, un país científicamente muy desarrollado, crea en el relato bíblico de la
creación cuando está completamente desaprobado tanto por el peso abrumante
de las evidencias como por la consistencia lógica.[23] O que en países
científicamente avanzados haya tantos miembros de la religión más numerosa
del mundo que crean que Dios elige al líder de su Iglesia y le inspira para hablar
indefectiblemente de asuntos morales y relacionados con la fe.
La vanguardia es pequeña y apenas tiene un centenar de años de existencia.
Pero indica la dirección del viaje de la evolución humana. Merece la pena
destacar, por ejemplo, que la iglesia católica romana está perdiendo miembros
con rapidez en las regiones científicamente desarrolladas de Europa y
Norteamérica, mientras que la mayoría de los habitantes de esas regiones que
permanecen en ella no creen en las enseñanzas de la Iglesia sobre cuestiones
éticas, como el control de natalidad; la Iglesia solo conserva miembros
plenamente creyentes en regiones subdesarrolladas, sobre todo en África y
América del Sur.
En general, el instinto de competencia agresiva arraigado a lo largo de
millones de años en nuestros ancestros pre-humanos y las creencias primitivas
inculcadas durante miles de años, son fuerzas tremendamente potentes en la
conformación de la evolución humana que están declinando de manera gradual.
La cooperación, diferenciada de la colectivización impuesta por un rey, un
emperador o un líder religioso, ha luchado contra estas fuerzas y solo ha
empezado a ejercer un efecto significativo sobre la evolución humana en el
último centenar de años, un periodo que se corresponde con el momento en que
los descubrimientos y las invenciones resultado de la segunda revolución
científica empezaron a aportar cambios relevantes en las sociedades humanas.
Pero estos dos factores —cooperación y pensamiento científico— están
convirtiéndose de forma acelerada en fuerzas que conforman la evolución
humana.

Convergencia

La dirección del viaje de la vanguardia de la evolución humana, aunque se


avance a tientas, es hacia la convergencia.
La aparición de la especie humana que se expandió por el planeta creó lo que
el paleontólogo, jesuita y visionario Pierre Teilhard de Chardin denominó una
noosfera (lo que podría definirse, sugiero, como una capa noética), que a su vez
había evolucionado a partir de la litosfera de la Tierra (definida mejor como una
geosfera). Teilhard predijo de un modo abstracto que esta capa de pensamiento
cada vez más complejo se intensificaría y convergería hacia una nueva fase del
proceso evolutivo cósmico. El humanista seglar Julian Huxley compartió esta
visión, pero no se sumó a la identificación que Teilhard había hecho de esta fase
como la cristianización del cosmos, que Teilhard dedujo a partir de sus
profundas creencias religiosas más que siguiendo un argumento metafísico.[24]
Ni Teilhard ni Huxley vivieron para ver estos últimos 65 años, en los que su
visión ha empezado a hacerse realidad. Alrededor de la Tierra no solo se ha
formado una capa de pensamiento sino que además, siguiendo el ritmo
velozmente acelerado de los descubrimientos científicos y las innovaciones
tecnológicas desde mediados del siglo XX, el incremento en la cooperación entre
los humanos junto con el aumento de complejidad de las sociedades humanas y
la globalización de la actividad humana, están generando una tendencia hacia la
convergencia que se opone a la divergencia característica de la competencia.
A nivel biológico, los signos de esta convergencia se hacen aparentes en la
distinción decreciente entre subespecies. El término «raza» rara vez se utiliza
hoy en día en el contexto científico porque es imposible definirlo fuera de los
grupos humanos más aislados que poseen características físicas o genomas
únicos. La tendencia hacia la convergencia se hace más patente en las redes de
intercomunicación, interactuación y cooperación que están formando los
humanos a nivel familiar, local, nacional, internacional y global. El resultado es
una consciencia humana compartida que se refleja en cosas como la
supervivencia de toda la especie humana, de nuestro hábitat planetario, de las
demás especies del planeta y en la futura evolución de sí misma como una
especie y su relación con el resto del cosmos del que forma parte. Esto no
implica un avance hacia la uniformidad, sino más bien una variedad dentro de la
unidad. Del mismo modo que la consciencia introspectiva de un individuo se
correlaciona con la interacción y la colaboración de innumerables redes de
células nerviosas, la consciencia introspectiva de la especie se correlaciona con
la interacción y la cooperación de innumerables redes de consciencias humanas
distintas.
Esta tendencia convergente y acelerada es extremadamente reciente en la
historia humana. La figura 31.1, en la que las 24 horas representan la duración
de la existencia humana, sitúa su inicio 3 minutos antes de la medianoche.

Hominización

Este proceso evolutivo de hominización, o lo que Julian Huxley denominó


evolución psicológica progresiva, se está acelerando pero está todavía muy lejos
de su compleción; los miembros de la especie podrían describirse más como
futuribles humanos que como seres humanos. Por analogía con el desarrollo del
humano a nivel individual, la especie humana nació después de una gestación
muy larga, experimentó una infancia desconcertante y a menudo amedrentadora,
una adolescencia inquietante y ahora se encuentra avanzando a tientas hacia la
edad adulta.
La dualidad cambiante de la naturaleza humana

La dualidad de la especie humana ha quedado patente desde la emergencia de


los humanos y se ha manifestado en aspectos como la cooperación frente a la
competencia, el altruismo frente al egoísmo, y la compasión frente a la agresión.
Esta dualidad se ha visto como un conflicto entre el bien y el mal, se ha
mitificado en historias que van desde el relato de Caín y Abel en la Biblia hebrea
hasta la tentación de Buda por parte de Mara antes de su iluminación y la
tentación de Jesús por parte del diablo en el desierto, pasando por la historia que
escribió en el siglo XIX Robert Louis Stevenson sobre Jekyll y Hyde que
reconoce explícitamente el conflicto dentro de cada individuo.
Pero no es un conflicto estático. La consciencia reflexiva ha evolucionado a
un ritmo cada vez mayor desde su emergencia y está cambiando el equilibrio de
esta dualidad. Mientras que el instinto de competencia agresiva sigue siendo una
fuerza poderosa pero gradualmente decreciente en su influencia sobre la
evolución humana, el concepto de que la cooperación pacífica es el único
camino que tiene la especie humana para sobrevivir y proseguir su evolución
empieza a ser predominante.

La integración de los patrones en las evidencias

La integración de estos patrones dinámicos en las evidencias de la evolución


de loso humanos podernos se representan de forma esquemática en la figura 31.2
(la figura no está a escala).
La evolución de la consciencia reflexiva se inició muy lentamente y su
avance fue torpe, en el sentido de que, contratacada por el instinto dominante
heredado de nuestros antepasados pre-humanos, sus consecuencias, como la
cooperación, avanzaron dando dos pasos hacia delante y un paso hacia atrás: la
cooperación se vio a menudo trastocada por la agresividad y transformada en
colaboración forzada, que es una cosa completamente distinta. La consciencia
reflexiva empezó a tener un impacto importante en el comportamiento de las
sociedades humanas hace tan solo 3.000 años, con la fase del pensamiento
filosófico. A partir de ahí, la aceleración siguió aumentando en la fase científica.
En este momento, sus principales consecuencias —la cooperación, el altruismo,
el aumento de complejidad y la convergencia— no han superado aún las del
instinto, pero la continuación de esta aceleración incrementada implica que
acabarán haciéndolo en un futuro no muy lejano.
[1]http://www.pepysdiary.com/diary/1660/10/, consultado el 31 de marzo de 2012.
[2]http://www.deathpenaltyinfo.org/states-and-without-death-penalty, consultado el 13 de mayo de
2014.
[3]The Better Angels of Our Nature, publicado en español bajo el título Los ángeles que llevamos
dentro: el declive de la violencia y sus implicaciones, Editorial Paidos, Barcelona, 2012.
[4]Pinker (2012), pp. 62–63.
[5]http://www.pugwash.org/about/manifesto.htm, consultado el 1 de abril de 2013.
[6]http://coursesa.matrix.msu.edu/~hst306/documents/indust.html, consultado el 1 de abril de 2013.
[7]http://www.nobelprize.org/nobel_prizes/peace/laureates/2012/, consultado el 31 de marzo de 2012.
[8]Véase, por ejemplo, http://www.iranhrdc.org/english/publications/reports/3401-survivingrape-in-
iran-s-prisons.html#.UVn_jHD5hhK, consultado el 1 de abril de 2013.
[9] Véase página 429.
[10]Kropotkin (1972), p. 114.
[11]Cannadine (2013).
[12] Véase el glosario.
[13] Véase, por ejemplo, página 695.
[14] Véanse, por ejemplo, las conclusiones 4 y 5, página 749.
[15]Kropotkin (1972), pp. 113–140.
[16]Para un relato sobre los orígenes y el desarrollo del movimiento cooperative, véase Hands (1975),
pp. 13–28.
[17]http://ica.coop/en, consultado el 23 de marzo de 2013.
[18]http://ica.coop/en/whats-co-op/co-operative-facts-figures, consultado el 25 de marzo de 2013.
[19] Véase página 714.
[20]http://www.itu.int/ITU-D/ict/facts/2011/material/ICTFactsFigures2011.pdf, consultado el 5 de abril
de 2013.
[21]http://www.ericsson.com/news/1775026, consultado el 7 de abril de 2014.
[22]Véase, por ejemplo, http://www.hrw.org/news/2013/04/25/bangladesh-tragedy-showsurgency-
worker-protections, consultado el 25 de abril de 2013.
[23] Véase página 41.
[24]Teilhard de Chardin (1965); Huxley (1965).
CUARTA PARTE.
Un proceso cósmico
CAPÍTULO 32. LAS LIMITACIONES DE LA
CIENCIA

El método científico es el único medio para descubrir la naturaleza de la realidad.

PETER ATKINS, 2011

Pese a que supuestamente vivimos en la gran época de la investigación científica, la nuestra se ha


convertido en una época de superstición sobre la infalibilidad de la ciencia.

LOUIS KRONENBERG, 1954

A lo largo de nuestro viaje ha quedado claro que la ciencia tiene límites en


cuanto a lo que puede explicarnos sobre quién somos y cómo hemos
evolucionado desde el origen del universo. Revisaré dos categorías de
limitaciones: (1) dentro del ámbito de la ciencia y (2) fuera del ámbito de la
ciencia. Mencionaré brevemente algunos asuntos que quedan fuera del ámbito de
la ciencia y que debemos conocer para responder a las preguntas de qué somos,
de dónde venimos, cómo hemos evolucionado, y concluiré sugiriendo cualquier
posible limitación.

Limitaciones dentro del ámbito de la ciencia

En el capítulo 29 he repetido la definición de ciencia tal y como la


entendemos actualmente y le he incorporado el método científico generalmente
aceptado del que es inseparable, haciendo además hincapié en que los científicos
no siempre siguen todos los pasos de este método, sobre todo en el caso de los
avances fundamentales más destacados. Dentro de este ámbito, existen
limitaciones en cuanto a lo que la ciencia puede explicarnos en la actualidad y
que los avances científicos podrán superar; sin embargo, hay limitaciones que
son insuperables. Resulta útil considerarlas ambas dentro de los diversos
aspectos interrelacionados de la ciencia.

Observación y medición

La ciencia utiliza observaciones y experimentos sistemáticos y


preferiblemente mensurables, pero si dos teorías científicas de base son válidas,
nos encontramos con limitaciones en cuanto a lo que puede ser sometido a
observación y medición.
Si la teoría cuántica es válida, el Principio de incertidumbre de Heisenberg
nos dice que cuánto más seguros estemos de la medición de la posición de un
objeto menos seguros estaremos de la medición simultanea de su velocidad. Esto
aplica también a la medición de la energía de un objeto en un momento concreto.
Para los objetos visibles, el producto de estas dos incertidumbres es tan pequeño
que puede ignorarse. Sin embargo, en el caso de objetos con la masa de un
átomo o incluso inferior, como podría ser un electrón, la incertidumbre resulta
significativa.
Además, no podemos medir un intervalo de tiempo inferior a 10-43 segundos
ni decir nada con sentido sobre un suceso que se produzca en ese intervalo de
tiempo. A pesar de que no es una limitación práctica para la mayoría de
fenómenos, muchos de los varios modelos de inflación de los cosmólogos
especulan que, en el inicio del universo, se produjeron sucesos muy importantes
en un intervalo de tiempo de este tipo.
Si la teoría especial de la relatividad es válida, nada puede viajar más rápido
que la luz y, por lo tanto, no podemos observar nada que esté más alejado de
nosotros que la distancia recorrida a la velocidad de la luz desde los inicios del
universo; es lo que se conoce como el horizonte de partículas. Además, si el
modelo ortodoxo actual de la cosmología, el del Big Bang caliente, es válido, no
podemos observar nada anterior a 380.000 años después del Big Bang, puesto
que la radiación electromagnética no se habría separado de la materia; es lo que
se conoce como horizonte visual.[1]

Datos

Los datos científicos —la información obtenida mediante la observación o la


experimentación sistemáticas— están limitados en cuatro sentidos. En primer
lugar, hay datos que no se han obtenido aún pero que están siendo buscados
activamente, como qué es la materia oscura que hipotéticamente reconciliaría la
teoría gravitatoria con las observaciones,[2] aunque algunos teóricos defienden
que los cambios en la teoría gravitatoria eliminan la necesidad de que exista la
materia oscura.[3]
En segundo lugar, en el futuro se descubrirán datos inesperados que
producirán cambios en las teorías. El descubrimiento de la radioactividad dio
como resultado la teoría de la interacción nuclear débil como una de las cuatro
fuerzas fundamentales del universo.[4]
Las dos siguientes son limitaciones insuperables. Los datos existentes pueden
ser poco fidedignos de por sí. Por ejemplo, los primeros registros escritos rara
vez se concibieron como un relato factual pero sirvieron a las necesidades
propagandísticas de un gobernante o de una religión, como sucede con la historia
bíblica de la caída de Jericó, mientras que los relatos del pensamiento filosófico
griego más antiguo provienen de fuentes secundarias y terciarias escritas varios
centenares de años más tarde.
Por último, puede haber datos perdidos para siempre. En el capítulo 14 vimos
que al ser la fosilización un fenómeno tan excepcional, y debido al hecho de que
prácticamente todas las rocas sedimentarias fueron subducidas o experimentaron
metamorfosis durante los primeros miles de millones de años de la Tierra, es casi
seguro que jamás lograremos obtener evidencias de las primeras formas de vida
de la Tierra.[5] La escasez de ejemplares fósiles hace imposible, entre otras
cosas, determinar el linaje concreto que va desde los primates hasta los humanos
modernos.[6]

Subjetividad
Se dice a menudo que el método científico es la única manera de obtener una
explicación objetiva de los fenómenos, pero tal y como observó el inmunólogo y
Premio Nobel, Peter Medawar, «La observación inocente y no tendenciosa es un
mito».
La subjetividad puede limitar el poder explicativo de la ciencia en tres
aspectos relacionados entre sí: la adopción (a menudo inconsciente) de supuestos
de base, la selección de datos y la interpretación de los datos.

Adopción de supuestos

En la base de toda explicación científica existe una elección explícita o


implícita de supuestos. Vimos, por ejemplo, en el capítulo 3 que para resolver las
ecuaciones de campo de la relatividad general aplicadas al universo, Einstein y
otros se basaron en dos supuestos explícitos: el universo es isotrópico (es el
mismo independientemente de la dirección hacia la que miremos) y es
omnicéntrico (esto sigue siendo cierto si observamos el universo desde cualquier
otra parte). El primer supuesto no es totalmente válido: las estrellas de nuestra
galaxia, por ejemplo, forman una banda visible de luz en el firmamento, lo que
se conoce como la Vía Láctea. Lo segundo nunca podrá ser verificado.
Con estos dos supuestos simplificadores, que dan necesariamente como
resultado un universo homogéneo (es el mismo en todos los puntos), las
ecuaciones de la relatividad general produjeron tres soluciones: un universo
cerrado cuya expansión se ralentizará, se detendrá y se iniciará en el sentido
inverso, terminando con un Big Crunch; un universo abierto cuya expansión
continuará indefinidamente a un ritmo regular produciendo un universo vacío; y
un universo plano cuyo ritmo de expansión se ralentiza pero no se detiene nunca.
Los cosmólogos adoptaron la solución del universo plano como supuesto de base
para lo que acabó convirtiéndose en el modelo ortodoxo, el Big Bang, y sus
posteriores modificaciones. En los capítulos 3 y 4 se demostró que este modelo
es inconsistente con las observaciones. Sin embargo, los supuestos de base del
modelo apenas se mencionan, y mucho menos se cuestionan, mientras que las
soluciones del universo abierto o del universo cerrado rara vez se examinan para
ver si encajan mejor con los datos observados.
La Segunda Parte expone los muchos supuestos de los que han partido los
biólogos para intentar explicar la emergencia y la evolución de la vida. Por
ejemplo, la explicación ortodoxa de la evolución de las formas de vida se basa
en el supuesto de que los genes, ADN que codifica para la producción de
proteínas, son los responsables de la apariencia y la conducta características de
un organismo. El supuesto era razonable a mediados del siglo XX, pero se acabó
solidificando en una doctrina y sus defensores resistieron o ignoraron los ataques
de aquellos que defendían que se trataba de un burdo exceso de simplificación.
Durante más de 50 años, los defensores del neodarwinismo se basaron en el
supuesto de que el 98 por ciento del genoma humano que no estaba integrado
por genes era simple ADN basura carente de toda función. Los experimentos
llevados a cabo en los últimos años como resultado del mapa del genoma
humano han demostrado que la realidad no es ni mucho menos esa y han
reivindicado los argumentos de aquellos que desafiaron aquel supuesto de base.
[7]
Otro ejemplo ofrecido en el capítulo 20 es la lista de supuestos sobre los que
se asienta la técnica del reloj molecular que se utiliza para determinar cuándo las
especies se separaron, y los importantes retos a los que se enfrentan esos
supuestos.[8]
Por lo que a la evolución del pensamiento, los sentimientos y la conducta
humana, el supuesto de base de la psicología evolutiva es que estas
características son el resultado de la acumulación neodarwinista de
modificaciones genéticas seleccionadas naturalmente a lo largo de miles de
generaciones para dar a los humanos una ventaja competitiva para sobrevivir
durante la Edad de Piedra. En el capítulo 29 he planteado la irracionalidad y el
conflicto con las evidencias que presenta este supuesto.[9]
Los supuestos que fueron razonables en el momento en que fueron asumidos
deberían reconocerse explícitamente como supuestos a revisar, modificar o
abandonar en cuanto aparecen evidencias que entran en conflicto con ellos, y no
solidificarse hasta convertirse en un dogma que limita el avance del poder
explicativo de la ciencia.

Selección de datos
La decisión de qué fenómeno observar o medir sistemáticamente o de qué
fenómeno experimentar, y qué datos recopilar entre todos los obtenidos a partir
de estas observaciones o experimentos, siempre tiene un matiz interesado. La
selección está fuertemente influenciada por la elección consciente o inconsciente
de los supuestos de base y con frecuencia también por los resultados que se
espera obtener. En el ejemplo del reloj molecular que se acaba de citar, los
investigadores seleccionan qué datos utilizar para calibrar el reloj y seleccionan
que secuencias de nucleótidos comparar en las distintas especies. Distintas
selecciones pueden llevar a conclusiones muy distintas. Por ejemplo, las
estimaciones en cuanto a la división entre el género de chimpancés Pan y el
género humano Homo oscilan entre hace 2,7 y hace 13 millones de años.[10]
La selección de datos suele estar relacionada con la interpretación de dichos
datos.

Interpretación de datos

Un dato por sí mismo, como podría ser la lectura de la temperatura que


marca un termómetro, carece de sentido. La ciencia se ocupa de la interpretación
de los datos. La interpretación objetiva de los datos por parte de los científicos es
un ideal que nunca llega a alcanzarse. Los filósofos Thomas Khun y Paul
Feyerabend mantenían que la interpretación está determinada en gran parte por
la teoría previa. Y así es, efectivamente. En la primera parte se presentan muchos
ejemplos de datos astronómicos interpretados de manera distinta por los
defensores de la teoría ortodoxa y de otras teorías. Entre ellos están los grandes
desplazamientos al rojo asociados a los cuásares,[11] la radiación de supernovas
Tipo 1a muy remotas,[12] las ondulaciones en el fondo cósmico de microondas,
[13] y el mapa de la sonda de anisotropía de microondas Wilkinson.[14]
Además, hay más factores implicados. Los científicos no son autómatas. No
se diferencian del resto de la gente y tienen motivaciones, egos, ambiciones e
inseguridades como todos nosotros. La investigación de las distintas
interpretaciones me lleva a sugerir, no sin cierta malicia, la Ley de la
interpretación de datos.
Ley de interpretación de los datos: el grado en el cual un científico se
distancia de una interpretación objetiva de los datos de su investigación
es función de cuatro factores: su determinación por validar una hipótesis
o confirmar una teoría; el tiempo que la investigación ha ocupado en su
vida; su grado de inversión emocional en el proyecto; y su necesidad
profesional de publicar un documento importante o salvaguardar su
reputación.

Cuando se practica la mejor ciencia, este grado es pequeño. Pero cuando el


grado es grande, se convierte en ciencia defectuosa, un asunto que consideraré
más adelante.
La segunda parte descubría también muchos problemas a la hora de
interpretar los datos para explicar la evolución de la vida. Incluso en aquellos
casos excepcionales en que se descubre un fósil completo, su interpretación
puede ser errónea. Por ejemplo, un fósil descubierto en el esquisto de Burgess,
Canadá, se consideró de entrada como un ejemplar perteneciente a una especie
desconocida que caminaba sobre una especie de zancos espinosos y en 1977 se
le impuso el nombre de Hallucigenia sparsa. 14 años más tarde, evidencias
descubiertas en China demostraron que el fósil se había estudiado bocabajo: era
miembro de un filo ya existente que caminaba sobre unas patas parecidas a
tentáculos y tenía dos hileras de espinas en el dorso.[15]
La mayoría de fósiles, sin embargo, no son más que pequeños fragmentos y
en el capítulo 17 se documentan las dificultades que plantea su interpretación
con el objetivo de averiguar más detalles sobre la evolución de la vida.
En el capítulo 26 se examinan los problemas de la interpretación de los
fósiles y demás evidencias para explicar cómo, dónde y cuándo emergieron los
primeros humanos y cómo las distintas interpretaciones dan resultados distintos
en cuanto a los linajes que conducen de los homininos a los humanos.

Método

El reduccionismo —el método que consiste en desglosar algo en las distintas


partes que lo componen para comprender en qué consiste y cómo funciona— ha
demostrado ser una herramienta de gran éxito para aumentar nuestros
conocimientos sobre los fenómenos naturales. Puede ofrecer explicaciones
completas para sistemas aislables y relativamente simples, como el de la
formación de estructuras de cristal en una solución salina saturada.
Pero el reduccionismo se muestra limitado para explicar sistemas complejos,
abiertos, interactivos y emergentes. En el capítulo 13 hemos visto sus
limitaciones en cuando a definir la vida[16] y sus limitaciones han quedado más
patentes si cabe en el capítulo 26, al hablar sobre la emergencia de los humanos
con consciencia reflexiva a partir de sus antecedentes pre-humanos. La mayoría
de teóricos cuánticos lo consideran inadecuado para explicar los fenómenos
naturales.
Los científicos que solo utilizan esta herramienta analítica limitan su
capacidad explicativa al no poder combinarla con un enfoque holístico.

Teoría

Varias teorías planteadas como científicas implican en sus conceptos la


infinitud. El modelo matemático del universo de Friedmann-Lemaitre, en el que
se basa la idea del Big Bang, es infinito en su alcance. Como se ha destacado en
el capítulo 6, infinito y un número muy grande no es en absoluto lo mismo.[17]
Si una cantidad o un número infinito se corresponde con la realidad, o al menos
con la realidad percibida por seres finitos como nosotros, es una cuestión
metafísica que la ciencia no puede responder. Mientras estas teorías no puedan
verificarse mediante la observación o la experimentación sistemática, quedarán
fuera del ámbito de la ciencia. Consideraré algunas de las más relevantes en un
momento más avanzado del capítulo.
Como se ha mencionado también en el capítulo 6, las dos teorías sobre las
que actualmente se asienta la física tienen una capacidad explicativa limitada. La
teoría de la relatividad no puede explicar fenómenos de la escala del átomo o
inferior, mientras que la teoría cuántica no puede explicar fenómenos con la
masa de una estrella o superior o con una velocidad cercana a la de la luz.
Se hace razonable suponer que, del mismo modo que la teoría de la
relatividad y la teoría cuántica fueron en su momento avances con respecto a las
teorías previas de la mecánica clásica, un nuevo avance podría producir una
teoría más profunda que supere las limitaciones de la teoría de la relatividad y de
la teoría cuántica. Podría superar además los límites de medición y observación
de estas dos teorías.
Otra teoría de alcance limitado es la del principio de entropía creciente, que
afirma que en un sistema cerrado o aislado el desorden se mantiene o, más
comúnmente, aumenta a medida que la energía disponible disminuye.[18] Pese a
que la mayoría de sistemas lo soporta empíricamente, este principio no explica la
evolución del universo —que por definición es un sistema cerrado o, como
mínimo aislado—, que muestra un aumento de complejidad con el paso del
tiempo.[19]
En las Conclusiones del capítulo 10 he sugerido que una solución a este
problema sería la identificación de una nueva forma de energía que estuviera
implicada en las transformaciones de energía y en los cambios de complejidad
asociados.
La historia de la ciencia ha mostrado casos imprevistos que han cambiado
radicalmente nuestra comprensión de la naturaleza. Antes de mediados del siglo
XIX, nadie había previsto que los fenómenos eléctricos y magnéticos quedarían
explicados por la existencia de un campo de energía universal (los físicos
teóricos consideran actualmente que el rango del campo electromagnético es el
universo en su totalidad). Antes de 1932, no se conocía la existencia del campo
de energía responsable de unir las partículas del núcleo atómico (la fuerza
nuclear fuerte). Antes de 1956, tampoco se conocía la existencia del campo de
energía responsable de un tipo de desintegración radiactiva (la fuerza nuclear
débil). Pero, con todo y con eso, las interacciones de la fuerza electromagnética,
la fuerza nuclear fuerte y la fuerza nuclear débil, junto con la interacción
gravitatoria, constituyen lo que la ciencia reconoce actualmente como las cuatro
interacciones fundamentales de la naturaleza.[20]

¿Energía psíquica?

Una candidata a nueva forma de energía es la energía psíquica. En términos


generales podría definirse como la energía asociada a la mente que no es
reducible a formas conocidas de energía.
En el siglo XIX, los supuestos ejemplos de energía psíquica estaban
relacionados con creencias supersticiosas como el espiritualismo y con
emociones como el duelo y eran, en su mayoría, engañosos y fraudulentos. En
consecuencia, los científicos rechazaron la idea y apenas llevaron a cabo
investigaciones sobre el tema.
Las áreas de estudio más recientes en el campo de la energía psíquica en
Europa y Norteamérica incluyen la percepción extrasensorial, la psicoquinesis
(la manipulación de objetos físicos con el poder de la mente), las experiencias
extracorpóreas y las experiencias cercanas a la muerte.
El libro que publicó en 1975 el psicólogo Raymond Moody, Vida después de
la vida,[21] ofreció los primeros relatos detallados de experiencias cercanas a la
muerte. Impulsó la fundación de organizaciones como la International
Association for Near-Death Studies que busca, recopila, clasifica e investiga
estos casos. Una encuesta llevada a cabo por Gallup en 1992 estimó que unos 8
millones de norteamericanos habían experimentado este tipo de experiencia.
Muchos de los fenómenos experimentados, como ver pasar la propia vida en un
instante, una sensación de serenidad, viajar por un túnel de luz y ser recibido por
un familiar fallecido o por una deidad (Jesús en el caso de los cristianos, Shiva u
otro dios en el de los hindúes, etc.) tienen explicaciones fisiológicas
perfectamente plausibles, como la anestesia y otros fármacos administrados al
paciente capaces de provocar alucinaciones y distorsiones de memoria, el exceso
de dióxido de carbono, la falta de oxígeno en las neuronas provocada por el
descenso de la presión arterial, el cierre paulatino de determinadas regiones del
cerebro moribundo y una sobrecarga transitoria de las ondas cerebrales gamma
que se produce inmediatamente después de sufrir una parada cardiaca, como se
ha demostrado en ratones.[22]
Pero hay una categoría que aparentemente desafía todas estas explicaciones.
Algunos pacientes que han resucitado después de haber sido declarados
clínicamente muertos informan de haber abandonado su cuerpo y haber
presenciado el ejercicio de resucitación desde una posición superior, como si
hubieran estado tocando el techo, y ofrecen un relato preciso de las actividades y
las conversaciones de los médicos.
Sam Parnia, en la actualidad médico de cuidados intensivos y director de la
unidad de investigación de la resucitación de la Stony Brook University School
of Medicine, Nueva York, junto con Peter Fenwick, experto británico en
experiencias cercanas a la muerte y neuropsiquiatra, iniciaron un estudio en 2008
con el fin de investigar si la mente puede separarse del cuerpo.
El estudio fue posteriormente modificado para examinar un rango más
amplio de experiencias mentales de 2.060 pacientes que habían sufrido paradas
cardiacas en 15 hospitales distintos, y los resultados fueron publicados en la
edición de diciembre de 2014 de Resuscitation.[23] Pudieron entrevistar a 140
de los 330 supervivientes. El 39 por ciento describió una percepción de
consciencia de la situación pero no recordaba explícitamente lo sucedido. Según
Parnia, esto sugiere que una proporción elevada de individuos podría haber
tenido experiencias cercanas a la muerte intensas pero no las recordaba como
consecuencia de los efectos de las lesiones cerebrales o de los fármacos sedantes
sobre los circuitos de la memoria.
Entre los 101 pacientes que completaron posteriores entrevistas, nueve de
ellos (un 9 por ciento) informaron de experiencias compatibles con experiencias
cercanas a la muerte, mientras que dos pacientes recordaban experiencias
extracorpóreas en las que habían «visto» y «oído» sucesos asociados con su
proceso de resucitación, aunque resultó imposible diferenciar el sesgo del
recuerdo y los recuerdos fabricados (el relleno inconsciente de los vacíos de
memoria mediante fabulaciones que se consideran reales). Uno de los
entrevistados informó de recuerdos de estímulos auditivos durante un periodo de
tres minutos durante el cual no le latió el corazón.
Los investigadores llegaron a la conclusión de que los resultados justificaban
una investigación más amplia, mientras que los escépticos los consideraron
totalmente negativos.
Si es posible recibir información cuando los pulmones han dejado de respirar,
el corazón ha dejado de bombear sangre hacia el cerebro y el cerebro no muestra
actividad neural, cabría sugerir que la mente no está limitada por los
aproximadamente 1.200 centímetros cúbicos que ocupan los 1,5 kilos de materia
gelatinosa que forma un cerebro humano, o que ni siquiera depende del
funcionamiento del cerebro para existir. De ser así, el funcionamiento de la
mente exigiría una nueva forma de energía.
No dispongo de más espacio para considerar en profundidad el problema
clásico de la mente y el cuerpo que, en el mundo científico, está polarizado entre
la mayoría, que cree en el fisicalismo o materialismo, y la minoría, que cree o en
el idealismo (básicamente los teóricos cuánticos) o en el dualismo, que sostiene
que la mente y el cuerpo no son lo mismo. Basta con decir que el cerebro por sí
solo no puede ser el equivalente a la mente: un cerebro aislado es una sandez
biológica.
Todos los estudios neurocientíficos verificables sistemáticamente y
replicables afirman demostrar que la mente no es nada pero que las interacciones
de las neuronas en el cerebro pueden interpretarse como la mente inmaterial que
dirige el cuerpo material a través del cerebro. Por lo tanto, utilizando el ejemplo
del capítulo 29, si usted decide disparar a su vecino, la mente ordenará las
acciones que llevará a cabo el cuerpo según las señales electroquímicas
generadas por el cerebro. Frente a los tribunales, resultaría menos que
convincente argumentar que no ha tenido más opción porque Francis Crick,
Stephen Hawking y otros materialistas sostienen que el libre albedrio es una
ilusión; que todas las acciones están determinadas por sus genes y por la química
cerebral, un punto de vista conocido como determinismo neurogenético.
Los estudios sobre las lesiones de distintas regiones del cerebro que afectan a
distintas funciones mentales, como la memoria o la vista, se presentan como
evidencias que sustentan el punto de vista materialista de que la mente no es más
que el cerebro en acción, pero el neurocientífico Mario Beauregard repite las
ideas de muchos dualistas cuando asevera que esto «es tan ilógico como
escuchar música en una radio, destruir el aparato de radio y llegar a la
conclusión de que la radio era lo que creaba la música».[24]
La percepción extrasensorial es la supuesta capacidad que permite adquirir
información sin la utilización de los cinco sentidos. Incluye la telepatía (cuando
la información proviene de otra persona), la visión remota (cuando la
información proviene de un objeto o un suceso remoto) y la precognición y la
retrocognición (cuando la información proviene del futuro o del pasado).
En principio, no existen motivos para asumir que sea imposible. Antes de
mediados del siglo XIX nadie creía posible transmitir información visual a través
de un medio material que no fuera el servicio postal. Pero poco más de cien años
después, las películas y el sonido se enviaban y recibían con grandes distancias
de por medio en forma de ondas de energía electromagnética.
En 1975, en plena Guerra Fría, se puso en marcha un proyecto secreto de 20
millones de dólares sobre visión remota y psicoquinesis que se prolongó durante
20 años. Subvencionado por las agencias de inteligencia de los Estados Unidos y
por la NASA, estuvo dirigido por dos físicos de láser, Harold Puthoff y Russell
Targ, del Stanford Reseach Institute de California. Trabajaron en él docenas de
médiums y videntes no solo en labores de investigación sino también para
realizar visiones remotas y, según uno de los participantes, interrupción
psicoquinética del electromagnetismo del enemigo.
En 2002, el neurocientífico cognitivo Michael Persinger publicó un estudio
sobre la capacidad de visión remota de uno de los médiums participantes en el
Stargate, Ingo Swann, y concluyó no solo con que se habían obtenido resultados
positivos, sino que además estos resultados podían correlacionarse con procesos
neuropsicológicos y sucesos físicos; además, afirmó que la visión remota podía
mejorar con la aplicación de campos magnéticos en el cerebro del sujeto.[25]
En 2012, Targ publicó un libro titulado The Reality of ESP: A Physicist’s
Proof of Psychic Phenomena [La realidad de la percepción extrasensorial: la
prueba de un físico de los fenómenos psíquicos] que documenta sus décadas de
investigación científica en este campo, incluyendo las evidencias ya
desclasificadas del proyecto Stargate. Entre sus ejemplos destaca el de un
comisario de policía jubilado con poderes psíquicos, Pat Price, que dibujó a
escala y con gran detalle una fábrica de armamento soviética localizada en
Semipalatinks, una estructura que fue posteriormente confirmada mediante
fotografías tomadas por satélite, y el de los beneficios de 120.000 dólares
obtenidos por su grupo por predecir durante nueve semanas seguidas las
oscilaciones de la plata en el mercado de futuros.
Targ cree que estos fenómenos psíquicos se explican en parte por los
conceptos de la mecánica cuántica de la no localidad y del entrelazamiento
cuántico, y que todo está relacionado con la antigua revelación mística de que el
Yo de la consciencia pura es lo mismo que la realidad suprema de la Consciencia
Cósmica.[26] A pesar de que algunos individuos poseen por naturaleza potentes
habilidades psíquicas, Targ considera que la percepción extrasensorial es una
capacidad que puede aprenderse.[27]
En el libro publicado en 1997 que lleva por título The Noetic Universe: The
Scientific Evidence for Psychic Phenomena[28] [El universo noético: las
evidencias científicas de los fenómenos psíquicos], Dean Radin, director
científico del Institute of Noetic Sciences, ofrece otros ejemplos, igual que en el
libro que publicó en 2006, Entangled Minds[29] [Mentes entrelazadas], donde
comparte la creencia de Targ de que el entrelazamiento cuántico podría explicar
los fenómenos psíquicos. Radin defiende que la mayoría de la comunidad
científica se niega a aceptar las potentes evidencias de existencia de la energía
psíquica debido al sesgo de confirmación, un término psicológico según el cual
las evidencias que sustentan creencias previas se perciben como plausibles,
mientras que las evidencias que desafían creencias previas se perciben como
inverosímiles y, por lo tanto, se asume que son débiles o falsas.
Es evidente que la mayoría de científicos rechaza la energía psíquica como
fenómeno. Sin embargo, la hipnosis es una comunicación mente-mente
intencionada mediada por la comunicación vocal entre el emisor y el receptor.
Induce en el receptor una relajación física profunda y un estado de consciencia
alterado que se correlaciona con cambios en el funcionamiento de su cerebro. En
este estado alterado, la mente del receptor responde a sugerencias del emisor que
producen cambios mentales, como el alivio de la ansiedad, y cambios físicos,
como el alivio del dolor.
Numerosas pruebas científicas han confirmado sus efectos[30] y, desde los
años noventa, la medicina ortodoxa moderna ha adoptado la terapia por hipnosis
en países científicamente desarrollados como un tratamiento efectivo para
determinadas afecciones.[31]
Además, en 2014, el físico teórico Giulio Ruffini y un equipo internacional
multidisciplinario demostraron la transmisión de información directa de un
cerebro humano a otro a través de grandes distancias y sin la utilización de los
sentidos.
El equipo desarrolló técnicas recientes con interfaces cerebro-ordenador
mediante los cuales los electrodos conectados a la cabeza registran corrientes
eléctricas cuando el individuo tiene un pensamiento determinado, como querer
mover un brazo robótico o controlar un dron. En este caso, el receptor de las
corrientes sería otro humano. Los pensamientos del emisor se tradujeron en
código binario a través de un encefalograma conectado a internet y fueron
recibidos a 8.000 kilómetros de distancia mediante unos auriculares de
estimulación magnética transcraneal colocados en tres personas y que
estimulaban directamente su córtex visual. Los receptores, que tenían los ojos
vendados, informaron de haber percibido destellos de luz en su visión periférica
que se correspondían con el mensaje.
Teniendo en cuenta que la transmisión exigía una actividad mental
intencionada tanto por parte del emisor como del receptor, Ruffini considera la
experiencia como las primeras fases de una telepatía con soporte tecnológico y
llega a la conclusión de que en un futuro no muy lejano el uso de la
comunicación mente a mente con mediación tecnológica estará plenamente
extendido.[32]
Algunos defensores y practicantes que emplean distintos tipos de energía
psíquica, sin embargo, rechazan el método científico por considerarlo
inadecuado y argumentan que la esencia radica en la experiencia subjetiva, no en
los test objetivos.
Hay que tener en cuenta que a pesar de que muchos practicantes de la energía
psíquica del siglo XIX estaban involucrados en la superstición y, como
consecuencia de ello, la ciencia refutaba sus reivindicaciones, esto sucedió
también con los primeros practicantes de muchas disciplinas científicas, como
por ejemplo la química. Rechazar la posible existencia de la energía psíquica es
tan poco razonable como rechazar la posibilidad de que una nueva teoría
verificable pueda sustituir la teoría cuántica y la teoría de la relatividad porque
los intentos de hacerlo a lo largo de los últimos treinta años hayan fracasado, por
mucho que la inversión de recursos haya sido inmensamente superior a la que se
ha dedicado a la investigación de la energía psíquica.
Además, la mayoría de cosmólogos se conforma con conjeturar la existencia
de una nueva y misteriosa energía oscura que ocupa más de dos tercios del
universo cuando otras interpretaciones de un fenómeno, otras hipótesis y otros
modelos cosmológicos no están de acuerdo con ello.[33]
En el futuro podrían descubrirse y validarse nuevas formas de energía, igual
que ha sucedido en el pasado. Que una candidata a nueva forma de energía sea
aquella que está asociada con el incremento empíricamente constatado de la
consciencia reflexiva y con el incremento de complejidad correlacionado al
mismo, es decir, una energía mental o psíquica, sería una conjetura razonable.

Ciencia defectuosa
El poder explicativo de la ciencia queda limitado cuando las propuestas que
afirman ser científicas contradicen algún dogma básico de la ciencia o sus
métodos. La frontera entre ciencia y ciencia defectuosa puede llegar a ser muy
difuso. Antes he sugerido que la objetividad en la elección de supuestos y en la
selección e interpretación de datos es un ideal inalcanzable. Cuando el grado de
subjetividad es pequeño, estamos ante buena ciencia; cuando es grande, y sobre
todo cuando además es deliberado, tenemos ciencia defectuosa. Esta
investigación se ha encontrado con otros tipos adicionales de ciencia defectuosa.

Utilización inapropiada de modelos

Un modelo por ordenador o matemático puede ser extremadamente útil para


construir o refinar una hipótesis que luego se verifique empíricamente. Fusionar
el modelo con la realidad, sin embargo, es ciencia con defectos.
Además, suponer que la prueba matemática constituye prueba científica
cuando no existe manera conocida de verificar el modelo empíricamente,
también es ciencia defectuosa.[34] Es el caso, por ejemplo, de las diversas
«teorías» de cuerdas y de la teoría M,[35] y de la afirmación que el modelo de la
gravedad cuántica de bucles ha establecido sobre la existencia de un universo
colapsado previamente con propiedades específicas.[36]
Introducir en un modelo matemático un parámetro arbitrario o un campo
escalar y alterar su valor para obtener el resultado deseado o validar una teoría
también es ciencia defectuosa. El modelo carece de cualquier función predictiva.
Como se apuntó en el capítulo 3, Einstein introdujo la constante cosmológica
lambda (Λ) en sus ecuaciones de campo de la relatividad general y le asignó un
valor calculado para producir un universo estático. Después de aceptar los datos
obtenidos mediante observación que confirmaban la expansión del universo,
tanto él como otros científicos eliminaron Λ de las ecuaciones. Cuando este
modelo básico del Big Bang empezó a plantear grandes problemas, los teóricos
de la inflación reintrodujeron Λ, pero con un valor muchísimo mayor que el que
originalmente le había asignado Einstein y solo durante un periodo
increíblemente breve para así obtener la densidad de masa crítica de un universo
tremendamente expandido que experimenta una expansión desacelerada estable.
Posteriormente, para confirmar su interpretación de la radiación de las
supernovas Tipo 1a, los cosmólogos asignaron otro valor arbitrario muy distinto
a Λ y quisieron demostrar con ello que, contrariamente a lo dicho de que el
universo experimentaba una expansión desacelerada estable, el ritmo de
expansión había empezado a acelerarse después de transcurridos dos tercios de
su vida; Λ, en este caso, representaría una energía oscura desconocida para la
que no existe ningún tipo de base empírica.[37] Hoyle y sus colegas asignaron
un cuarto valor a Λ para producir un universo en expansión en un estado
estacionario a través de ciclos de expansión y contracción de 50 mil millones de
años.[38]
En los años 70, y para explicar aquellas conductas animales y humanas que
contradecían el modelo neodarwinista, los sociobiólogos adoptaron modelos de
juego simplistas utilizados en la economía que están divorciados de la realidad
biológica. Eligiendo de manera arbitraria las reglas de los juegos, los parámetros
y los valores asignados a dichos parámetros, obtuvieron los resultados deseados.
[39] Un juego económico distinto con un conjunto de elecciones distintas
produjo el resultado contrario.[40]

Afirmaciones que van más allá de las evidencias o las contradicen

La creencia en supuestos más que en una valoración objetiva de las


evidencias produce afirmaciones exageradas. Por ejemplo, la afirmación de que
la sonda espacial Wilkinson Microwave Anisotropy Probe (WMAP) permitió a
los científicos distinguir entre diferentes versiones de lo que sucedió durante la
primera billonésima de segundo de la existencia del universo se basa en un
conjunto de supuestos sin ninguna base empírica.[41]
El relato de la paleontología ortodoxa de cinco sucesos de extinción en masa
en los últimos 500 millones de años, con estimaciones de porcentajes de especies
extinguidas en periodos geológicamente súbitos, va mucho más allá de las
evidencias fósiles, dejando aparte la incertidumbre sobre lo que en aquellos
tiempos podía considerarse una especie.[42]
Basándose en el supuesto neodarwinista de cómo se produce la evolución, la
mayoría de biólogos afirma que si dispusiéramos de evidencias fósiles más
completas observaríamos un cambio gradual. Lo cual entra en contradicción con
las evidencias documentadas por los paleontólogos que muestran una estasis
morfológica con cambios menores, y a menudo oscilantes, salpicados por la
aparición geológicamente repentina de nuevas especies que a su vez permanecen
sin cambios hasta desaparecer del registro fósil o seguir hasta la actualidad como
lo que se conoce como «fósiles vivos».[43]
A diferencia de los fundadores del neodarwinismo, la mayoría de los
neodarwinistas contemporáneos niega, a pesar de que las evidencias son
abrumadoras, que la evolución biológica muestre un patrón de aumento de
complejidad, puesto que de ser así entraría en conflicto con lo que tienen
asumido como causa de la evolución biológica o con una ideología que cree que
todas las especies son iguales.[44]

Selección de datos sesgada

Cuando la selección de datos presenta un sesgo deliberado para poder


sustentar una teoría o hipótesis, se convierte en ciencia fallida.
El capítulo 6 destaca que la argumentación que ofrece un destacado teórico
de cuerdas para explicar por qué el universo adopta la forma que adopta no
considera en ningún momentos los datos que no le son favorables.[45]
En la disputa sobre si las minúsculas trazas de carbono descubiertas en unas
rocas antiguas eran los fósiles con indicios de vida más antiguos de la Tierra o
depósitos inorgánicos, uno de los defensores fue acusado por una estudiante que
había colaborado en la investigación de ignorar sus protestas sobre el carácter
selectivo de las evidencias.[46]
El panel que revisó los 20 años de investigación de las causas de la extinción
en masa de especies, consideró que se había producido hace 65 millones de años
(la extinción Cretácica-Terciaria) sustentándose en la explicación ortodoxa de
que un asteroide gigante había impactado contra la península mexicana de
Yucatán. Pero algunos investigadores acusaron al panel de haber interpretado
erróneamente sus descubrimientos mientras que otros los acusaron de haber
ignorado un amplio cuerpo de evidencias inconsistente con su conclusión.[47]
Metodología defectuosa

Los experimentos llevados a cabo por Bernard Kettlewell en los años 50 y 60


con el objetivo de demostrar la selección natural a través del oscurecimiento
industrial de la polilla moteada contenían numerosos defectos que socavaron la
conclusión a la que quería llegar. A pesar de que dichos defectos salieron a la luz
en 1998, su trabajo sigue utilizándose como prueba del neodarwinismo.[48]
Un artículo emblemático publicado en 1987 utilizó el ADN mitocondrial
para realizar el seguimiento del linaje de una mujer que vivió hace 200.000 años
en África, la conocida «Eva mitocondrial». La metodología utilizada fue puesta
en duda posteriormente en diversos aspectos, destacando entre ellos la selección
de muestras y el programa informático utilizado. Pero sus conclusiones siguen
citándose todavía.[49]

Perpetuación de una teoría defectuosa

La perpetuación de una teoría que ha quedado contradicha por las evidencias


empíricas es algo que entra en conflicto con uno de los dogmas básicos de la
metodología científica. Normalmente, esta perpetuación surge de la elección de
supuestos y queda reforzada por la posterior selección e interpretación de datos
que se apartan de forma significativa de la objetividad para poder justificar la
teoría. En el capítulo 12 hemos visto que la teoría geológica ortodoxa que
explica las arrugas características de la superficie de la Tierra se mantuvo
vigente durante más de cincuenta años a pesar de que las evidencias que
sustentaban la teoría de la deriva continental (que posteriormente se desarrolló
para dar lugar a la teoría de las placas tectónicas) se acumulaban.[50]
Durante los últimos treinta años, la explicación ortodoxa de la emergencia en
la Tierra de las primeras formas de vida independientes ha sido que la energía
del sol, y posiblemente también de otras fuentes, provocó reacciones aleatorias
en la sopa acuosa de moléculas compuestas por un máximo de 13 átomos que
con el tiempo dieron como resultado la selección ultradarwinista de moléculas
auto-replicantes de ARN. Sin embargo, los intentos experimentales de sustentar
esta idea no solo han fracasado, predeciblemente por razones químicas según
varios científicos, sino que además la probabilidad estadística de que reacciones
aleatorias produzcan moléculas de ese tamaño y complejidad es cercana a cero.
[51]
La teoría ortodoxa de la evolución biológica desde mediados del siglo XX
asume la validez de la selección natural darwinista gradual, que incorpora en un
modelo matemático de genética de poblaciones. Sin embargo, los capítulos 17 al
23 incluyen una cantidad considerable de evidencias empíricas, obtenidas tanto a
partir del registro fósil como a partir de estudios de un rango mucho más amplio
de especies en estado salvaje que las moscas de la fruta y los gusanos nematodos
de laboratorio, que entran en conflicto con este modelo neodarwinista. Y pese a
ello, uno de sus principales proponentes afirmó en 2006 que el neodarwinismo
ya no era tan solo una teoría, sino que además era un hecho establecido.[52] De
hecho, hoy en día, la inmensa mayoría de biólogos equipara el fenómeno de la
evolución biológica (que tiene una base de evidencias atractiva) con el modelo
matemático neodarwinista, y tiende a tratar cualquier duda sobre el
neodarwinismo como un ataque a la realidad de la evolución biológica.[53]
Estos y otros ejemplos ilustran que la teoría acaba a menudo solidificándose
y transformándose en dogma, que es la antítesis de la ciencia y limita sus
avances. La mentalidad de pensamiento grupal que genera queda ejemplificada
por los 155 biólogos que firmaron artículos publicados por Nature afirmando
que el fundador de la sociobiología no comprendía ni sus propias teorías después
de que este tuviera la transparencia y la valentía de publicar un artículo
reconociendo que, después de 40 años, sus teorías no habían aportado apenas
avances en la explicación de la conducta animal y humana.[54]

Supresión de teorías alternativas

El progreso científico está limitado además cuando los proponentes de una


teoría que se ha convertido en dogma obstaculizan e incluso suprimen los
intentos de otros de desarrollar o publicar teorías alternativas.
El mismo año que Nature publicó las evidencias acumuladas a lo largo de 50
años que demostraban que la teoría de la deriva continental explicaba fenómenos
geológicos mucho mejor que la teoría ortodoxa vigente, el Journal of
Geophysical Reseach rechazaba un artículo similar escrito por otro investigador
argumentando que «no es el tipo de cosa que debería publicarse bajo un
patrocinio científico serio».[55]
En el capítulo 5 se comenta que el dominio por parte de los teóricos de
cuerdas de los comités que deciden en los Estados Unidos los nombramientos y
las becas académicas en el campo de la física teórica ha dificultado que, aun a
pesar de la falta de éxitos que las conjeturas de cuerdas han demostrado a lo
largo de 30 años, cualquier enfoque alternativo obtenga financiación, mientras
que, por otro lado, algunos teóricos de cuerdas llevan a cabo prácticas más que
dudosas para reprimir cualquier tipo de opinión disconforme.[56]
En el capítulo 3 hemos visto que la adhesión continuada de Fred Hoyle a la
teoría del estado estacionario lo llevó a ser condenado al ostracismo por sus
colegas académicos y lo obligó a dimitir de su puesto como profesor en
Cambridge en un acto sin apenas precedentes.[57] Varios astrónomos
distinguidos han protestado diciendo que las revistas académicas se niegan a
publicar aquellas interpretaciones de los datos astronómicos que contradicen la
interpretación ortodoxa que además, afirman, es fruto de matemáticos teóricos y
no de astrónomos consagrados a la observación. Alegan, por otro lado, que ha
habido muchos intentos fructíferos de impedir que reciban invitaciones a
determinadas conferencias[58] y que se les niega tiempo de utilización de
telescopios para poder verificar sus hipótesis.[59]
El capítulo 23 muestra que los que ofrecen alternativas al actual modelo
ortodoxo de evolución biológica tampoco salen muy bien parados. Un ejemplo
sorprendente es lo sucedido con la teoría de la simbiogénesis de Lynn Margulis,
que tanto le costó publicar. Incluso después de que los neodarwinistas
reconocieran que su explicación de la evolución de la mitocondria y los
cloroplastos en células eucariotas estaba sustentada por evidencias genéticas y
era correcta, las revistas principales del ámbito de la ciencia y la biología
siguieron negándose a publicar su trabajo. Un destacado neodarwinista la tildó
en 2011 en su página web de loca por haberse atrevido a plantear aquella
alternativa al modelo neodarwinista.[60]
El anquilosamiento en forma de dogma de la mejor teoría disponible en el
momento da como resultado la respuesta defensiva a cualquier postura contraria
que caracteriza a las creencias más institucionalizadas e, inevitablemente, la
ciencia ha acabado institucionalizándose a través de sus sociedades
especializadas y de los departamentos universitarios que forman a los futuros
científicos. Prácticamente todas las instituciones humanas —partidos políticos,
gobiernos o religiones— responden de forma similar cuando se ven cuestionadas
desde dentro o desde fuera, de modo que la resistencia al cambio de los
defensores y enseñantes de la ortodoxia actual no es en absoluto en fenómeno
extraño. Pero corresponde a los miembros de las instituciones científicas
recordar que lo que distingue a la ciencia de los partidos políticos, los gobiernos
y las religiones es su compromiso con la verificación empírica llevada a cabo del
modo más objetivo posible, así como la modificación o el rechazo de una teoría
cuando aparezcan nuevos datos que entren en conflicto con ella.

Fraude

En la inmensa mayoría de los casos, el alejamiento de los científicos de la


objetividad a la hora de elegir supuestos, seleccionar e interpretar los datos,
perpetuar teorías defectuosas e incluso suprimir teorías alternativas, está
motivado por razones honestas, aunque con frecuencia erróneas. Pero a lo largo
de este viaje me he encontrado también con casos de fraude. El falso fósil del
Hombre de Piltdown pasó desapercibido durante 40 años, mientras que Reiner
Protsh falsificó sistemáticamente la datación de sus fósiles a lo largo de un
periodo de 30 años.[61] En 2010, la Universidad de Harvard declaró a Marc
Hauser culpable de falsificar datos en experimentos sobre la conducta de
animales.[62]
Esto, sin embargo, no son simples ejemplos aislados de «manzanas
podridas», tal y como dan a entender los medios de comunicación. En 2009,
Daniele Fanelli, del Institute for the Study of Science, Tecnnology & Innovation
de la Universidad de Edimburgo, llevó a cabo la primera revisión y meta-análisis
sistemático de datos sobre la mala praxis científica. Descubrió que casi el 2 por
ciento de los científicos reconocía haber inventado, falsificado o modificado
datos o resultados al menos en una ocasión —una forma grave de mala praxis—
y que hasta un tercio de ellos reconocía otras prácticas de investigación
cuestionables. Cuando preguntó a los científicos acerca de sus colegas, el 14 por
ciento declaró que creía que los demás científicos falsificaban datos y hasta un
72 por ciento dijo sospechar que los demás utilizaban métodos de investigación
cuestionables. Fanelli concluye su estudio diciendo: «Considerando que estas
encuestas formulan preguntas capaces de herir la susceptibilidad y presentan
otras limitaciones, parece probable que estemos ante una estimación
conservadora de la verdadera prevalencia de mala praxis cientifica».[63]
No es en absoluto mi intención desprestigiar la ciencia, que ha revolucionado
y expandido sobremanera nuestros conocimientos sobre los fenómenos
naturales, pero sí creo que debemos reconocer las limitaciones que existen en el
ámbito de la ciencia en cuanto a nuestra comprensión actual de cómo emergimos
y evolucionamos desde el origen del universo.

Limitaciones fuera del ámbito de la ciencia

Muchos científicos y muchos de los que suscriben el empirismo, el


positivismo, el naturalismo, el fisicalismo, el materialismo o el materialismo
eliminativo, creen que el ámbito de la ciencia no tiene límites.
El argumento que sustenta esta creencia es el siguiente:

1. No existe nada excepto las cosas físicas y sus interacciones.


2. La ciencia es el estudio empírico de las cosas físicas y sus interacciones.
3. Por lo tanto, el ámbito de la ciencia no tiene límites.

A modo de corolario:

4. Si la ciencia no puede explicar algún fenómeno ahora, lo más probable es


que lo haga en un futuro, cuando dispongamos de nuevos o mejores datos.

La validez de la conclusión depende de la validez de sus dos premisas. La


primera es evidentemente inválida porque la premisa en sí no es ni una cosa
física ni una interacción de cosas físicas. Dicho de otro modo, la creencia de que
el ámbito de la ciencia no tiene límites no puede verificarse mediante
observación sistemática ni con un experimento repetible, lo que hace que la
creencia sea falsa.
La ciencia ha limitado su ámbito a lo empírico para diferenciar su método de
indagación del de la religión, que busca respuestas que cree que tendrían que
haber sido reveladas por Dios o por un dios, y del de la filosofía, que busca
respuestas a través de la revelación y el razonamiento. Hay cosas fuera de este
ámbito limitado de la ciencia que necesitamos saber para comprender qué somos
y de dónde venimos. Y entre estas cosas destacan las experiencias subjetivas, los
conceptos y los valores sociales, las conjeturas no verificables y las respuestas a
determinadas preguntas metafísicas.

Experiencias subjetivas

Como individuos somos algo más que la suma de nuestras células,


moléculas, átomos y sus interacciones. Estamos conformados en gran parte por
lo que vemos, oímos, sentimos, recordamos, pensamos, etc. Estas experiencias
subjetivas no pueden observarse objetivamente ni experimentarse con el método
científico. El mejor ejemplo de ello son los qualia, examinados en el capítulo 29,
donde he citado el caso aportado por los neurocientificos V. S. Ramachandran y
Colin Blakemore: un neurocientífico que no puede distinguir los colores por un
problema congénito podría controlar todos los procesos fisicoquímicos que se
producen cuando un individuo ve una rosa roja, pero nunca sería capaz de
experimentar la calidad del rojo percibida por ese individuo.
Los neurocientíficos reduccionistas, sin embargo, afirman ser capaces de
llevar a cabo test objetivos de visión. En 2012, un equipo de la Universidad de
California, Berkeley, utilizó la IRMf (Imagen por Resonancia Magnética
Funcional) para controlar la actividad neural de 30.000 regiones del córtex
cerebral de cinco hombres mientras veían dos horas de imágenes de vídeo que
contenían 1.705 categorías de objetos y acción como animales, edificios y
vehículos. Descubrieron que los cinco hombres compartían mapas cerebrales
similares de áreas activas que se solapaban y se correspondían con las distintas
categorías.[64] Pero esto no nos informa de qué animales, edificios y vehículos
concretos veían aquellos hombres cuando esas áreas estaban activas, a menos
que (como sucedía en el experimento) el investigador estuviera también viendo
la misma imagen o el individuo en cuestión se lo comunicara al investigador.
Para poner otro ejemplo, por mucho que en el futuro un neurocientífico fuera
capaz de controlar la actividad de todas y cada una de las neuronas del cerebro
de un individuo mientras este individuo está soñando, el neurocientífico no
podría predecir ni saber qué sueño en concreto estaría teniendo el individuo ni
compartir la experiencia del individuo en ese sueño.
De un modo similar, escuchar una interpretación de la sinfonía Júpiter de
Mozart no puede reducirse a recibir unas ondas de sonido que vibran en los
tímpanos y son transmitidas por vías fisicoquímicas hasta que activan las
neuronas del cerebro. La experiencia de escuchar implica muchas más cosas,
como la sensación de placer, la comparación con la interpretación por parte de
otras orquestas, la anticipación de los compases siguientes, los recuerdos de la
última vez que se ha escuchado la pieza, etc. Son experiencias que ni son
mensurables, ni pueden observarse sistemáticamente, ni pueden replicarse. Todas
estas respuestas se combinan para proporcionarnos una experiencia subjetiva y
holística que es única para cada individuo.
He llegado a la conclusión de que la característica exclusiva y diferenciadora
de la especie humana es el pensamiento reflexivo. En 2010, un grupo de
neurocientíficos del University College de Londres correlacionaron la capacidad
de introspección con la estructura de una pequeña región del córtex prefrontal
del cerebro. Pero no averiguaron la relación casual: ¿se desarrolló esta área a
medida que mejoramos en la reflexión sobre nuestros pensamientos, o acaso los
humanos somos mejores en introspección precisamente porque el córtex
prefrontal está más desarrollado?[65] Y lo que es más fundamental, el test
objetivo no mostró cuáles eran esos pensamientos introspectivos.
A pesar de que la neurociencia está logrando grandes éxitos en la
demostración de las correlaciones físicas de muchas cosas no físicas, sería un
error fundamental confundir las correlaciones físicas de la experiencia subjetiva
con la experiencia en sí.
Algunas experiencias subjetivas —como la inspiración que proporciona un
maestro, enamorarse, ser testigo de un nacimiento o de un fallecimiento y
alcanzar un objetivo importante— pueden jugar un papel fundamental en la
determinación de quién somos a nivel individual.

Conceptos y valores sociales

No somos solo individuos; somos además miembros de muchas sociedades.


Del mismo modo que la consciencia reflexiva proporciona al individuo humano
la capacidad de pensar y razonar, permite también a una sociedad humana
desarrollar conceptos y valores sociales. Para dar solo un ejemplo, una sociedad
humana podría desarrollar el concepto de una guerra justa. Los científicos
políticos y sociales podrían estudiar sistemáticamente la encarnación del
concepto (por ejemplo, la declaración de guerra de Gran Bretaña contra
Alemania en 1945), pero el concepto en sí, y los valores éticos que lleva
asociados, permanecen en el ámbito de la filosofía, no de la ciencia.

Ideas no verificables

Como vimos en los capítulos 4-7, ni la explicación ortodoxa del universo de


la ciencia actual, el Big Bang caliente inflacionario, ni ninguna conjetura
alternativa, proporcionan una explicación verificable empíricamente del origen
del universo y, en consecuencia, del origen de la materia y la energía de las que
estamos hechos. Es prácticamente seguro que son explicaciones que quedan
fuera del alcance de la ciencia.
Algunas explicaciones que se presentan como científicas de cómo
evolucionamos del modo en que hemos evolucionado implican la existencia de
otros universos con los que no tenemos contacto, como sucede con las diversas
explicaciones basadas en multiversos que se examinan en el capítulo 7.[66] Si no
tenemos contacto con otros universos, es imposible verificar nada mediante la
observación sistemática o el experimento replicable. Estas conjeturas podrían ser
plausibles y, por lo que sabemos, una de ellas podría ser cierta. Sin embargo,
quedan fuera del ámbito de la ciencia tal y como la entendemos en la actualidad.
Preguntas metafísicas

Las ciencias naturales explican y predicen muchos fenómenos naturales


aplicando leyes físicas y químicas que determinan las interacciones de cosas
físicas. Pero la ciencia no puede explicar la esencia de estas leyes. Según señala
el cosmólogo y matemático George Ellis, «la fuerza de la gravedad», por hablar
de alguna interacción, nos ayuda a predecir qué pasará, pero no nos dice cómo la
materia es capaz de ejercer una fuerza de atracción sobre otra materia muy
alejada de ella; etiquetándola de nuevo como «el efecto del campo gravitatorio»
no cambia la situación.[67]
Es importante comprender que la ciencia no puede decirnos por qué estas
leyes existen. Newton creía que estaban creadas por Dios, Einstein que estaban
causadas por algún tipo de poder inteligente trascendental.

Otra posible limitación

Finalmente, existe la posible limitación no de la ciencia en sí, sino de la


mente humana. ¿Existe una realidad que los humanos no serán nunca capaces de
comprender, del mismo modo que las rocas no pueden comprender que el sol
proporciona luz y calor y los chimpancés no pueden comprender la existencia de
los agujeros negros?
[1] Véase página 140.
[2] Véase página 88.
[3] Véase página 206.
[4] Véase página 184.
[5] Véase página 341.
[6] Véase página 673.
[7] Véase página 503.
[8] Véase página 524.
[9] Véase página 810.
[10] Véase página 529.
[11] Véase página 144.
[12] Véase página 92 y página 144.
[13] Véase página 150.
[14] Véase página 153.
[15] Véase página 455.
[16] Véase página 330.
[17] Véase página 162.
[18] Véase Glosario para una definición completa.
[19] Véase página 247.
[20] Véase página 184.
[21]Life after Life, publicado en español bajo el título Vida después de la vida, Editorial Edaf, Madrid,
2013.
[22]Borjigin, Jimo, et al., «Surge of Neurophysiological Coherence and Connectivity in the Dying
Brain», Proceedings of the National Academy of Sciences, 12 de Agosto de 2013.
[23]Parnia, Sam, et al., «AWARE—AWAreness During REsuscitation—a Prospective Study»,
Resuscitation, 85: 12, 2014, pp. 1799–1805.
[24]Beauregard (2012), p. 10.
[25]Persinger, M. A., et al., «Remote Viewing with the Artist Ingo Swann: Neuropsychological Profile,
Electroencephalographic Correlates, Magnetic Resonance Imaging (MRI), and Possible Mechanisms»,
Perceptual and Motor Skills, 94: 3, 2012, pp. 927–949.
[26] Véase página 753.
[27]Targ (2012).
[28]Radin (2009).
[29]Radin (2006).
[30]Flammer, Erich y Bongartz, Waltert, «On the Efficacy of Hypnosis: A Meta-Analytic Study»,
Contemporary Hypnosis, 20: 4, 2003, pp. 179–197.
[31]Véase, por ejemplo, la declaración emitida en 1995 por el National Institute for Health «Integration
of Behavioral & Relaxation Approaches into the Treatment of Chronic Pain & Insomnia»,
http://consensus.nih.gov/1995/1995BehaviorRelaxPainInsomniata017PDF.pdf
[32]Grau, Carles, et al., «Conscious Brain-to-Brain Communication in Humans Using Non-Invasive
Technologies», PLoS One 9: 8, 2014, e105225.
[33] Véase página 145.
[34] Véase página 82.
[35] Véase página 130.
[36] Véase página 111.
[37] Véase página 91.
[38] Véase páginas 113 a 118.
[39] Véase páginas 585 a 589.
[40] Véase página 600.
[41] Véase página 153.
[42] Véase página 459.
[43] Véase página 463.
[44] Véase páginas 539 a 558.
[45] Véase página 155.
[46] Véase página 343.
[47] Véase página 470.
[48] Véase páginas 490 a 492.
[49] Véase página 679.
[50]Véase páginas 285 a 287.
[51]Véase página 368.
[52]Véase página 540.
[53]Véase página 641.
[54]Véase página 640.
[55] Véase página 285.
[56] Véase página 135.
[57] Véase página 57.
[58] Véase página 150.
[59] Véase página 117.
[60] Véase página 608.
[61] Véase página 456.
[62]Véase página 593.
[63]Fanelli, Daniele, «How Many Scientists Fabricate and Falsify Research? A Systematic Review and
Meta-Analysis of Survey Data», PLoS One 4: 5, 2009, e5738.
[64]Huth, Alexander G., et al., «A Continuous Semantic Space Describes the Representation of
Thousands of Object and Action Categories across the Human Brain», Neuron, 76: 6, 2012, pp. 1210–1224.
[65]http://www.ucl.ac.uk/news/news-articles/1009/10091604, 16 de septiembre de 2010.
[66]Véase página 177.
[67]Ellis (2002), capítulo 8.
CAPÍTULO 33. REFLEXIONES Y CONCLUSIONES
SOBRE LA EVOLUCIÓN HUMANA COMO UN
PROCESO CÓSMICO

Todos los aspectos de la realidad están sujetos a evolución, desde los átomos y las estrellas hasta los
peces y las flores, pasando por las sociedades y los valores humanos; de hecho […] toda la realidad es un
único proceso de evolución.

JULIAN HUXLEY, 1964

Reflexiones

Inicié este viaje de exploración con mentalidad abierta decidido a averiguar


qué puede contarnos la ciencia sobre lo que somos los humanos y cómo hemos
evolucionado, no solo desde las primeras formas de vida de la Tierra, sino
también desde el origen de la materia y la energía. Cuanto más cosas aprendía,
más cuenta fui dándome de lo mucho que no sabemos. El reconocimiento del
alcance de nuestra ignorancia no suele estar presente, y tal vez es comprensible,
en los científicos centrados en el último descubrimiento de su estrecho campo de
especialización. Tampoco está presente, y esto sí que es menos comprensible, en
los científicos cuya adhesión a una teoría concreta se ha solidificado hasta
transformarse en una creencia inquebrantable.
El capítulo 32 considera las limitaciones de nuestro conocimiento dentro del
ámbito de la ciencia y fuera también del ámbito de la ciencia. La ciencia
diferencia la explicación científica de los demás tipos de explicación por sus
intentos de comprender y describir los fenómenos naturales mediante
observaciones o experimentos repetibles, sistemáticos y preferiblemente
mensurables e inferir, a partir de estos datos, leyes verificables que puedan
utilizarse para realizar predicciones o retrodicciones.
El relato de la cosmología ortodoxa actual sobre el origen de la materia y la
energía de la que estamos hechos encaja mal dentro del ámbito de la ciencia.
Las evidencias obtenidas a partir de la observación contradicen el modelo
básico del Big Bang. Las dos grandes modificaciones que se hicieron al modelo
para solventar estos conflictos dieron como resultado el modelo del Big Bang
caliente inflacionario con fluctuación cuántica, pero la reivindicación central de
estas modificaciones —a saber, que el universo que podemos observar no es más
que una parte increíblemente minúscula de la totalidad del universo, del cual no
podemos obtener información— es imposibles de verificar. Además, estas
modificaciones producen un modelo lógicamente inconsistente siempre y cuando
se mantenga que el Big Bang es el inicio de todo, o un modelo que contradice
este principio básico en el caso de que existiera un vacío cuántico y un campo de
inflación antes del supuesto Big Bang.
Por otro lado, reconciliar este modelo modificado con la interpretación
ortodoxa actual de los datos observados invoca la presencia de una «materia
oscura» misteriosa que integra el 27 por ciento del universo observable y de una
«energía oscura» anti-gravedad, más misteriosa si cabe, que integra el 68 por
ciento del universo observable. El modelo presenta importantes problemas
conceptuales, el menor de los cuales no es precisamente ofrecer una explicación
convincente de la creación de la materia y la energía a partir de la nada.
Otras hipótesis planteadas para modificar aún más el modelo ortodoxo o
sustituirlo no están verificadas o son imposibles de verificar con los medios
conocidos hasta la fecha. La disciplina empírica de la ciencia sigue sin poder
determinar si el cosmos es eterno o no.
A partir de las evidencias empíricas podemos deducir que evolucionamos de
la energía primigenia hacia formas de vida con base de carbono y con conducta
sofisticada, y que poseemos el objeto más complejo de todo el universo
conocido: el cerebro humano. Pero esa evolución solo fue posible porque las
prácticamente ilimitadas interacciones entre la materia y la energía se vieron
constreñidas por una serie de leyes físicas y químicas, además de por el ajuste de
precisión de seis parámetros cosmológicos, dos constantes sin dimensión y tres
parámetros de nucleosíntesis. Además, esta evolución necesitó de un planeta con
un rango de masa limitado, que poseyera los elementos químicos necesarios y
que estuviera situado en una parte concreta de una galaxia y en una parte
concreta de un sistema solar, donde recibiera la cantidad justa del tipo de energía
adecuado durante varios miles de millones de años y quedara protegido de las
radiaciones letales de energía y de las colisiones de los cometas y otros desechos
espaciales.
La ciencia, una disciplina empírica, no puede explicar cuál es la causa de la
existencia de estas leyes físicas y químicas, por qué estos parámetros tienen los
valores críticos que tienen y por qué se produjo la concurrencia de factores
altamente improbables e inusuales en el planeta Tierra, todo lo cual se combinó
para producir las condiciones necesarias para nuestra evolución. (Las muchas
explicaciones que giran en torno a un multiverso son especulaciones no
verificables y en su mayoría parten de una lógica cuestionable).[1] Sin este
conocimiento, sin embargo, la cadena de causalidad que llevó a la emergencia y
la evolución de los humanos queda incompleta.
Pese a que la ciencia es capaz de informarnos acerca de las correlaciones
físicas de nuestras experiencias subjetivas, no puede explicarnos la esencia de
dichas experiencias, que se combinan holísticamente para que cada uno de
nosotros tenga una sensación única que conforma, en un muy alto grado, lo que
somos a nivel individual. De un modo similar, la ciencia tampoco puede
explicarnos la esencia de determinados conceptos, como los valores que ayudan
a conformar a los humanos al nivel de las sociedades.
En términos generales, las limitaciones dentro del ámbito de la ciencia son de
dos tipos: permanentes y temporales. Estas últimas desaparecerán a medida que
la ciencia avance con nuevos datos y nuevas ideas. Pero algunas limitaciones,
como la pérdida irreparable de datos, son permanentes.
De todos modos, lo que la ciencia puede explicarnos actualmente acerca de
quién somos y de dónde venimos es importante. Y existe, además, un patrón
general que domina las evidencias.

Conclusiones

Un repaso a los descubrimientos realizados en la Primera, Segunda y tercera


parte nos lleva a las siguientes conclusiones.
1. Es prácticamente seguro que la disciplina empírica de la ciencia nunca será
capaz de explicar el origen de la materia y de la energía de las que estamos
hechos.
2. Probablemente, la energía-materia primigenia consistía en un plasma
denso tremendamente energético que perdió energía (es decir, se enfrió) a
medida que fue expandiéndose y la materia se condensó. En el proceso, la
materia se volvió cada vez más compleja. A escala del universo
observable, el plasma caótico se enfrió y formó una jerarquía de
estructuras en rotación integrada por sistemas solares, galaxias, cúmulos
galácticos, supercúmulos y sábanas de supercúmulos separados entre sí por
vacíos que juntos constituyen un todo complejo. A escala microscópica, las
partículas fundamentales de materia se combinaron para formas núcleos
más complejos de hidrógeno que fueron aumentando de complejidad al
combinarse para formar los núcleos de unos 95 elementos de composición
natural. Estos elementos se combinaron con electrones y aumentaron su
complejidad más si cabe para transformarse en átomos, y luego en
moléculas integradas por los hasta 13 átomos que se han descubierto por el
momento en el espacio exterior y los meteoritos.
3. La vida emergió en la superficie de una de estas agregaciones de materia,
el planeta Tierra, que se formó hace entre 4,6 y 4 miles de millones de años
a partir de la combinación de los desechos materiales que orbitaban
alrededor del recién encendido sol. Se han planteado diversas conjeturas
para explicar cómo se combinaron, probablemente dentro de los primeros
500 mil millones de años de vida de la Tierra, las materias inanimadas
compuestas por hasta 13 átomos para formar la complejidad, el tamaño, las
estructuras cambiantes y el funcionamiento de las formas de vida
independientes más sencillas. Pero el hecho de que los procesos geológicos
hayan destruido de forma irreparable las evidencias, deja fuera del alcance
de la ciencia explicar la emergencia de esta vida, del mismo modo que no
podemos conocer con exactitud la emergencia de la materia.
4. A pesar de que los límites son borrosos, la emergencia de la vida —la
capacidad de una entidad cerrada de responder a cambios que se produzcan
tanto en su interior como en su entorno, de extraer energía y materia de su
entorno, y de convertir esa energía y esa materia en actividad dirigida
internamente, incluyendo en dicha actividad el mantenimiento de su propia
existencia— marca un cambio de tipología, no simplemente de grado, con
respecto a la materia inanimada.
5. Es altamente probable, aunque no seguro, que la vida emergiera solo una
vez en la Tierra, y que todos loso seres vivos del planeta evolucionaran a
partir de este suceso único.
6. Muy posiblemente, la colaboración activa de algunas de las primeras
formas de vida para su supervivencia mutua llevó a su fusión y dio como
resultado la divergencia de la vida en distintas ramas, la mayoría de las
cuales se ramificó aún más para crear especies cada vez más complejas.
7. El número cada vez mayor de especies se propagó por la superficie del
planeta y ocupó hábitats propicios para sus formas concretas de mantener
su existencia y reproducirse. Por encima de la geoesfera inanimada se
formó una biocapa.
8. La competencia por los recursos, las mutaciones genéticas nocivas y los
rápidos cambios medioambientales que dieron como resultado la pérdida
de los hábitats propicios provocaron el patrón más dominante entre los
seres vivos, a saber, la extinción de especies.
9. La colaboración a nivel de genes, genomas, células, tejidos, órganos y
organismos provocó la evolución de especies más complejas.
10. La rama animal se caracterizó por la movilidad, la reproducción sexual
que incrementó la complejidad y el desarrollo de una centralización de un
sistema nervioso para percibir y responder a estímulos internos y externos.
Estos tres factores llevaron a la rama animal a evolucionar en forma de
linajes divergentes y, en ocasiones, fusionados.
11. La evolución de especies con una complejidad morfológica cada vez
mayor y un sistema nervioso centralizado se correlacionó con un
incremento de la consciencia de dichas especies.
12. Con una única excepción, los linajes supervivientes terminaron en la
estasis de su última especie, con cambios morfológicos menores en
respuesta a cambios medioambientales reversibles.
13. Esa única excepción fue la especie humana, en la que la consciencia
alcanzó un punto en el que se hizo consciente de sí misma: sus miembros
no solo saben, sino que además saben que saben; de forma exclusiva,
poseen la capacidad para reflexionar sobre sí mismos y sobre el cosmos
del que saben que forman parte.
14. Debido a la irremediable escasez del registro fósil y de otras evidencias, es
prácticamente seguro que la ciencia nunca será capaz de explicar con
confianza y exactitud dónde, cuándo, por qué y cómo se produjo la
emergencia de los humanos. Es probable que ocurriera en África, aunque
no necesariamente en el este de África, y que estuviera completa hace
entre 40.000 y 10.000 años, posiblemente incluso antes. Seguramente
estuvo causada por un cambio fluctuante que produjo un hábitat fluctuante
que impulsó la creatividad y la inventiva, junto con la comprensión de que
para sobrevivir la cooperación presentaba más beneficios que la
competencia. La hibridación o la duplicación total del genoma podrían
haber jugado un papel en este cambio evolutivo.
15. Estamos al parecer ante un caso de emergencia de sistemas, donde la
interacción de facultades como la inventiva, la creatividad y la
comunicación dieron lugar a una nueva facultad de nivel superior, la
consciencia reflexiva, que a su vez causó la transformación de las
facultades de nivel inferior y la generación de facultades nuevas como la
imaginación, las creencias, el lenguaje, la abstracción y la ética.
16. Como sucede con la emergencia de la vida a partir de la materia
inanimada, y a pesar de que la frontera es borrosa, la emergencia de la
consciencia reflexiva a partir de la consciencia marca un cambio de
tipología, no simplemente de grado. Por lo tanto, la evolución de los
humanos no fue principalmente morfológica o genética, sino noética: la
evolución de la consciencia reflexiva.
17. Esta evolución noética puede dividirse en tres fases que se solapan entre
sí: primitiva, filosófica y científica. El pensamiento primitivo, el único tipo
de pensamiento durante alrededor del 90 por ciento de la existencia
humana, evolucionó cuando lo imperativo era sobrevivir y reproducirse. Se
caracterizó por la creatividad, la inventiva, la imaginación y las creencias.
18. Hace unos 10.000 años, el pensamiento primitivo generó la comprensión
de que una forma más efectiva de supervivencia que la de pequeños grupos
familiares en movimiento constante y adaptándose a un hábitat cambiante,
consistía en adaptar un determinado hábitat a las necesidades humanas. La
invención de la agricultura, y de los asentamientos humanos que la
siguieron, se asocia con la comprensión de que la cooperación era la mejor
manera de seguir adelante, lo que dio también como resultado el
intercambio de productos e ideas con otros asentamientos.
19. Sin embargo, a medida que estos asentamientos fueron desarrollándose y
expandiéndose, esta comprensión se vio enfrentada al instinto
predominante de competencia agresiva arraigado a lo largo de varios
millones de años de antepasados pre-humanos. Este instinto produjo
batallas para el control de los asentamientos y de sus recursos, tanto
agrícolas como otros. Los enfrentamientos se produjeron tanto dentro
como fuera del grupo. El resultado fue la centralización y la colaboración
forzada.
20. Con su crecimiento, los asentamientos desarrollaron una jerarquía social
que reflejaba las habilidades transmitidas de padres a hijos y que constaba
de gobernantes, sacerdotes, guerreros, comerciantes y artesanos,
campesinos y esclavos. Los asentamientos se expandieron y dieron lugar a
ciudades, ciudades-estado e imperios gobernados autocráticamente que
vivieron momentos de auge y de caída. El patrón generalizado en todo el
planeta fue de incremento en el tamaño, la complejidad y la centralización
de las sociedades humanas.
21. La evolución del pensamiento primitivo estuvo estrechamente ligada a la
evolución de las creencias que surgieron tanto de la imaginación como del
resultado de una falta de entendimiento de los fenómenos naturales y del
miedo a lo desconocido, es decir, de la superstición. A partir del animismo,
el totemismo y la veneración de los antepasados de los cazadores-
recolectores, se desarrollaron religiones que reflejaron el crecimiento en
tamaño, complejidad y especialización de las sociedades humanas
asentadas. Las religiones evolucionaron desde la adoración a una diosa de
la fertilidad mediante el politeísmo, hacia un panteón gobernado por un
poderoso dios del cielo y de la guerra, para llegar al monoteísmo patriarcal
con otros dioses sometidos a un solo Dios o degradados a ángeles.
22. Las religiones se expandieron cuando fueron adoptadas por imperios, y los
gobernadores autocráticos de los imperios, incluso hasta tiempos de la
Primera Guerra Mundial, reivindicaron gobernar por mandato divino para
legitimar y consolidar su poder.
23. El pensamiento primitivo se aplicó para concebir tecnologías para la
supervivencia de las sociedades humanas y para influir las fuerzas
sobrenaturales que consideraban como determinantes de su destino. Así
nacieron las bases del arte, la música, el lenguaje hablado y escrito, las
matemáticas y la astronomía.
24. La consciencia reflexiva permitió a las sociedades humanas, de forma
exclusiva, adaptar cualquier territorio del planeta a sus necesidades para
convertirlo en su hábitat y, en el proceso, seguir manteniéndose como una
única especie sin cruces con ninguna otra.
25. El pensamiento filosófico emergió hace alrededor de 3.000 años —lo que
representa apenas el último 10 por ciento de la existencia humana— en
distintos lugares del planeta con el fin de buscar respuestas a las preguntas
introspectivas de quién somos, de dónde venimos y cómo deberíamos
comportarnos, sin necesidad de invocar espíritus imaginados, dioses
antropomorfos o Dios. Estos antiguos filósofos se sirvieron de la
revelación, normalmente resultado de un ejercicio de meditación
disciplinado, y del razonamiento, basado en observaciones de fenómenos
naturales o en supuestos tomados como obvios. Esta fase marcó una
búsqueda del conocimiento de por sí, no únicamente con fines de
supervivencia y reproducción.
26. Los videntes de las distintas culturas experimentaron una revelación
similar que les dio a entender que todas las cosas poseen una unidad
subyacente en una realidad suprema inefable. Esto puede describirse como
una consciencia cósmica trascendente o inteligencia que existe sin forma
fuera del espacio y del tiempo, pero que es inmanente en los fenómenos
percibidos por nuestros cinco sentidos físicos y por nuestra mente; la
esencia de todos nosotros, que se diferencia de nuestro yo fenomenológico,
es idéntica a este todo indiviso. Además, esta realidad suprema se
manifiesta en el cosmos y regula su funcionamiento, por lo que
deberíamos armonizar nuestra vida para alcanzar la plenitud.
27. Cuando sus pensamientos se concentraron en cómo deberíamos
comportarnos entre nosotros, prácticamente todos los antiguos filósofos,
tanto a través de la revelación como del razonamiento, impartieron la
enseñanza de que solo alcanzaríamos la tranquilidad y la plenitud actuando
altruistamente y tratando a los demás como nos gustaría que los demás nos
trataran a nosotros. Esta conclusión iba en contra del instinto dominante de
guerra y conquista de sus sociedades. En la raíz de todo ello está la
recomendación de cooperación y altruismo, y no de competencia agresiva,
para alcanzar el progreso de la humanidad.
28. El pensamiento filosófico se ramificó de forma trascendental a partir del
siglo XII, cuando Occidente adoptó el razonamiento como único método
impartido en las universidades. El razonamiento se ramificó según el
objeto de indagación, y estas ramas siguieron dividiéndose en distintas
escuelas de pensamiento. La revelación era básicamente holística, pero lo
que se ramificó de forma considerable fueron las distintas escuelas
fundadas para interpretar las revelaciones inefables.
29. A pesar de que algunas ramas tienen sus raíces en la antigüedad, el
pensamiento científico, la tercera fase de la evolución humana, emergió
con claridad en el transcurso de unos 150 años, a partir de mediados del
siglo XVI, como un intento de comprender los fenómenos naturales
mediante la observación y la experimentación sistemática, y
preferiblemente mensurable, con el fin de deducir leyes verificables y
realizar predicciones también verificables. Sus principales ramas fueron las
ciencias físicas que estudiaban los fenómenos inanimados, las ciencias de
la vida que estudiaban los seres vivos y las ciencias médicas que buscaban
fomentar la supervivencia de los humanos. En el siglo XIX, el estudio de los
humanos y de sus relaciones sociales dio lugar a las ciencias sociales.
30. La ciencia desaprobó numerosas creencias supersticiosas y conjeturas
filosóficas sobre los fenómenos naturales. Pero su emergencia no produjo
el rechazo de la superstición, que llevaba decenas de miles de años
inculcada, razón por la cual muchos pioneros del pensamiento científico
conservaron sus creencias supersticiosas. Además, creían que las leyes
naturales que pretendían descubrir habían sido creadas por Dios.
31. La fase científica constituye hasta el momento menos del 2 por ciento de
la existencia humana, pero en este tiempo el ritmo de la evolución humana
se ha acelerado más que nunca. Gracias a la invención de tecnología cada
vez más sofisticada, el pensamiento científico ha producido un incremento
de proporciones geométricas en nuestro conocimiento de lo que somos
físicamente, de dónde venimos, del universo del que formamos parte y de
nuestras interrelaciones.
32. Todo ello dio como resultado una mayor ramificación de la ciencia en
campos de estudio cada vez más estrechos, lo que ha excavado pozos de
experiencia desde donde es difícil ver la imagen global o iniciar un diálogo
con sentido con otros especialistas, excepto cuando esos pozos se cruzan
entre sí. Este foco tan estrecho ha impulsado la creencia en el
reduccionismo como único método científico válido y también en el
fisicalismo, lo cual es irracional, puesto que esta creencia no es en sí
misma física ni resultado de la interacción de cosas físicas.
33. Hace cien años, la tecnología que permitió la investigación de fenómenos
que normalmente no eran observables ayudó a la gestación de una segunda
revolución científica en la física. La mecánica cuántica reveló un reino
submicroscópico de indeterminación, entrelazamientos cuánticos e
interdependencias que contrasta con el determinismo de la física clásica, o
newtoniana, de la primera revolución científica. Muchos de sus pioneros
interpretaron que estos modelos predictivos y validados matemáticamente
necesitan consciencia para que los fenómenos físicos se materialicen.
Varios de ellos apoyaron visiones holísticas similares a las revelaciones
antiguas de una consciencia cósmica trascendente o inteligencia que se
manifiesta en los fenómenos físicos percibidos por nuestros sentidos y
nuestra mente que regula las interacciones de estos fenómenos
interdependientes.
34. Desde mediados del siglo XX, los físicos intentan demostrar que toda la
materia y energía —es decir, todos los fenómenos físicos— son
manifestaciones de energía inferior de una única energía que estaba
presente en los inicios del universo. Esta tendencia convergente en la
ciencia fundamental, en contraposición con la hasta ahora tendencia
divergente de las ciencias, está asimismo en consonancia con la revelación
antigua de una energía fundamental que subyace todas las cosas.
35. Después de cruzado el umbral de la consciencia reflexiva, los humanos
desarrollaron una naturaleza dual. La herencia arraigada de la competencia
instintiva y agresiva y la colaboración forzada empezó a sentir el
contrapeso de la reflexión, que daba como resultado la cooperación
pacífica y el altruismo. Esta nueva tendencia se incrementó de forma muy
gradual a lo largo de las tres fases solapadas de la evolución humana,
mientras que el instinto fue abandonando poco a poco su posición
dominante.
36. Solo desde mediados del siglo XX —lo que representa apenas un 0,25 por
ciento de toda la existencia humana—, la tendencia al alza de la
cooperación y el altruismo empezó a tener un impacto planetario sobre las
sociedades humanas, como demuestran las organizaciones supranacionales
y globales que cooperan con fines pacíficos, humanitarios, científicos y
educativos.
37. Durante este brevísimo periodo de la historia de la humanidad, y gracias a
los avances científicos y tecnológicos, ha emergido una tendencia a la
globalización y la convergencia que se asocia a ella, tanto a nivel físico
como noético, es decir, por el pensamiento reflexivo. A partir de la
dispersión global, con distintas sociedades humanas ocupando distintos
hábitats repartidos por todo el planeta, los humanos, al menos en las
sociedades científicamente avanzadas que ocupan la vanguardia de la
evolución humana, utilizan cada vez más el planeta entero como su hábitat.
Es posible que el hecho más destacado sea que cada vez más se comunican
de manera casi instantánea a través de una multiplicidad creciente de redes
electrónicas globales que generan una intensificación del pensamiento
todavía mayor.
38. En consecuencia, a partir de la biocapa que había evolucionado a partir de
la geosfera que había evolucionado a su vez a partir de la energía
primigenia, ha evolucionado una capa noética, o mental.
39. El ritmo de este proceso evolutivo cósmico se ha acelerado
exponencialmente, con la fase inanimada calculada en entre 10 y 20 miles
de millones de años, la fase biológica en alrededor de 3,5 miles de
millones de años y la fase humana en decenas de miles de años; la fase
filosófica de la humanización ha ocupado unos 3.000 años, la fase
científica unos 450 años, mientras que la globalización y la convergencia
en la vanguardia de la evolución humana empezaron hace apenas 65 años.
La respuesta corta a la pregunta de quién somos es que, al menos por lo que
sabemos hasta el momento, somos el producto inacabado de un proceso
evolutivo cósmico acelerado que se caracteriza por la combinación, el aumento
de complejidad y la convergencia, además de ser los agentes introspectivos de
nuestra futura evolución.
[1] Véase página 177.
BIBLIOGRAFÍA

La fecha entre paréntesis es la de la edición consultada. La fecha que aparece


sin paréntesis es la de la primera edición en inglés de la obra en el caso de que
fuera distinta.

ADAMS, Fred y LAUGHLIN, Greg, The Five Ages of the Universe: Inside the
Physics of Eternity, Free Press, Nueva York, 1999.
AHMED, Akbar S., Journey into Islam: The Crisis of Globalization, Brookings
Institution Press, Washington, D. C., 2007.
ALLCHIN, Bridget y ALLCHIN, F. Raymond, Origins of a Civilization: The
Prehistory and Early Archaeology of South Asia, Viking, Nueva Delhi, 1997.
ALONZO, Gualberto Zapata, An Overview of the Mayan World, Ediciones
Alducin, Mérida, 1993.
ÁLVAREZ, Walter, T Rex and the Crater of Doom, Princeton University Press,
Princeton, NJ, (1997). [Publicado en español bajo el título Tiranosaurus Rex
y el cráter de la muerte, Editorial Crítica, Barcelona, 1998]
ARMSTRONG, Karen, The Great Transformation: The World in the Time of
Buddha, Socrates, Confucius and Jeremiah, Atlantic, Londres, 2006.
ARP, Halton C., Seeing Red: Redshifts, Cosmology and Academic Science,
Apeiron, Montreal, 1998.
AYALA, Francisco J., «Evolution», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/197367/evolution 2014,
consultado el 7 de abril de 2014.
BARROW, John D. y Tipler, Frank J., The Anthropic Cosmological Principle,
Oxford University Press, Oxford, 1996.
BATCHELOR, Stephen, Buddhism Without Beliefs: A Contemporary Guide to
Awakening, Bloomsbury, Londres, 1997. [Publicado en español bajo el título
Budismo sin creencias: guía contemporánea para despertar, Gaia Ediciones,
Madrid, 2012]
BEAUREGARD, Mario, Brain Wars: The Scientific Battle Over the Existence of the
Mind and the Proof That Will Change the Way We Live Our Lives,
HarperOne, Nueva York, 2012.
BEHE, Michael J., Darwin’s Black Box: The Biochemical Challenge to Evolution,
The Free Press, Nueva York, Londres, 1996. [Publicado en español bajo el
título La caja negra de Darwin, Ed. Andres Bello, Barcelona, 2000]
—The Edge of Evolution: The Search for the Limits of Darwinism, Free Press,
Nueva York, 2007.
BOHM, David, Wholeness and the Implicate Order, Routledge and Kegan Paul,
Londres, 1980. [Publicado en español bajo el título La totalidad y el orden
implicado, Ed. Kairos, Barcelona, 2014]
BONNER, John Tyler, The Evolution of Complexity by Means of Natural Selection,
Princeton University Press, Princeton, NJ, 1988.
BOTHA, Rudolf P. y KNIGHT, Chris, The Cradle of Language, Oxford University
Press, Oxford, 2009.
BRADEN, Gregg, The Spontaneous Healing of Belief: Shattering the Paradigm of
False Limits, Hay House, Londres, 2008. [Publicado en español bajo el título
La curación espontanea de las creencias, Ed. Sirio, Málaga, 2013]
BRAIBANT, Sylvie, et al., Particles and Fundamental Interactions: An
Introduction to Particle Physics, Springer, Dordrecht; Londres, 2012.
BRONKHORST, Johannes, Buddhism in the Shadow of Brahmanism, Brill, Leiden,
2011.
BRYSON, Bill, A Short History of Nearly Everything, Black Swan, Londres, 2003,
(2004). [Publicado en español bajo el título Una breve historia de casi todo,
RBA Libros, Barcelona, 2014]
BUDDHA, The, Anguttara Nikaya traducido al inglés por Thanissaro Bhikku,
1997. http://www.accesstoinsight.org/tipitaka/an/index.html – an04.077.than
CAIRNS-SMITH, A. G. Seven Clues to the Origin of Life: A Scientific Detective
Story, Cambridge University Press, Cambridge, 1985, 1990. [Publicado en
español bajo el título Siete pistas para el origen de la vida: una historia
cientifica en clave detectivesca, Alianza Editorial, Madrid, 2013]
CANNADINE, David, The Undivided Past: Humanity Beyond Our Differences,
Allen Lane, Londres, 2013.
CAPRA, Fritjof, The Web of Life: A New Synthesis of Mind and Matter, Flamingo,
Londres, 1996. [Publicado en español bajo el título La trama de la vid: una
nueva perspectiva de los sistemas vivos, Alianza Editorial, Madrid, 2012]
—The Tao of Physics: An Exploration of the Parallels between Modern Physics
and Eastern Mysticism, Shambhala, Boston, 1975. [Publicado en español
bajo el título El tao de la física, Editorial Sirio, Málaga, 2017]
CHANG, Raymond, Chemistry, McGraw-Hill Higher Education, Londres, Boston,
MA, (2007) (9ª ed.). [Publicado en español bajo el título Principios
esenciales de química general, McGraw-Hill Interamericana de España,
Madrid, 2006]
CHOMSKY, Noam, Language and Mindn Cambridge University Press, Cambridge,
Nueva York, 1968. [Publicado en español bajo el título El lenguaje y el
entendimiento, Editorial Seix Barral, Barcelona, 1986]
CONFUCIUS, Analects, (1893), traducido al inglés por James Legge,
http://www.sacred-texts.com/cfu/conf1.htm
CONWAY Morris, S., The Crucible of Creation: The Burgess Shale and the Rise of
Animals, Oxford University Press, Oxford, Nueva York, 1998.
— Life’s Solution: Inevitable Humans in a Lonely Universe, Cambridge
University Press, Cambridge, 2003.
COOK, Jill, Ice Age Art: Arrival of the Modern Mind, British Museum Press,
Londres, 2013.
COUPRIE, Dirk L., «Anaximander», The Internet Encyclopedia of Philosophy,
2006, http://www.iep.utm.edu/anaximan/. Consultado el 17 de junio de 2014.
COYNE, Jerry, «Intelligent Design: The Faith That Dare Not Speak Its Name», en
Intelligent Thought editado por John Brockman, Random House, Nueva
York, 2006.
—, y ALLEN ORR, H., Speciation, Sinauer Associates, Sunderland, MA, 2004.
CRICK, Francis, What Mad Pursuit: A Personal View of Scientific Discovery,
Penguin, Londres, 1990. [Publicado en español bajo el título Qué loco
propósito, Tusquets Editores, Barcelona, 1989]
— The Astonishing Hypothesis: The Scientific Search for the Soul, Touchstone,
Londres, 1990. [Publicado en español bajo el título La búsqueda científica
del alma, Editorial Debate, Barcelona, 2003]
CRYSTAL, David, The Cambridge Encyclopedia of Language, Cambridge
University Press, Cambridge, 1987.
CURD, Patricia, «Presocratic Philosophy», The Stanford Encyclopedia of
Philosophy, editado por Edward N. Zalta, 2012,
http://plato.stanford.edu/entries/presocratics/. Consultado el 17 de junio de
2014.
DARWIN, Charles, On the Origin of Species by Means of Natural Selection, or the
Preservation of Favoured Races in the Struggle for Life, John Murray,
Londres, 1859.
— On the Origin of Species by Means of Natural Selection, or the Preservation
of Favoured Races in the Struggle for Life, John Murray, Londres, 1859.
—The Variation of Animals and Plants under Domestication, John Murray,
Londres, 1868.
—On the Origin of Species by Means of Natural Selection, or the Preservation
of Favoured Races in the Struggle for Life, John Murray, Londres, 1859.
—The Descent of Man, and Selection in Relation to Sex, John Murray, Londres,
1882.
— Autobiography of Charles Darwin: With Two Appendices Comprising a
Chapter of Reminiscences and a Statement of Charles Darwin’s Religious
Views, Watts and Co, Londres, 1882.
— The Autobiography of Charles Darwin, 1809–1882: With Original Omissions
Restored, Collins, Londres, 1958.
DARWIN, Erasmus, Zoonomia; or the Laws of Organic Life, J. Johnson, Londres,
1794.
— The Temple of Nature; or, the Origin of Society a Poem, with Philosophical
Notes,J. Johnson, Londres, (1803).
DARWIN, Francis (editor), The Life and Letters of Charles Darwin, Including an
Autobiographical Chapter, John Murray, Londres, 1887.
DAVIES, Nigel, The Ancient Kingdoms of Mexico, Penguin, Harmondsworth,
1982.
DAVIES, Paul, God and the New Physics, Penguin, Londres, 1990. [Publicado en
español bajo el título Dios y la nueva física, Salvat Editores, Barcelona,
1988]
DAWKINS, Richard, The Selfish Gene Oxford University Press, Oxford, 1976,
1989. [Publicado en español bajo el título El gen egoísta, Salvat Editores,
Barcelona, 2014]
—The Blind Watchmaker, Norton, Londres, Nueva York, 1987, (1996) (con una
nueva introducción). [Publicado en español bajo el título El relojero ciego,
RBA, Barcelona, 1993]
DESMOND, Adrian J., The Politics of Evolution: Morphology, Medicine, and
Reform in Radical London University of Chicago Press, Chicago, 1989.
—, y MOORE, James R., Darwin, Penguin, Londres, 1992. [Publicado en español
bajo el título Charles Darwin, Herder Editorial, Barcelona, 2008]
DOBZHANSKY, Theodosius, The Biological Basis of Human Freedom, Columbia
University Press, Nueva York, Londres, 1956; OUP.
DOOLITTLE, W. Ford, «Uprooting the Tree of Life», Scientific American, 282,
2000, pp. 90–95.
EINSTEIN, Albert, The World As I See It, traducido al inglés por Alan Harris,
Philosophical Library, Nueva York, 1949. [Publicado en español bajo el título
Mi visión del mundo, Tusquets Editores, Barcelona, 2005]
ELDREDGE, Niles, Reinventing Darwin: The Great Evolutionary Debate,
Weidenfeld and Nicolson, Londres, 1995.
—, y GOULD, Stephen J., «Punctuated Equilibria: An Alternative to Phyletic
Gradualism», pp. 82–115 en Models in Paleobiology, Freeman Cooper, San
Francisco, 1972.
—, TATTERSALL, Ian, The Myths of Human Evolution, Columbia University Press,
Nueva York, Guilford, 1982.
ELGIN, Duane, Awakening Earth: Exploring the Dimensions of Human Evolution,
Morrow, Nueva York, 1993.
ELLIOTT, David K., «Extinctions and Mass Extinctions», en Oxford Companion
to the Earth, editado por HANCOCK, Paul L. y SKINNER, Brian J., Oxford
University Press, Nueva York, 2000.
ELLIS, George, «The Universe around Us: An Integrative View of Science and
Cosmology», 2002, http://www.mth.uct.ac.za/~ellis/cos8.html, consultado el
13 de agosto de 2013.
— «Issues in the Philosophy of Cosmology», en The Philosophy of Physics,
editado por BUTTERFIELD, Jeremy y EARMAN, John, Elsevier, Amsterdam; New
Holland, 2007.
EOGAN, George, Knowth and the Passage Tombs of Ireland, Thames and Hudson,
Londres, 1986.
FAGAN, Brian M., The Long Summer: How Climate Changed Civilization,
Granta, Londres, 2004. [Publicado en español bajo el título El largo verano:
de la Era Glacial a nuestros días, GEDISA, Barcelona, 2007]
FINKELSTEIN, Israel y SOLBERMAN, Neil Asher, The Bible Unearthed:
Archaeology’s New Vision of Ancient Israel and the Origin of Its Sacred
Texts, Free Press, Nueva York, 2001. [Publicado en español bajo el título La
Biblia desenterrada: una nueva visión arqueológica del antiguo Israel y de
los orígenes de sus textos sagrados, Siglo XXI de España Editores, Madrid,
2011]
FRASER, Chris, «Mohism» Stanford Encyclopedia of Philosophy, editado por
Edward N. Zalta, (2012), http://plato.stanford.edu/entries/mohism/,
consultado el 31 de Agosto de 2012.
FRAWLEY, David, From the River of Heaven: Hindu and Vedic Knowledge for the
Modern Age Motilal Banarsidass, Nueva Delhi, 1990.
FUTUYMA, Douglas J., Science on Trial: The Case for Evolution, Pantheon
Books, Nueva York, (1983).
GEHRING, W. J., Master Control Genes in Development and Evolution: The
Homeobox Story, Yale University Press, New Haven, CN; Londres, 1998.
GOMBRICH, Richard F., Theravada Buddhism: A Social History from Ancient
Benares to Modern Colombo, Routledge, Londres, 1988. [Publicado en
español bajo el título El budismo Theravada: historia social desde la antigua
Benarés hasta la moderna Colombo, Ediciones Cristiandad, Madrid, 2002]
GORST, Martin, Measuring Eternity: The Search for the Beginning of Time,
Broadway Books, Nueva York, 2001.
GOTTLIEB, Anthony, The Dream of Reason: A History of Western Philosophy
from the Greeks to the Renaissance, Penguin, Londres, 2000, (2001).
[Publicado en español bajo el título El sueño de la razón: una historia de la
filosofía desde los griegos hasta el renacimiento, Ediciones de Intervención
Cultural, Barcelona, 2009]
GOULD, Stephen Jay, The Panda’s Thumb: More Reflections in Natural History,
Norton, Nueva York, Londres, 1980. [Publicado en español bajo el título El
pulgar del panda, Editorial Crítica, Barcelona, 2001]
— The Structure of Evolutionary Theory Cambridge, MA; London: Belknap,
Londres, 2002. [Publicado en español bajo el título La estructura de la teoría
de la evolución, Tusquets Editores, Barcelona, 2004]
— «The Evolution of Life on Earth», Scientific American, 14, 1994, pp. 92–100.
GRAVES, Robert, The Greek Myths, Penguin Books, Baltimore, (1955).
[Publicado en español bajo el título Los mitos griegos, Editorial Ariel,
Barcelona, 2015]
GREGORY, T. Ryan (editor),The Evolution of the Genome, Elsevier Academic
Press, Burlington, MA; San Diego, CA; Londres, 2005.
GRIBBIN, John R., Deep Simplicity: Chaos, Complexity and the Emergence of
Life, Allen Lane, Londres, 2004.
GRIFFITHS, David J., Introduction to Elementary Particles, Harper & Row, Nueva
York, Londres, 1987.
GUTH, Alan H., The Inflationary Universe: The Quest for a New Theory of
Cosmic Origins, Jonathan Cape, Londres, 1997. [Publicado en español bajo
el título El universo inflacionario: la búsqueda de una nueva teoría sobre los
orígenes del cosmos, Editorial Debate, Barcelona, 1999]
HALLIDAY, Tim (editor), Animal Behavior, University of Oklahoma Press,
Norman, 1994.
HANDS, John, Housing Co-operatives, Society for Co-operative Dwellings,
Londres, 1975.
HANSEN, Chad, «Taoism», Stanford Encyclopedia of Philosophy, (2012) editado
por Edward N. ZALTA, http://plato.stanford.edu/entries/taoism/, consultado el
3 de Agosto de 2012.
HARMAN, Oren Solomon, The Price of Altruism: George Price and the Search for
the Origins of Kindness, Bodley Head, Londres, 2010.
HARWOOD, Caroline y Buckley, Merry, The Uncharted Microbial World:
Microbes and Their Activities in the Environment, The American Academy
of Microbiology, Washington D. C., 2008.
HAWKING, Stephen W., A Brief History of Time: From the Big Bang to Black
Holes, Bantam, Londres, 1988. [Publicado en español bajo el título Historia
del tiempo: del Big Bang a los agujeros negros, Alianza Editorial, Madrid,
2010]
HAWKINS, Gerald Stanley y White, John Baker, Stonehenge Decoded, Collins,
Londres, 1966.
HENKE, Winfried, et al., Handbook of Paleoanthropology, Springer-Verlag,
Berlín, 2007.
HEYLIGHEN, Francis, «The Growth of Structural and Functional Complexity
During Evolution», pp. 17–44 en The Evolution of Complexity, editado por F.
Heylighen, et al., Kluwer Academic Publishers, Dordrecht, 1999.
HILL, Kim y HURTADO, A. Magdalena, Ache Life History: The Ecology and
Demography of a Foraging People, Aldine de Gruyter, Nueva York, 1996.
The Holy Qur’an (1938) traduccido al inglés por Yusuf Ali, http://www.sacred-
texts.com/isl/quran/index.htm
HONDERICH, Ted (editor), The Oxford Companion to Philosophy Oxford: Oxford
University Press, Oxford, 1995. [Publicado en español bajo el título
Enciclopedia Oxford de filosofía, Ed. Tecnos, Madrid, 2008]
HOYLE, Fred y WICKRAMASINGHE, Nalin Chandra, Lifecloud: The Origin of Life in
the Universe, Dent, Londres, 1978.
HUXLEY, Julian, Essays of a Biologist, Chatto & Windus, Londres, 1923.
— «Introduction», pp. 11–28 en The Phenomenon of Man, 1959 Collins,
Londres, 1959.
KAUFFMAN, Stuart A., At Home in the Universe: The Search for Laws of Self-
Organization and Complexity, Penguin, Londres, 1995, (1996).
KEELEY, Lawrence H., War before Civilization, Oxford University Press, Nueva
York, Oxford, 1996.
KEOWN, Damien, A Dictionary of Buddhism, Oxford University Press, Oxford,
2003.
KIMURA, Motoo, The Neutral Theory of Molecular Evolution, Cambridge
University Press, Cambridge, 1983.
KIOUS, W. Jacquelyne y Tilling, Robert I., «This Dynamic Earth: The Story of
Plate Tectonics», versión 1.12, 1996,
http://pubs.usgs.gov/gip/dynamic/dynamic.html - anchor19309449,
consultado el 25 de abril de 2008.
KITCHER, Philip, Abusing Science: The Case against Creationism, MIT Press,
Cambridge, MA, Londres, 1982.
KOSLOWSKI, Peter, «The Theory of Evolution as Sociobiology and Bioeconomics:
A Critique of Its Claim to Totality», pp. 301–326 en Sociobiology and
Bioeconomics: The Theory of Evolution in Biological and Economic Theory,
editado por Peter Koslowski, Springer-Verlag, Berlín, 1999.
KRIEGER, Dolores, Accepting Your Power to Heal: The Personal Practice of
Therapeutic Touch, Bear & Co., Santa Fe, NM, 1993.
KRISHNAMURTI, J. y BOHM, David, The Ending of Time, Gollancz, Londres, 1985.
— The Future of Humanity: A Conversation, Harper & Row, San Francisco,
1986. [Publicado en español bajo el título El futuro de la humanidad,
Ediciones Librería Argentina, Madrid, 2005]
— The Limits of Thought: Discussions, Routledge, Londres, 1999. [Publicado en
español bajo el título Los límites del pensamiento: discusiones, Editorial
Kairos, Barcelona, 2008]
KROPOTKIN, Peter, Mutual Aid: A Factor of Evolution, Allen Lane, Londres, 1914
(1972). [Publicado en español bajo el título El apoyo mutuo: un factor de la
evolución, Editorial Dharana, Lugo, 2012]
KUHN, Thomas S. y HACKING, Ian, The Structure of Scientific Revolutions, The
University of Chicago Press, Chicago, Londres, 1962.
KUHRT, Amelie, The Ancient Near East: c.3000–330 BC, Routledge, Londres,
1995. [Publicado en español bajo el título El Oriente Próximo en la
Antigüedad, c. 30000 – 330 a. C., Editorial Crítica, Barcelona, 2014]
LACK, David Lambert, Darwin’s Finches, Cambridge University Press,
Cambridge, 1947.
LAGERWEY, John y KALINOWSKI, Marc, Early Chinese Religion, Brill, Leiden,
(2009).
LASZLO, Ervin, Science and the Reenchantment of the Cosmos: The Rise of the
Integral Vision of Reality, Inner Traditions, Rochester, VT, 2006.
LEAKEY, Richard E. y LEWIN, Roger, The Sixth Extinction: Biodiversity and Its
Survival, Weidenfeld & Nicolson, Londres, 1995. [Publicado en español bajo
el título La sexta extinción: el futuro de la vida y de la humanidad, Tusquets
Editores, Barcelona, 1997]
LEBLANC, Steven A. y REGISTER, Katherine E., Constant Battles: The Myth of the
Peaceful, Noble Savage, St Martin’s Press, Nueva York, 2003.
LERNER, Eric J., The Big Bang Never Happened, Vintage, Nueva York, 1991.
LINDE, Andrei, «The Self-Reproducing Inflationary Universe», Scientific
American, número especial de 26 de noviembre de 2001,
http://www.sciam.com/specialissues/0398cosmos/0398linde.html, consultado
el 17 de Agosto de 2006.
LOCHNER, James C., et al., «What Is Your Cosmic Connection to the Elements?»
Imagine the Universe, (2005),
http://imagine.gsfc.nasa.gov/docs/teachers/elements/imagine/contents.html,
consultado el 24 de junio de 2007.
LOVELOCK, James, Healing Gaia: Practical Medicine for the Planet, Harmony
Books, Nueva York, 1991.
LUNINE, Jonathan Irving, Earth: Evolution of a Habitable World, Cambridge
University Press, Cambridge, 1999.
MADDOX, John, What Remains To Be Discovered: Mapping the Universe, the
Origins of Life, and the Future of the Human Race, Macmillan, Londres,
1998. [Publicado en español bajo el título Lo que queda por descubrir: una
inmersión en los problemas aún no resueltos por la ciencia, desde el origen
de la vida hasta el futuro de la humanidad, Editorial Debate, Barcelona,
1999]
MAGLI, Giulio, Mysteries and Discoveries of Archaeoastronomy: From Giza to
Easter Island, Copernicus Books, Nueva York, Londres, 2009.
MAGUEIJO, Joao, Faster Than the Speed of Light: The Story of a Scientific
Speculation, Perseus Book Group, Cambbridge, MA, 2003.
MAILLET, Benoit de, Telliamed; or, Conversations between an Indian
Philosopher and a French Missionary on the Diminution of the Sea,
traducido al inglés por Albert V. Carozz, University of Illinois Press, Urbana,
1968.
MARGULIS, Lynn, Origin of Eukaryotic Cells: Evidence and Research
Implications for a Theory of the Origin and Evolution of Microbial, Plant,
and Animal Cells on the Precambrian Earth, Yale University Press, New
Haven, Londres, 1970.
MAYR, Ernst, The Growth of Biological Thought: Diversity, Evolution, and
Inheritance, Belknap Press, Cambridge, MA, 1982.
— Towards a New Philosophy of Biology, Belknap, Cambridge, MA, 1988.
— What Evolution Is New York: Basic Books, Nueva York, 2001.
MCFADDEN, Johnjoe, Quantum Evolution, Flamingo, Londres, 2000.
MELVILLE, Duncan J., «Mesopotamian Mathematics», St Lawrence University,
2005, http://it.stlawu.edu/~dmelvill/mesomath, consultado el 15 de febrero
de 2006.
MORALES, Demetrio Sodi, The Maya World, Minutiae Mexicana, México, 1989,
(1993).
MOROWITZ, Harold J., The Emergence of Everything: How the World Became
Complex, Oxford University Press, Nueva York, 2002.
MORRIS, Desmond, The Illustrated Naked Ape: A Zoologist’s Study of the Human
Animal, Cape, Londres, 1967. [Publicado en español bajo el título El mono
desnudo, Debolsillo, Barcelona, 2006]
NAGLER, Michael N., «Reading the Upanishads», pp. 251–301 en The
Upanishads traducido por Eknath Easwaran, Nilgiri Press, Petaluma, CA,
1987.
NARLIKAR, Jayant y BURBIDGE, Geoffrey, Facts and Speculations in Cosmology,
Cambridge University Press, Cambridge, 2008.
NEEDHAM, Joseph y RONAN, Colin A., The Shorter Science and Civilisation in
China: An Abridgement of Joseph Needham’s Original Text, Cambridge
University Press, Cambridge, Nueva York, 1978.
—, y WANG, Ling, Science and Civilisation in China Vol. 3: Mathematics and
the Sciences of the Heavens and the Earth, Cambridge University Press,
Cambridge, 1959.
NI, Maoshing (traductor), The Yellow Emperor’s Classic of Medicine (the Neijing
Suwen), Shambala Publications, Boston y Londres, 1995.
NISSEN, H J, et al., Archaic Bookkeeping: Early Writing and Techniques of the
Economic Administration in the Ancient Near East, University of Chicago
Press, Chicago, 1990.
NITECKI, Matthew H., Evolutionary Progress, University of Chicago Press,
Chicago, Londres, 1988.
NOBLE, Denis, The Music of Life: Biology Beyond the Genome, Oxford
University Press. Oxford, Nueva York, 2006. [Publicado en español bajo el
título La música de la vida: más allá del genoma humano, Ediciones Akal,
Madrid, 2008]
O’GRADY, Patricia, «Thales of Miletus», The Internet Encyclopedia of
Philosophy, 2006 http://www.iep.utm.edu/thales/, consultado el 17 de junio
de 2014.
O’KELLY, Claire, Concise Guide to Newgrange, C O’Kelly, Blackrock, 1991.
PALLEN, M., The Rough Guide to Evolution London: Rough Guides, Londres,
(2009),
PAULING, Chris, Introducing Buddhism, Windhorse, Birmingham, 1990.
[Publicado en español bajo el título Iniciación al budismo, Fundación Tres
Joyas, Valencia, 1993]
PENROSE, Roger, The Emperor’s New Mind: Concerning Computers, Minds, and
the Laws of Physics Oxford University Press, Oxford, (1989). [Publicado en
español bajo el título La nueva mente del emperador, Debolsillo, Barcelona,
2006]
— The Road to Reality: A Complete Guide to the Laws of the Universe, Jonathan
Cape, Londres (2004). [Publicado en español bajo el título El camino a la
realidad: una guia completa de las leyes del universo, Editorial Debate,
Barcelona, 2006]
PINKER, Steven, The Language Instinct: The New Science of Language and Mind,
Penguin, Londres, 1994. [Publicado en español bajo el título El instinto del
lenguaje: cómo la mente construye el lenguaje, Alianza Editorial, Madrid,
2012]
— The Better Angels of Our Nature: A History of Violence and Humanity,
Penguin, Londres, 2011. [Publicado en español bajo el título Los ángeles que
llevamos dentro: el declive de la violencia y sus implicaciones, Ediciones
Paidos Ibérica, Barcelona, 2012]
PLATÓN, The Republic, traducido por H. D. P. Lee, Penguin, Londres, 1955,
(1965).
PLOTINO, The Six Enneads, traducido al inglés por Stephen MacKenna y B. S.
Page, Christian Classics Ethereal Library, (2010)
http://www.ccel.org/ccel/plotinus/enneads.toc.html
POSSEHI, Gregory L., «Mehrgarh» en The Oxford Companion to Archaeology,
editado por Brian M. FAGAN, Oxford University Press, Nueva York, Oxford,
1996.
PRICE, Derek J. de Solla, Little Science, Big Science, Columbia University Press,
Nueva York, 1963.
RADIN, Dean I., Entangled Minds: Extrasensory Experiences in a Quantum
Reality, Paraview Pocket, Nueva York, 2006.
— The Noetic Universe: The Scientific Evidence for Psychic Phenomena, Corgi,
Londres, 1997.
RAGAN, Mark A., et al., «The Network of Life: Genome Beginnings and
Evolution», Philosophical Transactions of the Royal Society B: Biological
Sciences, 364: 1527, (2009), pp. 2169-2175
REANNEY, Darryl, The Death of Forever: A New Future for Human
Consciousness, Souvenir Press, Londres, 1991.
REES, Martin, Before the Beginning: Our Universe and Others, Addison-Wesley,
Reading, MA, 1997. [Publicado en español bajo el título Antes del principio:
el cosmos y otros universos, Tusquets Editores, Barcelona, 1999]
—, Just Six Numbers: The Deep Forces That Shape the Universe, Weidenfeld &
Nicolson, Londres, 1999. [Publicado en español bajo el título Seis números
nada más, Editorial Debate, Barcelona, 2001]
The Revised English Bible, Oxford University Press y Cambridge University
Press, 1989.
RIEGEL, Jeffrey, «Confucius», The Stanford Encyclopedia of Philosophy, editado
por Edward N. Zalta, (2012),
http://plato.stanford.edu/archives/spr2012/entries/confucius/, consultado el 3
de Agosto de 2012.
The Rig Veda, traducido al inglés por Ralph Griffith, Internet Sacred Text
Archive, 1896, http://www.sacred-texts.com/hin/rigveda/rvi10.htm
ROBERTS, Royston M, Serendipity: Accidental Discoveries in Science, Wiley,
New York, 1989.
ROMER, John, A History of Ancient Egypt: From the First Farmers to the Great
Pyramid, Allen Lane, Londres, 2012.
ROTH, Gerhard, «The Evolution of Consciousness», pp. 554–582 en Brain
Evolution and Cognition editado por Gerhard Roth y Mario F. Wullimann,
Wiley, Nueva York, 2001.
ROUGHGARDEN, Joan, The Genial Gene: Deconstructing Darwinian Selfishness,
University of California Press, Berkeley, CA, Londres, 2009.
ROWAN-ROBINSON, Michael, Cosmology, Clarendon, Oxford, 2004.
RUGGLES, C. L. N., Ancient Astronomy: An Encyclopedia of Cosmologies and
Myth, ABC Clio, Santa Barbara, CA, Oxford, 2005.
RUSSELL, Bertrand, History of Western Philosophy and Its Connection with
Political and Social Circumstances from the Earliest Times to the Present
Day, G Allen and Unwin Ltd., Londres, 1946. [Publicado en español bajo el
título Historia de la Filosofía Occidental, Espasa Libros, Madrid, 1984]
SAPP, Jan, The New Foundations of Evolution: On the Tree of Life, Oxford
University Press, Nueva York, Oxford, 2009.
SCHRODINGER, Erwin, My View of the World, traducido al inglés por Cecily
Hastings, Cambridge University Press, Cambridge, 1961. [Publicado en
español bajo el título Mi concepción del mundo, Tusquets Editores,
Barcelona, 1988]
— What Is Life? with Mind and Matter and Autobiographical Sketches,
Cambridge University Press, Cambridge, Nueva York, 1944. [Publicado en
español bajo el título ¿Qué es la vida?, Tusquets Editores, Barcelona, 1984]
SHANAHAN, Timothy, The Evolution of Darwinism: Selection, Adaptation, and
Progress in Evolutionary Biology, Cambridge University Press, Cambridge,
Nueva York, (2004).
Shapiro, James Alan, Evolution: A View from the 21st Century, FT Press, Upper
Saddle River, NJ, (2011).
SHELDRAKE, Rupert, A New Science of Life: The Hypothesis of Formative
Causation, Icon, Londres, 1981. [Publicado en español bajo el título Una
nueva ciencia de la vida: la hipótesis de la causación formativa, Editorial
Kairos, Barcelona, 2013]
SHIELDS, Christopher, «Aristotle», The Stanford Encyclopedia of Philosophy,
editado por Edward N. Zalta, (2012), http://plato.stanford.edu/cgi-
bin/encyclopedia/archinfo.cgi?entry=aristotle, consultado el 3 de agosto de
2012.
SIMPSON, George Gaylord, The Meaning of Evolution: A Study of the History of
Life and of Its Significance for Man, Yale University, New Haven, CN,
Londres, 1949.
SINGH, Simon, Big Bang: The Most Important Scientific Discovery of All Time
and Why You Need To Know About It, Harper Perennial, Londres, 2004,
(2005). [Publicado en español bajo el título Vig Bang: el descubrimiento
científico más importante de todos los tiempos y todo lo que hay que saber
acerca del mismo, Ediciones de Intervención Cultural, Barcelona, 2008]
SMART, Ninian, The World’s Religions: Old Traditions and Modern
Transformations, Cambridge University Pressm Cambridge, 1989.
[Publicado en español bajo el título Las religiones del mundo, Ediciones
Akal, Madrid, 1999]
SMITH, Charles H., «The Alfred Russel Wallace Page» (1998, 2000–14), Western
Kentucky University http://people.wku.edu/charles.smith/index1.htm,
consultado el 19 de febrero de 2015.
SMOLIN, Lee, The Life of the Cosmos, Phoenix, Londres, 1997.
— The Trouble with Physics: The Rise of String Theory, the Fall of a Science,
and What Comes Next, Allen Lane, Londres, 2006.
SPROUL, Barbara C., Primal Myths: Creation Myths Around the World, Harper &
Row, San Francisco, 1991.
STACHEL, John, Einstein from ‘B’ to ‘Z’, Boston: Birkhauser, Boston, 2002.
STEINHARDT, Paul J. y TUROK, Neil, «The Cyclic Model Simplified»,
Departamento de Física, Universidad de Princeton, 2004,
http://www.phy.princeton.edu/~steinh/dm2004.pdf, consultado el 11 de
marzo de 2007.
—, Endless Universe: Beyond the Big Bang, Weidenfeld & Nicolson, Londres,
2007.
STRINGER, Chris, The Origin of Our Species, Allen Lane, Londres, 2011.
SUSSKIND, Leonard, Cosmic Landscape: String Theory and the Illusion of
Intelligent Design, Little, Brown and Co, Nueva York, (2005). ). [Publicado
en español bajo el título El paisaje cósmico: teoría de cuerdas y el mito del
diseño inteligente, Editorial Crítica, Barcelona, 2007]
TARG, Russell, The Reality of ESP: A Physicist’s Proof of Psychic Phenomena,
Quest Books, Wheaton, IL, (2012).
TEILHARD DE CHARDIN, Pierre, The Phenomenon of Man, traducido al inglés por
Bernard Wall, Collins, Londres, 1959. [Publicado en español bajo el título El
fenómeno humano, Ediciones Orbis, Barcelona, 1985]
The Ten Principal Upanishads, traducido al inglés por Swami Purchit Shree y W.
B. Yeats, Faber and Faber, Londres, 1937 .
TOLMAN, Richard Chace, Relativity, Thermodynamics, and Cosmology,
Clarendon Press, Oxford, 1934; Dover Publications, Nueva York, 1987.
TOMASELLO, Michael, Constructing a Language: A Usage-Based Theory of
Language Acquisition, Harvard University Press, Cambridge, MA, Londres,
2003.
TUTTLE, Russell Howard, «Human Evolution», Encyclopedia Britannica Online,
2014, http://www.britannica.com/EBchecked/topic/275670/human-evolution,
consultado el 1 de mayo de 2014.
UNEP, «Global Environment Outlook 4», (2007),
http://www.unep.org/geo/geo4/report/GEO-4_Report_Full_en.pdf,
consultado el 15 de junio de 2010.
The Upanishads, traducido al inglés por Max Muller, Internet Sacred Text
Archive, 1884, http://www.sacred-texts.com/hin/sbe15
The Upanishads, traducido al inglés por Eknath Easwaran, Petaluma, CA:
Nilgiri Press, Petaluma, CA, 1987.
VAN DE MIEROOP, Marc, A History of Ancient Egypt, Wiley-Blackwell, Oxford,
2011.
WARD, Peter Douglas y BROWNLEE, Donald, Rare Earth: Why Complex Life Is
Uncommon in the Universe, Copernicus, Nueva York, 2000.
WATSON, James D. y STENT, Gunther S., The Double Helix: A Personal Account
of the Discovery of the Structure of DNA, Norton, Nueva York, 1980.
WEINBERG, Steven, Dreams of a Final Theory, Vintage Books, Nueva York,
1992. [Publicado en español bajo el título El sueño de una teoría final: la
búsqueda de las leyes fundamentales de la naturaleza, Editorial Crítica,
Barcelona, 2004]
WEINER, Jonathan, The Beak of the Finch: The Story of Evolution in Our Time,
Jonathan Cape, Londres, 1994.
WELLS, Jonathan, Icons of Evolution: Science or Myth? Why Much of What We
Teach About Evolution Is Wrong, Regnery Publishing, Washington, 2000.
WHITE, Gavin, Babylonian Star-Lore: An Illustrated Guide to the Star-Lore and
Constellations of Ancient Babylonia, Solaris Publications, Londres, 2008.
WILLIAMS, George C., Adaptation and Natural Selection: A Critique of Some
Current Evolutionary Thought, Princeton University Press, Princeton, N. J.,
Chichester, 1966.
WILSON, Edward O., Consilience: The Unity of Knowledge, Little Brown,
Londres, 1998. [Publicado en español bajo el título Consilience: la unidad
del conocimiento, Galaxia Gutemberg, Barcelona, 1999]
—, Sociobiology: The New Synthesis, Belknap Press of Harvard University
Press, Cambridge, MA, Londres, 1975. [Publicado en español bajo el título
Sociobiología, Ediciones Omega, Barcelona, 1980]
WOIT, Peter, Not Even Wrong: The Failure of String Theory and the Continuing
Challenge to Unify the Laws of Physics, Jonathan Cape, Londres, 2006.
WRIGHT, Robert, The Moral Animal: Why We Are the Way We Are, Abacus,
Londres, 1994.
ZHUANGZI, The Book of Zhuangzi traducido al inglés por James Legge, 1891,
http://ctext.org/zhuangzi/knowledge-rambling-in-the-north
GLOSARIO

Las definiciones que siguen a continuación no representan el único


significado de las correspondientes palabras. Son el significado preciso con que
se han utilizado a lo largo del libro y se incorporan aquí para minimizar
cualquier malentendido que pudiera surgir en el texto. Las palabras en cursiva
están definidas en otro punto de este Glosario.

A. C.: antes de Cristo; según la convención, antes del año teórico del nacimiento
de Jesús del calendario cristiano.
Abstracción: concepto general formado por la extracción de características
comunes de realidades concretas, casos reales o ejemplos concretos.
ADN: ácido desoxirribonucleico, localizado en las células, contiene las
instrucciones genéticas utilizadas para el mantenimiento y la reproducción de
todos los organismos independientes conocidos y de algunos virus. Una
molécula de ADN está formada por dos largas cadenas con cuatro nucleótidos
dispuestos en una secuencia característica; las cadenas (denominadas
comúnmente «hebras») están trenzadas en una doble hélice y unidas
mediante enlaces de hidrógeno entre las bases complementarias de adenina
(A) y timina (T) o citosina (C) y guanina (G), de tal modo que su estructura
recuerda la de una escalera de caracol. Cuando se copia el ADN en una
célula, las hebras se separan y actúan a modo de plantilla para unir una nueva
cadena complementaria a partir de las moléculas de la célula. Las hebras de
ADN actúan también como plantillas para la síntesis de proteínas en la célula
a través de un mecanismo que utiliza otro ácido nucleico, el ARN, como
intermediario.
Agujero negro: objeto con un campo gravitatorio tan grande que nada, ni
siquiera la luz, puede escapar de él, puesto que la velocidad exigida para
hacerlo excede la de la luz. La hipótesis plantea que los agujeros negros se
formaron a partir del colapso de estrellas con masas de varios soles cuando
su combustible nuclear se agotó. Un agujero negro puede crecer en masa
porque su potente campo gravitatorio absorbe los objetos que lo rodean. La
teoría cuántica sugiere que los agujeros negros emiten radiación de cuerpo
negro, pero el efecto es significativo solo en el caso de agujeros negros muy
pequeños.
Altruismo: conducta caracterizada por una preocupación desinteresada por el
bienestar de los demás; abnegación.
Aminoácido: una molécula que consiste en un átomo de carbono enlazado con
un grupo amino (-NH2), un grupo carboxilo (-COOH), un átomo de
hidrógeno y un cuarto grupo que difiere de un aminoácido a otro y que suele
denominarse grupo-R o cadena lateral. El grupo-R, que puede variar mucho,
es el responsable de las diferencias en las propiedades químicas de la
molécula.
ARN: el ácido ribonucleico se parece al ADN porque consiste en una cadena de
cuatro nucleótidos dispuestos en una secuencia característica, pero aquí el
uracilo (U) sustituye a la timina (T) que, junto con la adenina (A), la citosina
(C) y la guanina (G) forman las bases de los nucleótidos, y las hebras son
únicas, excepto en determinados virus.
Arqueas: procariotas que se diferencian de las bacterias tanto en su
composición genética como en la de sus membranas plasmáticas y sus
paredes celulares. Incluyen la mayoría de los extremófilos. A pesar de ser
estructuralmente similares a las bacterias, su ADN cromosómico y su
maquinaria celular se parecen más a los de las eucariotas.
Asteroide: objeto rocoso o metálico, más pequeño que un planeta pero mayor
que un meteoroide, que orbita alrededor del sol u otra estrella; conocido
también como planeta menor. Las órbitas de la mayoría, aunque no todos, los
del sistema solar se encuentran entre las órbitas de Marte y Júpiter.
Astronomía: estudio observacional de lunas, planetas, estrellas, galaxias y
cualquier otra materia que quede más allá de la atmósfera de la Tierra, y de
sus movimientos.
Átomo: la unidad fundamental de un elemento químico. Está formado por un
núcleo central denso consistente en protones con carga positiva y neutrones
sin carga, en torno al cual orbitan nubes de electrones con carga negativa
equivalentes en número y carga a los protones, lo que hace que el átomo sea
electrónicamente neutro. El número de protones determina exclusivamente
qué es cada elemento.
Aumento de la complejidad: el proceso que hace que algo sea cada vez más
complejo.
Bacterias: organismos unicelulares extremadamente pequeños cuya información
genética, codificada en un bucle de ADN de doble hebra, no queda encerrada
en un núcleo delimitado por una membrana (y por lo tanto son procariotas).
Además de este nucleoide, la célula puede incluir uno o más plásmidos,
hebras circulares de ADN capaces de replicarse independientemente y que no
son responsables de la reproducción del organismo. Suelen reproducirse
dividiéndose en dos y produciendo copias idénticas de sí mismas. Presentan
diversas formas, destacando entre ellas las esferas, las barras, las espirales y
las comas.
Bariones: protones y neutrones, que constituyen la mayor parte de la masa de la
materia común, más una cantidad de partículas de vida corta como Sigmas,
Deltas y Xis; según el modelo estándar de la física de partículas, cada uno de
ellos está compuesto por tres quarks.
Big Crunch: el resultado de un universo en expansión con una densidad de
masa superior a un valor crítico, cuando la gravedad acabará cambiando el
sentido de la expansión y provocando el colapso del universo en el estado
que se conjetura que tenía al principio.
Bosón: partícula subatómica con espín integral (0, 1 y un hipotético 2) que no
obedece el Principio de exclusión de Pauli, lo que significa que el número de
bosones que puede ocupar el mismo estado cuántico es ilimitado.
Brahma: el dios creador de la trinidad védica, cuyos demás miembros son
Visnú, el conservador, y Shiva, el destructor. Posteriormente fue eclipsado
por estos dos, No hay que confundirlo con Brahmán. (Sánscrito)
Brahmán: realidad suprema, que existe fuera del espacio y del tiempo, de la que
mana todo, y en la que consiste todo; interpretada a menudo como la
Consciencia Cósmica o el Espíritu o el Dios Supremo por encima de todas
las formas. (Sánscrito).
Cambio de fase: un cambio importante en la conducta de una sustancia. Por
ejemplo, el hielo calentado a 0º Celsius experimenta un cambio de fase de
sólido a agua líquida; el agua líquida calentada a 100º Celsius experimenta
un cambio a vapor gaseoso.
Campo escalar: en matemáticas y física, un campo escalar asocia un valor
escalar a todo punto del espacio. El escalar puede ser tanto un número
matemático como una cantidad física.
Catalizador: una sustancia, normalmente utilizada en pequeñas cantidades en
relación con los reactivos, que cambia el ritmo de una reacción química sin
experimentar cambio alguno en ese proceso.
Ciencia: el intento de comprender y explicar los fenómenos naturales mediante
la observación y la experimentación sistemáticas, y preferiblemente
mensurables, y de aplicar el razonamiento al conocimiento obtenido de esta
manera para deducir leyes verificables y realizar predicciones o
retrodicciones.
Ciencias de la tierra: las ramas de la ciencia que estudian el origen, la
naturaleza y la conducta de la Tierra y sus partes, incluyendo sus
interacciones.
Ciencias de la vida: las ramas de la ciencia que estudian las características de
los organismos vivos (plantas, animales y humanos), así como las relaciones
entre dichas características.
Ciencias físicas: las ramas de la ciencia que estudian los fenómenos
inanimados; incluyen la astronomía, la física, la química y las ciencias de la
Tierra.
Ciencias médicas: las ramas de la ciencia que se aplican para conservar la salud,
impedir y tratar enfermedades, y tratar lesiones.
Cientificismo: la creencia de que la ciencia, incorporando métodos de las
ciencias naturales, es el único medio para alcanzar al verdadero conocimiento
y a la auténtica comprensión.
Citoplasma: todo lo que queda en el exterior del núcleo de la célula y dentro de
la membrana celular. Consiste en un líquido gelatinoso con base acuosa
denominado citosol, que contiene sales, moléculas orgánicas y enzimas, y en
el que flotan orgánulos, la maquinaria metabólica de la célula.
Cladística: sistema de clasificación de los seres vivos que se basa únicamente en
las características compartidas por todos los descendientes de un antepasado
común. Parte del supuesto del linaje darwinista con modificación; esta
agrupación genealógica en clades (del griego «rama») produce un
cladograma, o árbol familiar con ramas.
Cognición: facultad mental que permite conocer —a través de procesos como la
percepción, el reconocimiento, la revelación, el razonamiento, la
memorización o la concepción— y que se diferencia de las experiencias de
sentir o querer.
Colaboración: todas las formas de trabajar conjuntamente, incluyendo la
cooperación y la colectivización.
Colectivización: trabajar conjuntamente de manera involuntaria,
independientemente de que se haga por instinto, por aprendizaje aprendido o
por coerción (véase cooperación).
Cometa: cuerpo pequeño, normalmente de unos pocos kilómetros de diámetro,
que contiene trozos de hielo y gases congelados junto con fragmentos de
piedras y polvo incrustados, y que tiene posiblemente un núcleo rocoso, que
se describe a menudo como una bola de nieve sucia. Los cometas presentan
órbitas alargadas y excéntricas, comúnmente con una inclinación muy
superior al plano de la órbita de la Tierra. Cuando pasan cerca del sol,
desarrollan capas gaseosas difusas y largas colas brillantes.
Complejidad: cualidad de ser complejo.
Complejo: un todo compuesto de distintas partes interrelacionadas.
Comprensión: capacidad de captar el significado de las cosas.
Conjetura: opinión o conclusión basada en evidencias incompletas o no
concluyentes; una especulación.
Conocimiento: información sobre alguna cosa adquirida a través de la
experiencia, la inferencia, la revelación o la formación.
Consciencia reflexiva: la propiedad de un organismo por la que es consciente de
su propia consciencia, es decir, no solo lo sabe, sino que además sabe que lo
sabe; la capacidad de un organismo de pensar sobre sí mismo y sobre su
relación con el resto del universo, del que sabe que es parte integrante.
Consciencia: la percepción del entorno, de otros organismos y de uno mismo
que incentiva a la acción; una propiedad compartida por todos los
organismos en distintos grados, desde niveles rudimentarios en organismos
muy simples hasta niveles más sofisticados en organismos con sistemas
cerebrales complejos. (Definida de este modo para diferenciar esta propiedad
de la consciencia reflexiva).
Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar
objetivos acordados por todos o por el beneficio mutuo.
Cosmología: el estudio del origen, la naturaleza y la estructura a gran escala del
universo físico, que incluye la distribución y la interrelación de todas las
galaxias, cúmulos de galaxias y objetos cuasi-estelares.
Cosmos: todo lo que existe, incluyendo varias dimensiones hipotéticas
adicionales a las tres dimensiones de espacio y una de tiempo que
percibimos, así como otros universos con los que no tenemos contacto físico
y de los que no podemos obtener información observable o experimental.
Creatividad: la capacidad de utilizar la imaginación para producir cosas nuevas
como ideas, soluciones a problemas, imágenes, sonidos, olores, sabores y
artefactos.
Cromosoma: la estructura que contiene la información genética de la célula. En
una célula eucariota, consiste en hebras filiformes de ADN envueltas en una
doble hélice alrededor de un núcleo de proteínas dentro del núcleo de la
célula; además de este cromosoma nuclear, la célula puede contener otros
cromosomas más pequeños, por ejemplo, una mitocondria. En una célula
procariota, consiste en un único bucle de ADN estrechamente enrollado; la
célula puede contener también una o más moléculas circulares y más
pequeñas de ADN, lo que se conoce como plásmidos.
Cultura humana: el conocimiento, las creencias, los valores, la organización,
las costumbres, la creatividad expresada en forma de arte y la innovación
expresada en forma de ciencia y tecnología, de una sociedad, aprendido y
desarrollado todo ello por sus miembros y transmitido entre ellos y hacia los
miembros de generaciones sucesivas.
D. C.: después de Cristo; según la convención, después del año teórico del
nacimiento de Jesús del calendario cristiano.
Darwinismo: la hipótesis de que todas las especies del mismo género han
evolucionado a partir de un antepasado común. La causa principal de esta
evolución biológica es la selección natural, o supervivencia del mejor
adaptado, por la cual los descendientes cuyas variaciones los hagan mejor
adaptados para competir con los demás miembros de su especie para la
supervivencia en un determinado entorno, vivirán más tiempo y producirán
más descendientes que los peor adaptados. Estas variaciones favorables son
hereditarias y, en el transcurso de sucesivas generaciones, acabarán
gradualmente dominando la población de ese entorno, mientras que las
variantes peor adaptadas perecerán en manos de los demás, morirán de
hambre o se extinguirán. La selección sexual de caracteres favorables al
apareamiento, y el uso y desuso de órganos, son también hereditarios y causa
de la evolución biológica.
Deducción: proceso de razonamiento en el que la conclusión debe ser cierta si
las premisas, o proposición, son ciertas; inferencia de lo general a lo
específico.
Deriva genética: la variación en la frecuencia de alelos (juegos de genes) en una
población pequeña que tiene lugar como consecuencia del azar y no a través
de la selección natural. Puede dar como resultado la pérdida de rasgos
genéticos en una población, o la difusión de otros, independientemente del
valor de supervivencia o el valor reproductivo de dichos rasgos genéticos.
Dharma: palabra sanscrita cuyo origen se encuentra en los Upanishads de la
antigua India y que significa la ley natural que regula y coordina el
funcionamiento del universo y de todo lo que este contiene, asi como la
conducta de los individuos en conformidad con esta ley. El concepto se
utiliza en el hinduismo, el budismo y el jainismo.
Dualismo: la especulación o creencia de que el universo consta de dos
elementos constituyentes fundamentales, materia y mente, o consciencia.
Electrón: partícula fundamental que forma parte de todos los átomos. Lleva una
carga de electricidad negativa (aproximadamente 1,6 x 10-19 culombios) y
su masa es aproximadamente 1/1836 la del protón, que lleva una carga de
electricidad positiva.
Elemento: sustancia que no puede descomponerse en sustancias más simples
por procedimientos químicos. Todos los átomos del mismo elemento se
caracterizan por tener el mismo número atómico.
Emergencia: la aparición en un todo complejo de una o más propiedades nuevas
que ninguna de sus partes constituyentes presenta. La «emergencia débil» se
da cuando las propiedades nuevas que aparecen en el nivel superior pueden
explicarse por la interacción de las partes constituyentes.
La «emergencia fuerte» se da cuando las propiedades nuevas que aparecen en el
nivel superior no pueden reducirse ni predecirse a partir de la interacción de
las partes constituyentes. La «emergencia de sistemas» se da cuando las
propiedades nuevas que aparecen en el nivel superior interactúan
causalmente con propiedades de nivel inferior; esta causalidad descendente,
y también ascendente, suele formar parte de un enfoque sistémico que, en
contraste con el enfoque reduccionista, considera cada componente como una
parte interdependiente del todo.
Endosimbiosis: asociación en la que un organismo pequeño vive en el interior
de uno más grande, normalmente en condiciones de colaboración, en las que
un organismo se alimenta de la excreción metabólica del otro (véanse
simbiosis y simbiogénesis).
Entropía: una medida del desorden o desorganización de las partes integrantes
de un sistema cerrado; una medida de la energía que no está disponible para
ser utilizada. Cuanto menor sea la entropía, mayor será la organización de sus
partes integrantes y, en consecuencia, habrá más energía disponible para su
utilización y podrá obtenerse más información a partir de la observación de
su configuración. Con niveles de entropía máximos, la configuración es
aleatoria y uniforme, sin estructura ni energía disponible para su utilización;
esto ocurre cuando el sistema ha alcanzado un estado de equilibrio. Se
expresa estadísticamente como:
S = k ln Ω
Donde S representa la entropía, k es una constante, conocida como la constante
de Boltzmann por el científico que formuló la ecuación, ln es un logaritmo
natural y Ω es el número de las distintas maneras en que puede producirse un
estado de equilibrio.
Enzima: catalizador biológico, o elemento químico, que acelera la velocidad de
una reacción química sin ser consumido por dicha reacción. Estos
catalizadores son esenciales para el funcionamiento de cualquier organismo
porque hacen posibles procesos que, de otro modo, se producirían con una
lentitud excesiva sin la entrada de energía (medida a partir de un incremento
de temperatura) necesaria para activar la reacción, y dañarían o destruirían el
organismo.
Epigenética: el estudio de los mecanismos de la regulación genética que causan
cambios en el fenotipo de un organismo pero no implican ningún cambio en
las secuencias de ADN de dichos genes.
Epistemología: la rama del razonamiento que investiga la naturaleza, las
fuentes, la validez, los límites y los métodos del conocimiento humano.
Equinoccio: los dos días del año en que el sol se sitúa exactamente encima del
ecuador y el día y la noche tienen aproximadamente la misma duración sobre
la Tierra. El equinoccio vernal se produce alrededor del 21 de marzo y el
equinoccio otoñal en torno al 22 de septiembre.
Escalar: una cantidad, como la masa, la longitud o la velocidad, que está
totalmente especificada por su magnitud y no tiene dirección.
Especie: población de organismos cuyos caracteres hereditarios definitorios
adultos han experimentado un cambio irreversible con relación a los de la
población o poblaciones a partir de las cuales ha evolucionado.
Especulación: idea o conclusión basada en evidencias incompletas o no
concluyentes; una conjetura.
Estética: la rama del razonamiento que intenta comprender y comunicar la
esencia de la belleza en la naturaleza y en las creaciones humanas.
Ética: la rama del razonamiento que evalúa la conducta humana e intenta
producir códigos que gobiernen la buena conducta entre individuos, entre un
individuo y un grupo de individuos (como podría ser una sociedad o un
estado), y entre grupos de individuos.
Eucariotas: organismos cuyas células incorporan un núcleo delimitado por una
membrana y que contiene la información genética de la célula, además de
orgánulos, que son estructuras discretas que realizan funciones concretas.
Más grandes y tanto estructural como funcionalmente más complejas que las
procariotas, comprenden organismos unicelulares, como las amebas, y todos
los organismos multicelulares, como las plantas, los animales y el ser
humano.
Evolución: proceso de cambio que afecta a alguna cosa, especialmente de un
estado sencillo a otro más complejo (véase también evolución biológica).
Evolución biológica, cuarta ley de la: el aumento de la consciencia se
correlaciona con un aumento de la colaboración, la complejidad y la
centralización.
Evolución biológica, primera ley de la: la competencia y el rápido cambio
medioambiental causaron la extinción de especies.
Evolución biológica, segunda ley de la: la colaboración causa la evolución de
las especies.
Evolución biológica, tercera ley de la: los seres vivos evolucionan mediante el
aumento de la complejidad y la centralización a lo largo de linajes que se
fusionan, bifurcan y que desembocan en estasis en todos, excepto en un
linaje.
Evolución biológica: proceso de cambio que experimentan los organismos y
que da como resultado una nueva especie.
Extinción filética o pseudoextinción: una especie evoluciona en una o más
nuevas especies; la primera especie se ha extinguido, pero el linaje evolutivo
continúa.
Extinción terminal: una especie deja de existir sin dejar ningún descendiente
evolucionado.
Extremófilo: organismo que vive en condiciones extremas de calor, presión o
entorno químico, como alta acidez o concentración de sal.
Fenómeno: algo que puede percibirse o experimentarse mediante los sentidos.
Fenotipo: características observables de un organismo, como forma, tamaño,
color y conducta.
Filogenética: estudio de las relaciones evolutivas entre grupos de organismos,
en particular de los patrones de ramificación de los distintos linajes.
Filosofía natural: la rama del razonamiento que investiga e intenta comprender
el mundo natural que perciben nuestros cinco sentidos, así como su
funcionamiento.
Filosofía: amor a la sabiduría; la reflexión sobre la realidad suprema, la esencia
y la causa de las cosas y de la existencia, el mundo natural, la conducta
humana y el pensamiento en sí a través de la revelación o el razonamiento.
Física: la rama de la ciencia que investiga la materia, la energía, la fuerza y el
movimiento, y la interacción entre todos ellos.
Fisicalismo: la especulación o creencia de que solo la materia física es real y
que todo lo demás, como la mente, la consciencia o los pensamientos,
acabarán explicándose como objetos físicos o sus interacciones; conocido
también como materialismo, incorpora una visión más amplia de la fisicidad
que la materia, por ejemplo, fuerzas no materiales como la gravedad, que
surgen de la materia.
Fisión binaria: división de una célula en dos, en la que cada célula resultante es
idéntica a la célula original y suele alcanzar su mismo tamaño.
Fotón: un cuanto de luz u otra forma de energía electromagnética que posee
propiedades tanto de partícula como de onda y tiene masa cero, no posee
carga eléctrica y tiene un tiempo de vida indefinidamente largo.
Gen: la unidad fundamental de la herencia, que normalmente comprende
segmentos de ADN (en algunos virus son segmentos de ARN, no de ADN); la
secuencia de las bases de cada gen determina las características hereditarias
individuales, codificando para la síntesis de proteínas. Los segmentos suelen
estar dispersos, de modo que algunas partes se encuentran en regiones lejanas
del cromosoma y se solapan con otros genes.
Genoma: la totalidad del contenido genético de un organismo consistente en
hebras largas, llamadas cromosomas, de moléculas de ADN o, en
determinados virus, de ARN. Incluye los genes, las regiones de codificación
del ADN que se traducen en proteínas y moléculas de ARN, así como
regiones reguladores y no codificantes.
Genotipo: la composición genética de un organismo, a diferencia de sus
características físicas (véase fenotipo).
Gravedad cuántica: la esperada teoría de la gravedad cuántica que permitiría
que la energía gravitatoria se unificara con otras formas de energía en único
marco teórico cuántico.
Gravedad: fenómeno natural por el que los cuerpos físicos se atraen
mutuamente a causa de una fuerza proporcional a su masa, descrita por
Newton pero modificada por la teoría de la relatividad. Véase interacción
gravitatoria.
Herencia epigenética: transmisión de una célula madre a una célula hija, tanto
por replicación asexual como por reproducción sexual, de variaciones que
dan lugar a variaciones en los caracteres de un organismo pero que no
implican variaciones en las secuencias de base del ADN.
Hipótesis: teoría provisional planteada para explicar un fenómeno o un conjunto
de fenómenos y utilizada como base de posteriores investigaciones; suele
llegarse a ella bien por revelación, bien por razonamiento inductivo después
de examinar evidencias incompletas y puede ser susceptible de ser falsa.
Homogéneo: que tiene una composición o estructura uniforme. Un universo
homogéneo es el mismo en todos sus puntos.
Horizonte de partículas: es imposible estar causalmente influidos, obtener
información e interactuar con toda partícula, independientemente de que
tenga masa positiva o masa cero, que esté más alejada de nosotros que la
distancia que pueda recorrerse a la velocidad de la luz desde que empezó el
tiempo.
Horizonte visual: según el modelo del Big Bang, solo podemos retroceder hasta
el momento de la escisión entre materia y radiación electromagnética
(estimado actualmente 380.000 años después del Big Bang) porque antes de
eso los fotones estaban dispersos por la interacción continua del plasma
inicial, lo que hacía que el universo fuera opaco.
Humano: la única especie conocida que posee consciencia reflexiva.
Idealismo: la especulación o creencia de que las cosas materiales no existen
independientemente sino que existen solo como construcciones de la mente o
consciencia.
Imaginación: capacidad de la mente para formar imágenes, sensaciones e ideas
no vistas ni experimentadas hasta el momento, incluyendo cosa que nunca
podrán experimentar los sentidos, como un hombre con la cabeza de un león.
Inducción: método consistente en recopilar hechos, detectar un patrón y
establecer una conclusión generalizada, o ley, basada en ese patrón; la
conclusión puede ser cierta, pero no es necesariamente cierta como lo es una
conclusión a la que se llega por deducción a partir de premisas válidas.
Inferencia: proceso de razonamiento a partir de premisas o hechos conocidos
que produce una conclusión que puede ser necesariamente o probablemente
cierta (véase deducción e inducción).
Ingeniería: la aplicación del conocimiento del mundo natural, normalmente
obtenido a través de la ciencia, para concebir medios de alcanzar los
objetivos deseados.
Instinto: respuesta innata e impulsiva a los estímulos, normalmente determinada
por necesidades biológicas como la supervivencia y la reproducción.
Intelecto: capacidad de aprender, razonar y comprender.
Inteligencia: capacidad de adquirir conocimientos y aplicarlos con éxito con un
objetivo, especialmente en situaciones desafiantes y nuevas.
Interacción débil: una de las cuatro fuerzas fundamentales entre las partículas
elementales de la materia (véase interacción electromagnética, interacción
fuerte e interacción gravitatoria). Juega un papel trascendental en la
transformación de unas partículas en otras, por ejemplo, a través de la
desintegración radiactiva. Es la responsable de transformar un electrón y un
protón en un neutrón y un neutrino, una fase fundamental de las reacciones
nucleares. Es varias órdenes de magnitud más débil que la interacción
electromagnética y mucho más débil que la interacción fuerte, mientras que
su rango es de en torno a una milésima de diámetro de un núcleo atómico.
Interacción electromagnética: la fuerza asociada con los campos eléctricos y
magnéticos, que son manifestaciones de un único campo electromagnético.
Gobierna la interacción entre dos partículas cargadas eléctricamente, como
un protón y un electrón, y es responsable de las interacciones químicas y de
la propagación de la luz. Igual que sucede con la interacción gravitatoria, su
alcance es infinito y su fuerza es inversamente proporcional al cuadrado de la
distancia entre partículas; pero a diferencia de la interacción gravitatoria,
puede ser tanto atractiva, cuando las dos cargas son distintas (positiva y
negativa) como repulsiva, cuando las dos cargas son iguales (ambas positivas
o ambas negativas). La interacción electromagnética entre átomos es 1036
veces más fuerte que su interacción gravitatoria. Según el modelo estándar de
la física de partículas, opera por el intercambio de una partícula mensajera, o
intermediario, el fotón sin masa, de la que existe evidencia experimental.
Interacción fuerte: una de las cuatro interacciones fundamentales entre
partículas elementales de materia (véase interacción electromagnética,
interacción débil e interacción gravitatoria). Se cree que es la fuerza que
mantiene unidos a los quarks para que forman protones, neutrones y otros
hadrones, y que une a protones y neutrones para que formen el núcleo del
átomo, superando con ello la repulsión eléctrica de los protones con carga
positiva. Su rango es aproximadamente el de un núcleo atómico y a estas
distancias su fuerza es de unas 100 veces la de la fuerza electromagnética.
Interacción gravitatoria: en la física newtoniana, es una fuerza instantánea de
interacción entre todas las partículas de masa. Es la única universal de las
cuatro interacciones fundamentales (véase interacción electromagnética,
interacción fuerte e interacción débil). Su alcance es infinito, siempre es
atractiva y se obtiene multiplicando las masas y dividiendo el producto
obtenido por el cuadrado de la distancia entre los centros de masa de las
partículas y multiplicando el resultado por la constante universal, G, lo que
se conoce como la constante gravitatoria de Newton. Matemáticamente:
F = G m1m2
———
r2
Donde F es la fuerza gravitatoria, m1 y m2 son las masas, r es la distancia entre
los centros de masa y la constante, G, es un número increíblemente pequeño:
6,67 x 10-11 metros3 (kg-seg2)-1. En la teoría de la relatividad, sin embargo,
no es una fuerza sino una deformación del tejido espacio-tiempo provocada
por la masa y no es instantánea.
Inventiva: la capacidad de crear objetos nuevos, bien por la utilización creativa
de la imaginación, bien por el proceso de prueba y error.
Ion: átomo que ha perdido o ganado uno o más electrones y, en consecuencia,
tiene una carga positiva o negativa.
Isótopo: los átomos con el mismo número atómico pero con un número distinto
de neutrones —y, por lo tanto, una masa distinta, son isótopos del elemento.
Isotrópico: que tiene propiedades físicas que no varían en ninguna dirección. Un
universo isotrópico es aquel que parece ser el mismo en cualquier dirección;
si el universo es isotrópico cuando se observa desde cualquier punto, será
necesariamente homogéneo.
Lenguaje: comunicación de sentimientos, narraciones, explicaciones o ideas a
través de una estructura compleja de símbolos aprendidos hablados, escritos
o de signos, que transmite un sentido en el seno de la cultura en la que se
utiliza.
Leptón: grupo de partículas fundamentales que no participa en la interacción
fuerte. Un leptón puede llevar una unidad de carga eléctrica, como un
electrón, o ser neutral, como el neutrino.
Ley de interpretación de los datos. El grado en el cual un científico se
distancia de una interpretación objetiva de los datos de su investigación es
función de cuatro factores: su determinación por validar una hipótesis o
confirmar una teoría; el tiempo que la investigación ha ocupado en su vida;
su grado de inversión emocional en el proyecto; y su necesidad profesional
de publicar un documento importante o salvaguardar su reputación.
Ley, científica o natural: una afirmación sucinta y general, capaz de ser
verificada mediante observación o experimentación y respecto a la cual no se
han documentado resultados contrarios repetibles, según la cual un conjunto
de fenómenos naturales se comporta invariablemente de manera idéntica
dentro de los límites especificados. Normalmente se expresa mediante una
única ecuación matemática. El resultado de aplicar una ley puede predecirse
si se conocen los valores de aquellas variables que especifican el fenómeno
concreto a considerar. Véase también principio y teoría.
Lógica: la rama del razonamiento que intenta distinguir de manera sistemática
las inferencias válidas de aquellas que no lo son concibiendo reglas para el
razonamiento inductivo y deductivo, principalmente.
Longitud de Planck (lp): la unidad de longitud más pequeña de cualquier teoría
cuántica de la gravedad; por debajo de esta longitud, las fluctuaciones
cuánticas son incompatibles con el continuo espacio-tiempo de la teoría de la
relatividad. Se expresa matemáticamente como: lp = √ (h–G/c3) y es
aproximadamente de 10-35 metros (véase Unidades de Planck para una
explicación de los símbolos).
MACHO: los objetos masivos de halo compacto (MACHO del inglés «Massive
Compact Halo Objects») son formas de materia densa —como los agujeros
negros, las enanas marrones y otras estrellas tenues— que los astrofísicos
utilizan para explicar la materia oscura. Véase también WIMP.
Masa de Planck (mp): la masa de la partícula elemental hipotéticamente más
masiva; con una masa mayor que esta, la partícula elemental se vería
superada por su propia fuerza gravitatoria y colapsaría en un agujero negro.
Se expresa matemáticamente como: mp = √ (h–c/G) y es aproximadamente
de 1019 GeV o 10-5 gramos (véase Unidades de Planck para una explicación
de los símbolos).
Materialismo: la especulación o creencia de que solo las cosas o fenómenos
materiales son reales y que todo lo demás, como la mente, la consciencia o
los pensamientos, acabarán explicándose como objetos físicos o sus
interacciones. (Véase fisicalismo.)
Mecánica cuántica: la teoría que explica la conducta de la materia a escala de
un átomo o inferior y que se basa en la teoría cuántica e incorpora el
principio de incertidumbre de Heisenberg y el principio de exclusión de
Pauli.
Megaverso: un hipotético universo con más dimensiones en el que estaría
incrustado nuestro universo de tres dimensiones espaciales. Algunas
especulaciones defienden que el cosmos comprende muchos megaversos.
Mente: lo que concibe, percibe, razona, desea y recuerda.
Metafísica: la rama del razonamiento que investiga e intenta comprender la
realidad suprema o la esencia y la causa de todas las cosas, tanto materiales
como inmateriales.
Meteorito: cuerpo sólido natural que alcanza la superficie de la Tierra o de otro
planeta después de atravesar la atmósfera.
Meteoro: un rayo de luz en el cielo nocturno causado por un cuerpo sólido
natural, conocido como un meteoroide, calentado hasta su incandescencia por
la fricción cuando atraviesa la atmósfera de la Tierra o de otro planeta.
Meteoroide: cuerpo sólido natural que atraviesa la atmósfera de la Tierra o de
otro planeta.
Método científico (teórico):
1. Los datos se recopilan mediante la observación sistemática, o la
experimentación, del fenómeno objeto de estudio.
2. A partir de estos datos se obtiene una conclusión provisional, o hipótesis.
3. Las predicciones deducidas a partir de esta hipótesis se someten a test
mediante más observaciones o experimentos.
4. Si los test confirman las predicciones, y verificadores independientes
reproducen estas confirmaciones, la hipótesis se acepta como teoría
científica hasta que llega el momento en que nuevos datos entran en
conflicto con la teoría.
5. Si aparecen nuevos datos que entran en conflicto con la teoría, la teoría se
modifica o se descarta a favor de una nueva hipótesis que es consistente
con todos los datos.
Mito: relato tradicional, ficticio en parte o en su totalidad, que suele incluir seres
sobrenaturales, antepasados o héroes y que explica algún fenómeno social o
natural o alguna práctica cultural o religiosa.
Mitocondria: orgánulo recubierto por una membrana localizado en el
citoplasma de casi todas las células eucariotas; su principal función es
generar energía.
Modelo: versión simplificada de una teoría construida para facilitar su cálculo o
su representación visual.
Modelo estándar de física de partículas: pretende explicar la existencia y las
interacciones de todo lo que observamos en el universo, excepto la gravedad,
en términos de partículas fundamentales y sus movimientos. En la actualidad
describe 17 tipos de partículas fundamentales, que se agrupan en quarks,
leptones o bosones. Cuando se tienen en cuenta las variaciones de
antipartículas y bosones, el número total de partículas fundamentales
asciende a 61.
Molécula: la unidad física más pequeña de una sustancia capaz de existir
independientemente y consiste en uno o más átomos enlazados por
compartición de electrones y es eléctricamente neutral.
Monismo neutral: la especulación o creencia de que tanto lo mental como lo
físico puede reducirse a algún tipo de tercera entidad.
Monismo: la especulación o creencia de que todo lo que existe está formado, y
es reducible, a la misma realidad suprema o principio de existencia. Puede
dividirse en materialismo (o fisicalismo), idealismo y monismo neutral.
Contrasta con el dualismo y el pluralismo.
Monopolo magnético: partícula hipotética que solo tiene un polo de carga
magnética (un polo norte sin un polo sur o viceversa) en vez de los habituales
dos.
Moralidad: la costumbre de mantener una buena o mala conducta.
Morfología: tamaño, forma y estructura de un organismo; su estudio.
Multiverso: un cosmos hipotético que contiene nuestro universo más múltiples,
e incluso infinitos, universos con los que no tenemos contacto físico y de los
que no podemos obtener información observable o experimental. Se han
propuesto distintos tipos de multiverso, cada uno con distintas propiedades.
Neodarwinismo: la síntesis de la selección natural darwinista con las teorías
mendelianas y la genética de poblaciones, en la que variaciones genéticas
aleatorias son las responsables de los caracteres que hacen que los individuos
de la población de una especie estén mejor adaptados para competir por los
recursos de su entorno, sobrevivir más tiempo y producir más descendencia.
Estos genes favorables se heredan en cantidades cada vez mayores, haciendo
que el acervo génico —el total de genes de la población— varíe
gradualmente en el transcurso de muchísimas generaciones hasta que se
produce la emergencia de una nueva especie. Los miembros de la población
que carecen de las variaciones genéticas responsables de estos caracteres
adaptativos acaban pereciendo en manos de los demás, mueren de hambre o
se extinguen gradualmente en ese entorno.
Neurona: célula eucariota especializada en responder a la estimulación y la
conducción de impulsos electroquímicos.
Neutrón: partícula subatómica eléctricamente neutra que se encuentra en el
núcleo de todos los átomos con la excepción del hidrógeno común. En los
núcleos ligeros, la configuración estable consiste en neutrones y protones en
cantidades casi iguales, pero a medida que los elementos se vuelven más
pesados, los neutrones superan en número a los protones. A pesar de que un
neutrón es estable dentro del núcleo, un neutrón libre tiene una vida media de
unos 15 minutos y se descompone para producir un protón, un electrón y un
antineutrino.
Noético: de la mente, perteneciente a ella u originado en ella.
Número atómico: el número de protones de un átomo, indicado por Z; es el
número que determina fundamentalmente qué es el elemento y lo distingue
de otros elementos.
Ontogénesis u ontogenia: origen y desarrollo de un organismo individual, desde
el embrión hasta convertirse en adulto.
Ontología: subrama de la metafísica que investiga lo que existe.
Ortogénesis: la hipótesis de que la evolución biológica posee una dirección
causada por fuerzas intrínsecas; su versiones van desde aquellas que
sostienen que la adaptación juega también un papel destacado en la evolución
de las especies, hasta la postura de que la adaptación solo influye las
variaciones dentro de una misma especie, pasando por la que defiende que
esa dirección demuestra la existencia de un fin o propósito en la evolución
biológica.
Paradigma: patrón dominante de pensamiento y supuestos, incuestionables en
gran medida, que integra una disciplina científica, dentro del que se
desarrollan las investigaciones y según el cual se interpretan los resultados.
Parámetro: en ciencias, y en términos generales, uno de entre varios conjuntos
de factores mensurables —como, por ejemplo, la temperatura y la presión—
que define un sistema y determina su conducta; en un experimento, un
parámetro suele variarse mientras los otros permanecen constantes. En
matemáticas, donde es el instrumento preferido por los físicos teóricos, es
una constante en una ecuación que varía en otras ecuaciones del mismo
formato.
Partogénesis: desarrollo de un óvulo hasta convertirse en cría sin que se
produzca la fecundación por parte de un macho.
Pensamiento: el proceso de aplicar la mente para profundizar en algo; el
resultado de este proceso.
Pensamiento científico: la tercera fase de la consciencia reflexiva, en la que la
reflexión sobre el yo y su relación con el resto del universo se ramifica hacia
el empirismo.
Pensamiento filosófico: la segunda fase de la consciencia reflexiva, cuando la
reflexión sobre el yo y su relación con el resto del universo se aleja de la
superstición para adentrarse en la filosofía.
Pensamiento primitivo: la primera fase de la consciencia reflexiva en la que la
reflexión sobre el individuo y su relación con el resto del universo se centra
principalmente en la supervivencia y la superstición.
Pensar: aplicar la mente, sea por razonamiento o por revelación, a alguna cosa,
a diferencia de responder a ello por instinto.
Péptido: cadena de dos o más aminoácidos formada por la unión química del
grupo carboxilo de un aminoácido y el grupo amino de otro aminoácido.
Planeta: objeto de masa y volumen aproximadamente constantes que
normalmente orbita alrededor de una estrella o de un resto estelar, posee una
masa suficiente para que su campo gravitatorio le dé una forma
aproximadamente esférica pero insuficiente como para provocar la fusión
termonuclear de su núcleo, y no es un satélite de otro planeta; ha limpiado su
zona orbital de planetesimales y otros desechos y puede tener parte de los
mismos en órbita a su alrededor en forma de lunas o anillos de polvo.
Plasma: fase de la materia que comprende gas ionizado con núcleos de átomos
(iones) con carga positiva, electrones libres con carga negativa y partículas
neutras, sin una carga neta general; es conductivo eléctricamente y está
afectado por campos magnéticos.
Plásmido: molécula circular de ADN, a veces de ARN, localizada en el
citoplasma de la mayoría de procariotas y en la mitocondria de algunas
eucariotas. Se replican independientemente del cromosoma de la célula.
Pluralismo: especulación o creencia de que la realidad consiste en numerosos
tipos de seres o sustancias.
Poliploide: que posee más de dos conjuntos de cromosomas en una célula.
Prana: energía vital, el poder de la vida; el sustrato esencial de todas las formas
de energía. (Sanscrito)
Primera ley de la termodinámica: la variación de la energía de un sistema
cerrado que utiliza o produce calor es igual a la diferencia entre la cantidad
de energía calorífica incorporada al sistema y la cantidad de trabajo
intercambiada por el sistema con sus alrededores. Se trata de una aplicación
específica del Principio de conservación de la energía.
Principio de conservación de la energía: la energía no se crea ni se destruye; la
energía total de un sistema aislado permanece constante, aunque puede
transformarse de unas formas a otras.
Principio de exclusión de Pauli: no puede haber dos electrones de un átomo o
molécula con los cuatro números cuánticos iguales. En términos más
generales, en un sistema no puede haber al mismo tiempo dos fermiones (un
tipo de partículas que incluye electrones, protones y neutrones) en estados
caracterizados por los mismos números cuánticos.
Principio de incertidumbre (Heisenberg): principio de la mecánica cuántica
que cuánto más seguros estemos de la medición de la posición de un objeto,
menos seguros estaremos de la medición simultanea de su velocidad. Esto
aplica también a la medición de la energía de un objeto en un momento
concreto. Para los objetos visibles, el producto de estas dos incertidumbres es
tan pequeño que puede ignorarse. Sin embargo, en el caso de objetos con la
masa de un átomo o incluso inferior, como podría ser un electrón, la
incertidumbre resulta significativa.
Principio del aumento de entropía: durante cualquier proceso que tenga lugar
en un sistema aislado, la entropía se mantiene constante o, normalmente, se
incrementa; por ejemplo, el desorden aumenta, la energía disponible
disminuye y la información se pierde con el paso del tiempo, a medida que el
sistema avanza hacia un estado de equilibrio.
Principio, científico o natural: una ley considerada fundamental y
universalmente cierta. Por ejemplo, la primera ley de la termodinámica aplica
al trabajo y a la energía calorífica, mientras que el principio de conservación
de la energía aplica a todas las formas de energía.
Procariota: célula que no tiene su material genético encerrado en su interior
mediante una membrana.
Proteína: molécula consistente en una cadena formada por entre cincuenta y
varios miles de aminoácidos que proporciona estructura a todas las células y
controla reacciones. Una proteína se caracteriza por la secuencia formada por
los hasta los veinte tipos distintos de aminoácidos que integran la cadena,
más la configuración tridimensional de dicha cadena.
Protón: particular subatómica estable que lleva una carga de electricidad
positive y constituye el núcleo de un átomo de hidrógeno. Los protones,
junto con los neutrones —algo más masivos— se encuentran en el núcleo de
todos los átomos y el número de protones define el elemento químico.
Psicología: la rama de la ciencia que investiga los procesos mentales y las
conductas de individuos y grupos.
Quark: grupo de partículas fundamentales que crean protones, neutrones y otras
partículas que perciben la interacción fuerte.
Química: la rama de la ciencia que investiga las propiedades, la composición y
la estructura de las sustancias y los cambios que experimentan cuando se
combinan o reaccionan en determinadas condiciones.
Razonamiento: intento de comprender la esencia de una cosa a través de un
proceso lógico, basado en evidencias o en supuestos tomados como obvios.
Reduccionismo: método que consiste en desglosar algo en las distintas partes
que lo componen para comprender en qué consiste y cómo funciona; la
creencia de que todo puede comprenderse y explicarse estudiando las partes
que lo constituyen y cómo interactúan. (Véase, por contraste, emergencia)
Regla: indicación para que los científicos lleven a cabo un procedimiento o
solucionen un problema, a diferencia de una ley que siguen los fenómenos
naturales (la naturaleza obedece a leyes, los científicos emplean reglas).
Religión: organización establecida para conservar, interpretar, aplicar, enseñar y,
normalmente, divulgar las revelaciones, creencias y exhortaciones resultantes
de la persona considerada su fundadora. Los miembros de la organización
aceptan las verdades e interpretaciones de estas revelaciones como cuestiones
de fe. La organización se asegura la fidelidad y la cohesión de sus miembros
mediante tres métodos: inculcación, sobre todo de los jóvenes; reglas, cuyo
quebrantamiento supone castigos; y ritual, la práctica que genera satisfacción
emocional.
Retrodicción: un resultado que se ha producido en el pasado y que se deduce o
predice a partir de una ley o teoría científica posterior.
Revelación: ver con claridad la esencia de una cosa, normalmente de forma
repentina después de una meditación disciplinada o después de un intento
infructuoso de llegar a su comprensión a través del razonamiento. (Para tipos
de revelación, véase revelación mística, revelación espiritual, revelación
científica, revelación matemática, revelación psicológica, revelación ética y
revelación artística. A modo de contraste, véase razonamiento.)
Revelación artística: la comprensión directa que da como resultado la creación
de obras visuales, musicales o escritas bellas o capaces de provocar el
pensamiento.
Revelación científica: la comprensión directa de la esencia o las causas de los
fenómenos naturales, sus interacciones u otras relaciones y, a menudo, de las
reglas que gobiernan estas interacciones o relaciones.
Revelación espiritual: supuesta revelación por parte de un dios o Dios, o su
mensajero, que suele exhortar a su receptor a defender un determinado
proceder entre los creyentes en la deidad.
Revelación ética: la comprensión directa de cómo, y a menudo por qué, los
humanos deberían comportarse como individuos o como grupo con respecto
a otros individuos y otros grupos.
Revelación matemática: la comprensión directa de las propiedades, o de las
relaciones, entre números, formas reales y abstractas y, a menudo, de las
reglas que gobiernan estas relaciones.
Revelación mística: la comprensión directa de la realidad suprema; la esencia y
la causa de todas las cosas.
Revelación psicológica: la comprensión directa de por qué y cómo los
individuos, o grupos de individuos, piensan y se comportan como lo hacen.
Ribosoma: partícula redonda compuesta por ARN y proteínas que se encuentra
en el citoplasma de las células. Actúa a modo de lugar de reunión de las
proteínas y traduce el código genético lineal que transporta un ARN
mensajero y lo transforma en una secuencia lineal de aminoácidos.
Segunda ley de la termodinámica: el calor nunca pasa espontáneamente de un
cuerpo frío a un cuerpo caliente; la energía siempre va de las formas más
utilizables a las menos utilizables. Se trata de una aplicación específica del
Principio de aumento de entropía.
Selección natural (darwinista y neodarwinista): el efecto acumulativo de
pequeñas variantes, producidas aleatoriamente y heredadas a lo largo de
muchísimas generaciones, que permite a los organismos sobrevivir más
tiempo en un entorno particular y reproducirse en mayor cantidad que los
organismos que no poseen estas variantes; da como resultado un incremento
en el número de las variantes favorables, o mejor adaptadas, a ese entorno y
la eliminación de las variantes desfavorables. Véase también darwinismo,
neodarwinismo y ultradarwinismo.
Simbiogénesis: fusión de organismos distintos para formar un nuevo organismo
más complejo (véase endosimbiosis).
Simbiosis: asociación física de dos o más tipos distintos de organismos a lo
largo de la mayor parte de la vida de uno de ellos.
Singularidad: región hipotética en el espacio-tiempo donde la fuerza de la
gravedad hace que una masa finita quede comprimida en un volumen
infinitamente pequeño, y por lo tanto tenga una densidad infinita, y donde el
espacio-tiempo queda infinitamente distorsionado.
Sistema nervioso: un grupo organizado de células, llamadas neuronas,
especializadas en la conducción de estímulos electroquímicos a través de una
red nerviosa, desde un receptor sensorial hasta un efector, lugar en el cual se
produce una respuesta.
Solsticio: momento (21 de junio o 22 de diciembre) en el cual el sol está más al
norte o más al sur del ecuador celeste de la Tierra y parece quedarse quieto
hasta que regresa hacia el ecuador. El día más largo coincide con el solsticio
de verano, mientras que el día más corto lo hace con el solsticio de invierno.
Superstición: creencia que entra en conflicto con las evidencias o que carece de
base razonable y que suele surgir como consecuencia de una falta de
comprensión de los fenómenos naturales o del miedo a lo desconocido.
Tao: realidad suprema, inefable; el Camino por el que todo cobra existencia y se
manifiesta en el Camino mediante el cual funciona el cosmos. (Chino)
Taxonomía: clasificación jerárquica de los organismos en grupos según los
caracteres que tienen en común, empezando por los más generales hasta
llegar a los más específicos.
Tecnología: La invención, creación y utilización de herramientas o máquinas
para solventar un problema.
Teoría: explicación de un conjunto de fenómenos que ha quedado confirmada
por diversos experimentos y observaciones y que se utiliza para realizar
predicciones o retrodicciones precisas sobre dichos fenómenos. Véase
también hipótesis, modelo, ley y principio.
Teoría cuántica: la teoría de que la energía es emitida y absorbida por la materia
en cantidades minúsculas y discretas, cada una de las cuales se conoce como
un cuanto que está relacionado con la frecuencia de radiación de la energía y,
por consiguiente, posee propiedades tanto de las partículas como de las
ondas. Dio lugar a la mecánica cuántica. El término se utiliza ahora en
general para hacer referencia a todos los desarrollos teóricos subsecuentes.
Tercera ley de la termodinámica: la entropía a temperatura cero absoluto de un
cristal perfectamente ordenado es igual a cero.
Tiempo de Plank (tp): el tiempo que tarda la luz en viajar una longitud de
Planck. Se expresa matemáticamente como: tp = √ (h–G/c5) y es
aproximadamente de 10-43 segundos (véase Unidades de Planck para una
explicación de los símbolos).
Ultradarwinismo: cualquier hipótesis que emplee el concepto de la evolución
de cosas que no sean organismos por medio de la selección natural y en la
que el efecto acumulativo de pequeñas variaciones aleatorias en los
caracteres de esas cosas, o en los caracteres causados por esas cosas, las
haga, a lo largo de numerosas generaciones, cada vez mejor adaptadas para
competir por la supervivencia y la reproducción en su entorno.
Unidades de Planck: un sistema de escalas absolutas de medida elegidas para
que las constantes físicas universales sean igual a uno, concretamente: G = c
= k = h– = 1, donde G es la constante de gravitación universal de Newton,
que mide la fuerza de la gravedad; c es la velocidad de la luz constante; k es
la constante de Boltzmann, que mide la entropía, o grado de desorganización,
de un sistema cerrado; h– es la constante de Planck, h, que mide la escala de
los fenómenos cuánticos, dividida por 2π. En consecuencia, estas constantes
desaparecen de las ecuaciones de las leyes físicas que utilizan estas escalas.
Universo: toda la materia y energía que existe en la única dimensión de tiempo
y las tres dimensiones de espacio que perciben nuestros sentidos; es distinto
al universo observable y al cosmos.
Universo observable: la parte del universo que contiene materia capaz de ser
detectada mediante la observación astronómica. Según la cosmología
ortodoxa actual, queda circunscrito por la velocidad de la luz y por el tiempo,
puesto que la materia y la radiación se escindieron unos 380.000 años
después de que el universo empezara a existir a partir del Big Bang.
Upanishad: relato de las enseñanzas de un vidente de la Antigua India surgido a
partir de sus revelaciones místicas. Tradicionalmente, van unidos al final de
uno de los Vedas, pero se ocupan de aspectos de realidad suprema más que de
asuntos relacionados con la veneración a los dioses. (Sánscrito)
Veda: sabiduría revelada; concretamente, una de las cuatro colecciones que
forman las escrituras hindúes. Se utiliza con frecuencia para hacer referencia
a la primera parte, y también la más antigua, de cada colección, la samhita,
una recopilación de himnos a los dioses. (Sánscrito)
Vida: la capacidad de una entidad cerrada de responder a los cambios que se
producen dentro de sí misma y en su entorno, de extraer energía y materia de
su entorno y de convertir esa energía y esa materia en una actividad dirigida
internamente que incluya el mantenimiento de su propia existencia.
Voluntad: utilización de la mente para tomar decisiones sobre cosas.
WIMP: las partículas masivas de interacción débil (WIMP, del inglés «Weakly
Interacting Massive Particles») son partículas dejadas por el Big Bang —
como los neutrinos, con una masa que multiplica por cien la del protón, y
otros— que los físicos de partículas utilizan para explicar la materia oscura.
Véase también MACHO.
CRÉDITOS DE LAS ILUSTRACIONES

Figuras 3.2 y 3.3 de The Inflationary Universe © 1997, Alan Guth, con la
debida autorización por parte del autor.
Figura 4.1, NASA.
Figura 5.1 de A Brief History of Time © 1988, Stephen Hawking con la
debida autorización de Writers House LLC, en nombre del autor.
Figura 5.2 de Facts and Speculations in Cosmology © Jayant Narlikar y
Geoffrey Burbidge, 2008 con la debida autorización de Jayant Narlikar.
Figura 5.3 con la debida autorización de Paul Steinhardt.
Figura 8.1 From The Inflationary Universe © 1997, Alan Guth con la debida
autorización por parte del autor.
Figura 8.2, NASA.
Figura 8.3, Observatorio Europeo Austral.
Figuras 8.4, 9.1, y 9.2, NASA.
Figura 9.3 con la debida autorización de International Union of Pure &
Applied Chemistry.
Figura 10.1, NASA.
Figura 12.2, Dna-Dennis.
Figura 12.3 de Environmental Science: Earth as a Living Planet, de Daniel
D. Botkin y Edward A. Keller (Media Support Disk) © 1999, de John Wiley and
Sons Inc. con la debida autorización del editor.
Figura 12.4, NASA.
Figura 12.5, dibujo de un original de Stephen Nelson, con su debida
autorización.
Figuras 12.6, 12.7 y 12.8, The United States Geological Survey.
Figura 14.1 con la debida autorización de Norman Pace.
Figura 14.2, Mariana Ruiz Villarreal.
Figure 14.3, The National Human Genome Research Institute.
Figura 14.4, adaptada de un original de Yassine Mrabet.
Figura 14.5, Yassine Mrabet.
Figuras 15.1 y 15.2 de At Home in the Universe © 1995, Stuart Kauffman;
figuras © 1993 Oxford University Press, reproducidas con la debida autorización
de Oxford University Press.
Figura 16.1, John Gould.
Figuras 17.1 y 17.2 de The Crucible of Creation © 1998 Simon Conway
Morris, con la debida autorización del autor y de Oxford University Press.
Figura 17.3 © John Hands, digitalizada por Kevin Mansfield.
Figura 17.5 de http://web.neomed.edu/web/anatomy/Pakicetid.html.
Figura 17.6 de http://web.neomed.edu/web/anatomy/Pakicetid.html,
ilustración de Carl Buell.
Figura 17.7 con la debida autorización de Encyclopedia Britannica Inc. ©
2011.
Figura 18.1, Trevor Bounford.
Figura 19.1, Mediran.
Figura 20.1, © John Hands.
Figura 20.2, con la debida autorización de Douglas L. Theobald.
Figura 23.1, © John Hands.
Figura 23.2, Kathryn Delisle, reproducida con la debida autorización de Lynn
Margulis.
Figura 24.1, adaptada del dibujo de Quasar Jarosz.
Figura 24.2, © John Hands, dibujo modificado por Trevor Bounford.
Figura 24.3, dibujo modificado por Trevor Bounford a partir de un original
de William Tietien.
Figura 24.5, adaptada con la debida autorización de la página web de
HOPES, Universidad de Stanford, https://www.stanford.edu/group/hopes/cgi-
bin/wordpress/?p=3787.
Figura 24.6, con la debida autorización de http://brainmuseum.org/ y
https://www.msu.edu, con el apoyo de la US National Science Foundation.
Figura 26.1, © John Hands.
Figura 26.2, con la debida autorización de Encyclopedia Britannica Inc. ©
2013.
Figura 27.1, © John Hands.
Figura 28.1 Klem.
Figuras 28.2, 29.1, 29.2, 31.1 y 31.2, © John Hands. figura 31.1 dibujo
modificado digitalmente por Kevin Mansfield. figura 31.2 dibujo modificado
digitalmente por Fakenham Prepress Solutions.

Allí donde no aparece mencionada la debida autorización, es porque la


ilustración no posee derechos de reproducción. Se han hecho todos los esfuerzos
posibles con el fin de localizar a todos los titulares de derechos de reproducción
y tanto el autor como la editorial rectificarán en ediciones futuras cualquier error
u omisión que se les comunique.

También podría gustarte