Está en la página 1de 591

John Hands

COSMOSAPIENS

La evolución humana desde los orígenes del universo

Traducción del inglés: Isabel Murillo


Con amor, en recuerdo de mi esposa, Paddy Valerie Hands.
AGRADECIMIENTOS

Nombrar a todos los que me ayudaron a hacer realidad este libro es imposible. Entre
ellos están los autores cuyos documentos y libros he consultado. La sección de Notas del
final del libro incluye referencias completas de la mayoría de documentos académicos así
como referencias de los libros consultados, además de los documentos más extensos y
destacados, por autor y año. Los detalles completos de los libros y los documentos citados
en las Notas se encuentran en la Bibliografía que las sigue. La distinción es arbitraria
porque algunos de los documentos académicos son muy extensos y he incluido los más
destacados en la Bibliografía pero, en términos generales, he intentado evitar una
Bibliografía voluminosa.
De entre los muchísimos especialistas que han compartido con gran generosidad su
experiencia conmigo, me siento especialmente en deuda con aquellos que respondieron a
mi solicitud de revisar los borradores de las distintas secciones en busca de errores de
hecho u omisión o de conclusiones no razonables y de realizar cualquier tipo de
comentario. Los nombro a continuación dentro de amplias áreas de estudio, cada una de las
cuales abarca los diversos campos de especialización relevantes para el libro. El puesto que
aparece junto a cada nombre es que el que ocupaban en el momento de ser consultados.
Mitos: Charles Stewart y Mukulika Banerjee, profesores titulares del departamento
de Antropología, University College London (UCL).
Cosmología y astrofísica: George Ellis, profesor honorario de Sistemas Complejos
en el departamento de Matemáticas y Matemáticas aplicadas, Universidad de Ciudad del
Cabo; Paul Steinhardt, profesor Albert Einstein de Ciencias, Princeton University; Ofer
Lahav, catedrático Perren de Astronomía y director de Astrofísica, UCL; Bernard Carr,
profesor de Astronomía, Queen Mary, Universidad de Londres; el fallecido Geoffrey
Burbidge, profesor de Astronomía, Universidad de California, San Diego; Javant Narlikar,
profesor emérito, Inter-University Centre for Astronomy and Astrophysics, Pune, India; Jon
Butterworth, profesor de Física y director del departamento de Física y Astronomía, UCL;
Serena Viti, profesora adjunta del departamento de Física y Astronomía, UCL; Eric J
Lerner, presidente de Lawrenceville Plasma Physics, Inc.
Filosofía: Tim Crane, profesor y director del departamento de Filosofía, UCL, y
director del Institute of Philosophy, y también posteriormente profesor Knightbridge de
Filosofía, Universidad de Cambridge; Hasok Chang, profesor de Filosofía de las ciencias,
UCL.
Ciencias planetarias y atmosféricas: Jim Kasting, profesor honorario, Pennsylvania
State University.
Geología: John Boardman, profesor adjunto de Geomorfología y degradación del
suelo, Universidad de Oxford.
Historia de la ciencia: Adrian Desmond, biógrafo e investigador honorario del
departamento de Biología, UCL; Charles Smith, profesor y bibliotecario de Ciencias,
Western Kentucky University; John van Whye, fundador y director de The Complete Works
of Charles Darwin online; James Moore, biógrafo y profesor del departamento de Historia,
Open University; James Le Fanu, médico e historiador especializado en ciencias y
medicina.
El origen y la evolución de la vida: profesor Adrian Lister, investigador del
departamento de Paleontología del Museo de Historia Natural; Jim Mallet, profesor del
departamento de Genética, evolución y medioambiente, UCL; Johnjoe McFadden, profesor
de Genética molecular, Universidad de Surrey; Mark Pallen, profesor de Genómica
microbiana, Universidad de Birmingham; Chris Orengo, profesor de bioinformática, UCL;
Jerry Coyne, profesor del departamento de Ecología y evolución, Universidad de Chicago;
el fallecido Lynn Margulis, profesor honorario, Universidad de Massachusetts; Jim
Valentine, profesor emérito del departamento de Biología integrativa, Universidad de
California, Berkeley; Jeffrey H Schwartz, profesor de Antropología física y de Historia y
filosofía de la ciencia, Universidad de Pittsburgh; Hans Thewissen, profesor de Anatomía
del departamento de Anatomía y neurobiología, Northeastern Ohio Universities College of
Medicine; Rupert Sheldrake, biólogo celular y director del Perrott-Warrick Project,
patrocinado por el Trinity College, Cambridge; Simon Conway Morris, profesor de
Paleobiología evolutiva, Universidad de Cambridge; Francis Heylighen, profesor
investigador, Universidad Libre de Bruselas; Jonathan Fry, profesor titular del
departamento de Neurociencia, fisiología y farmacología, UCL; Thomas Lentz, profesor
emérito de Biología celular, Yale University School of Medicine; Richard Goldstein de la
división de Biología matemática del National Institute for Medical Research, Londres;
Avrion Mitchison, profesor emérito de Anatomía zoológica y comparativa, UCL.
Conducta animal: Volker Sommer, profesor de Antropología evolutiva, UCL; Alex
Thornton, Drapers’ Company Research Fellow, Pembroke College, Cambridge; Heikki
Helanterä, investigador académico, Universidad de Helsinki; Simon Reader, profesor
adjunto del departamento de Biología, McGill University.
El origen del hombre: Robin Derricourt, historiador y arqueólogo, Universidad de
Nueva Gales del Sur; C Owen Lovejoy, profesor del departamento de Antropología, Kent
State University; Tim White, profesor del departamento de Biología integrativa,
Universidad de California, Berkeley.
La evolución de los humanos: Steven LeBlanc, profesor de Arqueología, Harvard
University; John Lagerwey, profesor del Centre for East Asian Studies, Universidad China
de Hong Kong; Liz Graham, profesora de Arqueología mesoamericana, UCL; Subhash
Kak, profesor Regents de Ciencia de la computación, Oklahoma State University; Fiona
Coward, profesora titular de Ciencia de la arqueología, Bournemouth University; Dorian
Fuller, profesor adjunto de Arqueobotánica, UCL; Pat Rice, profesora emerita del
departamento de Sociología y antropología, West Virginia University; Damien Keown,
profesor de Ética budista, Goldsmiths, University of London; Stephen Batchelor, profesor
de budismo y escritor; Naomi Appleton, Chancellor’s Fellow en Estudios religiosos,
Universidad de Edimburgo; Simon Brodbeck, profesor de la Escuela de Historia,
arqueología y religión, Universidad de Cardiff; Chad Hansen, profesor de Filosofía,
Universidad de Hong Kong; Gavin White, autor de Babylonian Star-Lore; Magnus Widell,
profesor de Asiriología, Universidad de Liverpool; Stephen Conway, profesor y director del
departamento de Historia UCL; Bruce Kent, fundador y vicepresidente del Movimiento
para la abolición de la guerra; Dean Radin, director científico del Institute of Noetic
Sciences.
Charles Palliser, novelista, realizó comentarios en diversos capítulos desde el punto
de vista de un no especialista.
Cualquier error que pueda haber queda totalmente bajo mi responsabilidad. No
todos los especialistas mencionados se mostraron de acuerdo con las conclusiones que yo
extraje a partir de las evidencias. De hecho, busqué deliberadamente comentarios de
muchos cuyas publicaciones demostraban que tenían puntos de vista distintos al mío. Con
algunos entablé una larga correspondencia, llamándome la atención hacia evidencias que yo
desconocía, proporcionándome una interpretación distinta de las evidencias o cuestionando
mis argumentos. Valoré muchísimo estos intercambios, que sirvieron para mejorar el
manuscrito y las conclusiones. Otros exhibieron una mentalidad lo suficientemente abierta
como para decir que, después de reflexionar, estaban de acuerdo con mis conclusiones.
Varios especialistas se mostraron en desacuerdo con otros especialistas de su mismo
ámbito.
A pesar de que las preguntas sobre qué somos, de dónde venimos y por qué estamos
aquí me han intrigado desde que era un estudiante de ciencias, la idea de investigar y
escribir un libro sobre el tema surgió en 2002. Mi nombramiento como Royal Literary Fund
Fellow del University College London en 2004, me proporcionó los ingresos, el ambiente y
la biblioteca necesaria para permitirme desarrollar y dar forma a mis ideas y, en 2006, el
libro acabó adquiriendo la orientación con la que ha salido a la luz. Mi infinito
agradecimiento para la UCL y mis colegas en la institución, a la Graduate School por su
apoyo, a los estudiantes universitarios a los que he impartido clases y de los que tanto he
aprendido y al RLF por financiar el proyecto. Mi agradecimiento también para el Arts
Council of England por el regalo en forma de beca literaria que recibí en 2009 y que me
permitió trabajar prácticamente a tiempo completo en la investigación y la redacción del
libro. Katie Aspinall me ofreció muy amablemente su casita en Oxfordshire para poder
disfrutar de periodos de reflexión sin interrupciones.
Cuando mis amigos querían mostrarse comprensivos, decían que era un proyecto
ambicioso. Cuando querían ser realistas, decían que era una locura. En mis momentos más
cuerdos, es lo que yo pensaba también. He contraído una deuda enorme con mi agente,
Caspian Dennis, de Abner Stein, que mantuvo su fe en el proyecto y demostró la habilidad
necesaria para colocarlo en el editor adecuado en el momento adecuado. Andrew Lockett,
el recientemente nombrado director editorial de Duckworth, se quedó intrigado con la
propuesta y durante su primera semana en el puesto nos invitó a reunirnos con él. El
proyecto necesitaba la aprobación del propietario de Duckworth, Peter Mayer, fundador de
Overlook Press, Nueva York. El exhaustivo y extremadamente educado interrogatorio al
que me sometió Peter durante una de las visitas que realizó a Londres me hizo entender por
qué durante más de veinte años, incluyendo los dieciocho que pasó como consejero
delegado de Penguin Books, había sido el editor más destacado e innovador del mundo.
Andrew defendió el libro y proporcionó comentarios editoriales valiosísimos del
manuscrito. Su equipo, integrado por Melissa Tricoire, Claire Easthman, Jane Rogers y
David Marsall, se mostró entusiasta tanto en su apoyo como en las ideas proporcionadas
para producir un libro atractivo y accesible que llamara la atención de los potenciales
lectores, y similar entusiasmo mostraron Nikki Griffiths, el sucesor de Andrew como
director editorial, y Deborah Blake, la revisora. Mi agradecimiento también para Tracy
Carns y Erik Hane, de Overlook Press.
CAPÍTULO 1. LA EXPEDICIÓN

Si descubrimos una teoría completa, con el tiempo habrá de ser, en sus líneas
maestras, comprensible para todos y no únicamente para unos pocos científicos. Entonces
todos, filósofos, científicos y la gente corriente, seremos capaces de tomar parte en la
discusión de por qué existe el universo y por qué existimos nosotros. Si encontrásemos una
respuesta a esto, sería el triunfo definitivo de la razón humana, porque entonces
conoceríamos el pensamiento de Dios.

Stephen Hawking, 1988

Cuando hayamos unificado la cantidad necesaria de conocimientos,


comprenderemos quién somos y por qué estamos aquí.

Edward O. Wilson, 1988

«¿Qué somos?» y «¿por qué estamos aquí?» son preguntas que llevan fascinando al
ser humano desde hace al menos veinticinco mil años. Durante la inmensa mayoría de este
tiempo, hemos buscado respuesta a través de las creencias sobrenaturales. Hace apenas tres
mil años, empezamos a buscar la respuesta a esas preguntas a través de la visión filosófica
y el razonamiento. Hace poco más de ciento cincuenta años, la obra de Charles Darwin, El
origen de las especies, aportó un enfoque completamente distinto. Adoptaba el método
empírico de la ciencia y llegó a la conclusión de que somos producto de la evolución
biológica. Cincuenta años atrás, los cosmólogos declararon que la materia y la energía de la
que estamos compuestos tenían su origen en un Big Bang que creó el universo. Y luego,
hará cuestión de treinta años, los neurocientíficos empezaron a demostrar que lo que
vemos, oímos, sentimos y pensamos está correlacionado con la actividad que desarrollan
las neuronas en distintas partes del cerebro.
Estos grandiosos logros en la ciencia fueron posibles gracias a avances tecnológicos
que generaron un incremento de datos de carácter exponencial. Esto a su vez llevó a la
ramificación de la ciencia en focos de investigación cada vez más delimitados y profundos.
En los últimos tiempos, nadie ha dado un paso atrás para examinar la hoja de una de esas
ramas sin ver que la totalidad del árbol evolutivo nos está mostrando quién somos, de
dónde venimos y por qué existimos.
Esta búsqueda es un intento de hacer precisamente eso: averiguar lo que la ciencia
puede contarnos de manera fiable a partir de la observación sistemática y la
experimentación sobre cómo y por qué evolucionamos desde el origen del universo y si lo
que somos nos hace distintos del resto de animales.
Abordaré esta tarea en cuatro partes. La primera parte examinará la explicación que
da la ciencia al origen y la evolución de la materia y la energía de las que estamos
formados; la segunda parte hará lo mismo para el origen y la evolución de la vida, puesto
que somos materia viva; la tercera parte examinará el origen y la evolución del ser humano.
En la cuarta parte veremos si en las evidencias existen patrones consistentes que nos
permitan extraer conclusiones generales.
En cada una de estas partes, desglosaré la cuestión fundamental «¿qué somos?» en
las diversas preguntas que investigan los distintos ámbitos de especialización; intentaré
encontrar en cada uno de estos ámbitos, y a partir de publicaciones académicamente
reconocidas, aquellas respuestas que estén validadas por las evidencias empíricas antes que
las derivadas de las especulaciones y creencias; y miraré si en estas evidencias existe o no
un patrón que permita extraer conclusiones. Solo en el caso de que esta estrategia no
ofrezca una explicación satisfactoria, consideraré la sensatez de hipótesis y conjeturas, así
como de otras formas posibles de conocimiento, como punto de vista.
Luego, pediré a especialistas de cada ámbito (que aparecen listados en los
Agradecimientos) que verifiquen los resultados de mi borrador en busca de errores de
hecho o de omisión y la posible presencia de conclusiones inadmisibles.
Al final de cada capítulo, realizaré una lista de conclusiones para que el lector que
desee saltarse cualquiera de las secciones más técnicas pueda conocer mis hallazgos.
La pregunta qué somos me ha intrigado desde que era estudiante de ciencias. Aparte
de ser el coautor de dos estudios de investigación, de escribir un libro sobre ciencias
sociales y de mis cuatro años como profesor de física a tiempo parcial en la Open
University, nunca he practicado como científico y por lo tanto, en este sentido, no estoy
cualificado para esta tarea. Por otro lado, pocos investigadores actuales poseen
conocimientos relevantes fuera de los campos de especialización que estudiaron y que
ahora practican.
Doy por supuesto que muchos de estos especialistas pensarán que no he escrito con
detalle suficiente sobre su campo de especialización. Me declaro culpable de ello de
antemano. Mi intención es escribir un libro, no una biblioteca entera, lo cual exige
necesariamente resumir con el objetivo de ofrecer al lector una imagen general de la
evolución humana: una visión de lo qué somos y de por qué estamos aquí.
A pesar de los esfuerzos por corregir errores, en una empresa como esta habrá
detalles que presentarán fallos, de los cuales asumo toda la responsabilidad. O que habrán
quedado superados por los resultados de nuevas investigaciones aparecidas entre el
momento de la escritura del libro y su publicación, pero la ciencia, a diferencia de las
creencias, avanza así. Lo que espero es que este libro ofrezca un marco de trabajo amplio
que otros puedan refinar y desarrollar.
Una mayoría de la población mundial, sin embargo, no acepta que seamos producto
de un proceso evolutivo. Cree en varios mitos que explicarían nuestros orígenes. Empezaré,
por lo tanto, con un capítulo que examina los diversos mitos sobre el origen, por qué han
sobrevivido durante los casi quinientos años que han transcurrido desde el inicio de la
revolución científica y si han tenido influencia sobre el pensamiento científico.
Gran parte de las desavenencias surgen porque distintas personas utilizan la misma
palabra para referirse a cosas distintas: los significados cambian con el tiempo y con los
diferentes contextos culturales. Para minimizar los malentendidos, la primera vez que
utilice una palabra relevante y potencialmente ambigua, definiré el significado concreto que
le aplico y, además, elaboraré una lista de dichos términos en el glosario que aparece al
final del libro, que incluye también definiciones de términos técnicos inevitables.
La primera palabra a definir es «ciencia». Deriva del latín scientia, que significa
conocimiento. Cada tipo de conocimiento puede adquirirse, o afirmarse que se ha
adquirido, de una manera distinta. Desde el siglo xvi se equipara con conocimiento sobre el
mundo natural —inanimado y animado— adquirido mediante la observación y la
experimentación, a diferencia del conocimiento adquirido únicamente a través del
razonamiento, la percepción o la revelación. En consecuencia, la definición de ciencia debe
incluir los medios a través de los cuales se adquiere el conocimiento. Nuestro concepto
actual de ciencia podría resumirse como
Ciencia: el intento de comprender y explicar los fenómenos naturales mediante la
observación y la experimentación sistemáticas, y preferiblemente mensurables, y de aplicar
el razonamiento al conocimiento obtenido de esta manera para deducir leyes verificables y
realizar predicciones o retrodicciones.
Retrodicción: un resultado que se ha producido en el pasado y que se deduce o
predice a partir de una ley o teoría científica posterior.
La ciencia pretende formular una ley, o una teoría más general, que explique la
conducta invariable de un sistema de fenómenos. Utilizamos dicha ley o teoría para
predecir resultados futuros, aplicándola a fenómenos concretos del sistema. Por ejemplo,
dentro del sistema de objetos en movimiento aplicamos las leyes del movimiento de
Newton para predecir el resultado de lanzar un cohete concreto al espacio dentro de un
conjunto de circunstancias concretas.
La ciencia puede también informarnos sobre resultados del pasado. Un ejemplo de
retrodicción es que, a partir de la teoría de las placas tectónicas, podemos deducir que cerca
de la costa este de América del Sur y de la costa oeste del África austral podremos
encontrar fósiles similares anteriores a la ruptura del súper continente Pangea, que se
produjo hace unos doscientos millones de años.
A partir del siglo xviii, el estudio de los fenómenos naturales incluyó también el ser
humano y sus relaciones sociales. En el siglo xix, la aplicación del método científico a estos
estudios dio como resultado el desarrollo de las ciencias sociales, un término amplio que
abarca disciplinas como la arqueología, la antropología, la sociología, la psicología, las
ciencias políticas e incluso, la historia. En la tercera parte evaluaré los descubrimientos más
relevantes de estas disciplinas.
En la ciencia, el término «teoría» tiene un significado más concreto que en su uso
general, aunque incluso en la ciencia, tanto «teoría» como «hipótesis» se utilizan a menudo
de forma vaga. Es importante distinguir entre ambos conceptos.
Hipótesis: teoría provisional planteada para explicar un fenómeno o un conjunto de
fenómenos y utilizada como base de posteriores investigaciones; suele llegarse a ella bien
por revelación, bien por razonamiento inductivo después de examinar evidencias
incompletas y puede ser susceptible de ser falsa.
El criterio de la falsabilidad fue propuesto por el filósofo científico Karl Popper. En
la práctica, puede no resultar claro, pero la mayoría de científicos actuales acepta el
principio de que para distinguir una hipótesis científica de una conjetura o creencia, debe
estar sujeta a pruebas empíricas que puedan falsarla.
Teoría: explicación de un conjunto de fenómenos que ha quedado confirmada por
diversos experimentos y observaciones y que se utiliza para realizar predicciones o
retrodicciones precisas sobre dichos fenómenos.
Cuanto más amplio sea el rango de fenómenos explicados, más útil resultará la
teoría científica. Y debido al hecho de que la ciencia avanza mediante el descubrimiento de
nuevas evidencias y la aplicación de nuevas ideas, una teoría científica puede quedar
modificada o refutada como resultado de evidencias contradictorias, aunque nunca podrá
ser demostrada de manera absoluta. Algunas teorías científicas, sin embargo, están
ampliamente consolidadas. Por ejemplo, a pesar de que la teoría de que la Tierra es el
centro del universo y el sol y las demás estrellas giran a su alrededor ha quedado refutada,
la teoría de que la Tierra gira en órbita alrededor del sol ha quedado validada por tantas
observaciones y predicciones precisas que se acepta hoy en día como un hecho establecido.
Sin embargo, puede darse el caso de que ni siquiera esto sea así. En realidad, es muy
probable que deje de ser cierto en el plazo de unos cinco mil millones de años, momento en
el cual muchos estudios sobre la evolución del sol predicen que éste se habrá convertido en
una estrella roja gigante que se expandirá y acabará engullendo y quemando la Tierra.
Cualquier investigación está fuertemente influenciada por creencias anteriores. Yo
nací y fui educado como católico, me volví ateo y ahora soy agnóstico. No tengo creencias
previas relacionadas con el teísmo, el deísmo o el materialismo. No sé nada, sinceramente.
Y esta es en parte la emoción que conlleva embarcarse en una expedición cuyo objetivo es
descubrir, a partir de evidencias científicas, qué somos y en qué podríamos convertirnos.
Invito a los lectores con mentalidad abierta a que se sumen a mi expedición.
PRIMERA PARTE.
El origen y la evolución de la materia
CAPÍTULO 2. MITOS SOBRE EL ORIGEN

Quiero saber cómo Dios creó el mundo.

Albert Einstein, 1955

El mundo y el tiempo tienen un único principio. El mundo no se creó en el tiempo,


sino simultáneamente con el tiempo.

San Agustín de Hipona, 417

Desde el 11 de febrero de 2013[1], el relato ortodoxo de la ciencia, que se presenta


habitualmente como un hecho, afirma que hace 13,7 miles de millones de años el universo,
incluyendo el espacio y el tiempo y también la materia y la energía, explotó e inició su
existencia como una bola de fuego de densidad infinita y temperatura increíblemente
elevada que se expandió y se enfrió para dar lugar al universo tal y como lo vemos hoy en
día. Fue el Big Bang a partir del cual hemos evolucionado.
Antes de investigar si la ciencia es capaz de explicar nuestra evolución a partir del
origen de la materia y la energía, consideraré brevemente los mitos en los que cree una
inmensa mayoría de la población mundial. Resulta instructivo examinar los conceptos
principales de los distintos mitos, las diversas explicaciones que les han dado los científicos
sociales y si estas explicaciones superan el test de las evidencias o de la racionalidad, por
qué los mitos han sobrevivido y hasta qué punto han influido el pensamiento científico.
Temas principales

Toda cultura a lo largo de la historia posee uno o más relatos sobre el origen del
universo y el ser humano: comprender de dónde venimos forma parte del deseo humano
inherente de comprender qué somos. El Rigveda, el texto sagrado más antiguo del mundo y
el escrito más importante de lo que hoy conocemos como hinduismo, presenta tres de estos
mitos en su décimo libro de himnos a los dioses. Los Brahmanas, la segunda parte de cada
veda dedicada básicamente a los rituales, contienen otros, mientras que las Upanishads,
relatos sobre las percepciones místicas de videntes que la tradición vincula al final de los
vedas,[2] expresan de diversas maneras una perspectiva única sobre el origen del universo.
[3] Las culturas judeo-cristiana e islámica comparten, en términos generales, la misma
explicación para la creación, mientras que otras culturas tienen otras. Los chinos poseen,
como mínimo, cuatro mitos sobre el origen que presentan, además, en distintas versiones.
Pero a pesar de que cada mito es diferente,[4] hay nueve temas principales recurrentes,
algunos de los cuales se solapan.
Caos o agua primigenios

Muchos mitos hablan de un caos preexistente, a menudo descrito como agua, del
cual emerge un dios para crear el mundo o partes del mismo. Los pelasgos, que hacia 3.500
a. C. invadieron la península griega procedentes de Asia Menor, trajeron con ellos la
historia de la diosa creadora Eurínome, que surgió desnuda de Caos.[5] Los mitos de
Heliópolis, en Egipto, que datan del cuarto milenio antes de Cristo nos hablan de Nun, el
océano primigenio, del cual surgió Atum, de cuya masturbación nació el mundo. Hacia
2.400 a. C., Atum quedó identificado con el dios del sol, Ra, y su aparición quedó asociada
con la salida del sol y la disipación de la oscuridad caótica.
El buceador de la tierra

Otros mitos, extendidos por Siberia, Asia y algunas tribus nativas norteamericanas,
hablan de un animal preexistente —a menudo una tortuga o un ave— que se sumerge en las
aguas primigenias para extraer de ellas un pedazo de tierra que posteriormente se expande y
crea el mundo.
El huevo cosmogónico

En determinadas partes de India, Europa y el Pacífico, el origen de la creación es un


huevo. El Satapatha Brahmana dice que las aguas primigenias produjeron el dios creador
Prajapati en forma de huevo dorado. Al cabo de un año, salió del huevo e intentó hablar. Su
primera palabra se transformó en la tierra, la segunda en el aire, y así sucesivamente. De un
modo similar, una versión del mito chino del P’an Ku empieza con un gran huevo cósmico
en el interior del cual flota en el Caos un P’an Ku embrionario. En el mito griego órfico de
la creación, cuyo origen se remonta al siglo vii o vi a. C. y contrasta con los mitos
olímpicos de Homero, es el tiempo el que crea el huevo plateado del cosmos del que surge
el bisexual Fanes-Dionisos que lleva con él las semillas de todos los dioses y todos los
hombres y que crea el Cielo y la Tierra.
Padres del mundo

Un tema muy extendido es el del padre del mundo —normalmente el cielo— que se
empareja con la madre del mundo —normalmente la Tierra— para crear los elementos del
mundo. A menudo permanecen unidos en el acto sexual, mostrándose indiferentes hacia sus
hijos, como en un mito maorí de la creación.
La rebelión de los hijos

En varios mitos, los descendientes se rebelan contra los padres del mundo. Los hijos
del mito maorí —bosques, plantas alimenticias, océanos y el hombre— luchan contra sus
padres para obtener espacio. Tal vez el mito más conocido de este tipo sea la Teogonía,
compuesta por el griego Hesíodo en el siglo viii a. C. En ella se relata la rebelión de varias
generaciones de dioses contra sus padres, los primeros de los cuales fueron Caos, Tierra,
Tártaro (el inframundo) y Eros (el amor); la rebelión acabó con el triunfo de Zeus.
Sacrificio

La idea de la creación a través del sacrificio es frecuente. El mito chino de P’an Ku


dice: «El mundo no estuvo terminado hasta que se produjo la muerte de P’an Ku. Solo su
muerte pudo perfeccionar el universo. De su cráneo surgió la cúpula del cielo y de su carne
el suelo de los campos […]. Y [finalmente] de las alimañas que cubrieron su cuerpo surgió
la humanidad».[6]
La batalla primigenia

La gran epopeya babilónica, el Enûma Elish, describe la guerra entre los dioses
sumerios y la deidad babilónica, Marduk, y sus seguidores. Marduk mata a la diosa original
superviviente, Tiamat, y a sus monstruos del Caos, establece el orden y se convierte en el
dios supremo y creador del universo: toda la naturaleza, incluyendo los humanos, le debe a
él su existencia. Encontramos mitos similares en todo el mundo, por ejemplo en la victoria
olímpica de los dioses masculinos del cielo de los invasores arios sobre las fértiles diosas
de la tierra de los pelasgos y los cretenses.
La creación a partir de la nada

Los mitos que presentan el tema de la creación a partir de la nada son escasos. Sin
embargo, su creencia no solo es una de las más extendidas, sino que además es la
explicación científica preferida actualmente.
La versión más antigua es la del Rig Veda. Investigaciones arqueoastronómicas
recientes desafían la datación que realizó Max Müller en el siglo xix y documentan con
pruebas la tradición india; concluyen que la obra fue compilada a lo largo de un periodo de
dos mil años que se inició en torno a 4.000 a. C.[7] En el décimo y último libro, el Himno
129 dice: «Entonces no existían ni lo existente ni lo inexistente, no existía el espacio etéreo,
ni el cielo que está más allá […]. Solo aquel Uno respiraba sin aire, por su propia
naturaleza. Aparte de él no existía cosa alguna».
La idea se desarrolla en las Upanishads, los más destacados de los cuales fueron
probablemente escritos entre 1000 y 500 a. C. La Chandogya Upanishad representa la idea
central de que «El universo proviene de Brahmán y regresará a Brahmán. Ciertamente, todo
es Brahmán». Varias Upanishad emplean la metáfora, la alegoría, la parábola, el diálogo y
la anécdota para describir a Brahmán como la realidad definitiva que existe a partir del
espacio y el tiempo, del cual mana todo y de lo cual todo está formado; se interpreta
generalmente como la Conciencia Cósmica, el Espíritu o la Divinidad Suprema que
sustenta cualquier forma.
El taoísmo expresa una idea similar. El principal texto taoísta, conocido en China
como Lao-Tzu y en Occidente como Tao Te Ching, fue seguramente compilado entre los
siglos vi y iii a. C. Destaca la unicidad y la eternidad del Tao, el Camino. El Tao es «nada»
en el sentido de que es «ninguna cosa»: carece de nombre o de forma; es la base de todo ser
y la forma de todo ser. El Camino, o la nada, da lugar a la existencia, la existencia da lugar
a los opuestos yin y yang, y el yin y el yang dan lugar a todo: macho y hembra, tierra y
cielo, y así sucesivamente.
El primer libro de las escrituras hebreas, escrito no antes de finales del siglo vii a. C,
[8] empieza con las palabras «En el principio, dios creo los Cielos y la Tierra».[9] El
siguiente versículo describe la Tierra en términos que evocan los mitos del caos y las aguas
primigenias, después de lo cual Dios dice que habrá luz y se crea la luz, y después Dios
separa la luz de la oscuridad en su primer día de creación. En el transcurso de los cinco días
siguientes, ordena la creación del resto del universo.
En el Corán, escrito a partir del siglo vii d. C., Dios ordena también la creación de
los Cielos y la Tierra.[10]
El ciclo eterno

Varios mitos originarios de India niegan que el universo fuera creado y sostienen
que el universo ha existido siempre, pero que este universo eterno está sometido a ciclos.
En el siglo v a. C., Buda dijo que realizar conjeturas sobre el origen del universo
provoca la locura a aquellos que lo intentan.[11] Esto, sin embargo, no impidió que sus
seguidores lo intentaran. Aplicaron su punto de vista de que todo es temporal, que todo
surge, se crea, cambia y desaparece constantemente, con el resultado de que la mayoría de
escuelas budistas predica en la actualidad que el universo se expande y se contrae, se
disuelve en la nada y evoluciona para volver a ser siguiendo un ritmo eterno.
Posiblemente estuvieron influidos por los jainistas, cuyo último Tirthankara
(literalmente «constructor de vados», aquel que enseña a cruzar el río de los renacidos para
alcanzar el estado de liberación eterna del alma) empezó a predicar sus enseñanzas en el
este de India antes que Buda. Los jainistas sostienen que el universo no está creado y es
eterno. El tiempo es como una rueda con doce ejes que miden los yugas, o edades del
mundo, cada uno de los cuales tiene una duración fija de miles de años. Seis yugas forman
un arco ascendente en el que el conocimiento humano y la felicidad aumentan, elementos
que disminuyen en el arco descendiente de seis yugas. Cuando el ciclo alcance su nivel más
bajo, desaparecerá incluso el jainismo. Entonces, en el transcurso del siguiente ascenso, se
redescubrirán los conocimientos jainistas y nuevos Tirthankaras se encargarán de
reintroducirlo, aunque al final del nuevo ciclo descendente de la rueda eterna del tiempo, el
proceso se repetirá.
Todo esto es similar a las principales creencias yóguicas, que derivan de la filosofía
védica. Suelen postular solo cuatro yugas. La primera, Satya Yuga o Krita Yuda, dura
1.728.000 años, mientras que la cuarta, Kali, dura 432.000 años. El descenso desde Satya
hasta Kali va asociado con un deterioro progresivo del dharma, o rectitud, manifestado en
forma de disminución de la duración de la vida humana y de la calidad de los estándares
éticos de la humanidad. Por desgracia, actualmente estamos en el periodo Kali.
Explicaciones

Las muchas explicaciones de estos mitos sobre el origen pueden agruparse en cinco
categorías.
Verdad literal

Todos los mitos sobre el origen son distintos y, en consecuencia, no todos pueden
ser literalmente ciertos. Sin embargo, algunas culturas afirman que su mito es literalmente
cierto. Un 63 por ciento de norteamericanos cree que la Biblia es la palabra de Dios y que
es literalmente cierta,[12] mientras que la abrumadora mayoría[13] de los 1,6 miles de
millones de musulmanes del mundo cree en la verdad literal del Corán porque es la palabra
eterna de Dios escrita sobre una tabla en el Cielo y dictada a Mahoma por el arcángel
Gabriel.
Muchos creyentes en la verdad literal de la Biblia suscriben el cálculo sobre el
Génesis que realizó James Ussher que afirmó que la creación en seis días del universo
culminó el sábado 22 de octubre de 4004 a. C. a las seis de la tarde.[14] [15] Sin embargo,
la mayoría de las evidencias geológicas, paleontológicas y biológicas, que se sirven de la
datación radiométrica obtenida a partir de rocas, fósiles y testigos de hielo, sitúa la edad de
la Tierra en al menos 4,3 miles de millones de años. Los datos astronómicos indican que el
universo tiene una antigüedad de entre diez y veinte mil millones de años. Las evidencias
contra la verdad literal de la creencia creacionista son conclusivas.[16] Más aún, creer en la
verdad literal de la Biblia es creer, como mínimo, en dos relatos contradictorios de la
creación. En Génesis 1:26-1, Dios crea las plantas y los árboles el tercer día, los peces y las
aves el quinto día, el resto de animales al principio del sexto día, y el hombre y la mujer, a
su propia imagen y semejanza, al final del sexto día. En Génesis 2, por otro lado, Dios crea
primero un varón humano a partir del polvo; solo después crea un jardín donde crecen
plantas y árboles y luego, a partir de la tierra, crea todos los animales y aves (no hay
mención de los peces), hasta que finalmente crea una mujer a partir de la costilla del
hombre.
También resulta ilógico que los creyentes en la verdad literal del Corán crean que
Dios creó la Tierra y los cielos en ocho días (Sura 41:9-12) y que creara la Tierra y los
cielos en seis días (Sura 7:54).
Metáfora

Barbara Sproul, una de las principales especialistas en mitos sobre el origen,


defiende que, pese a que no son literalmente ciertos, los mitos se sirven de metáforas para
expresar sus verdades. La única evidencia que cita es la interpretación que el etnólogo
Marcel Griaule realiza de la explicación de un sabio dogón que afirma que el mito de su
pueblo debe entenderse en palabras del mundo inferior. Para el resto, explica lo que en
realidad significan los distintos mitos sobre el origen. Así, en el mito de Heliópolis, el dios
creador que se masturba y crea con ello el mundo representa la dualidad interiorizada y
manifiesta que toda dualidad «se convierte en sagrada y revela la naturaleza de la realidad
solo si comprendemos lo que quiere dar a entender con ello».[17] No aporta evidencias que
sustenten que los creadores de mitos de Heliópolis, y menos aún la población de Heliópolis
de hace cinco mil años, compartieran sus conclusiones. Para otros ejemplos que cita resulta
difícil evitar la impresión de que está proyectando en los mitos interpretaciones propias y
características de finales del siglo xx. Si el 63 por ciento de la nación tecnológicamente más
sofisticada del mundo cree que el mito de la creación del Génesis es literalmente cierto, ¿es
razonable suponer que las tribus nómadas de hace cuatro mil años, o incluso los escribas
del rey Josías de hace dos mil quinientos años, pensaran que era una metáfora?
Por mucho que sea razonable llegar a la conclusión de que, por su contexto, algunos
de los relatos sobre el origen, como los de las Upanishad, emplean deliberadamente la
metáfora, Sproul no aporta pruebas que demuestren que la mayoría de esos mitos fueran
concebidos o reconocidos como otra cosa que no fuera un relato literal.
Aspecto de realidad absoluta

Sproul sostiene que todas las religiones declaran una realidad absoluta que es a la
vez trascendente (verdadera en todo momento y lugar) e inmanente (verdadera en el aquí y
ahora), y que «Solo los mitos de la creación tienen como finalidad principal la
proclamación de esta realidad absoluta».[18] Además, su conjunto de mitos de la creación
«no muestra ninguna disparidad esencial en su comprensión, sino que revela una similitud
de visiones a partir de una amplia variedad de puntos de vista».[19]
Así pues, muchos mitos sobre el origen mencionan polos opuestos: luz y oscuridad,
espíritu y material, macho y hembra, bien y mal, etc. Los más profundos identifican Ser y
No-ser y algunos, como la Chandogya Upanishad, afirman que el No-ser surge a partir del
Ser, mientras que otros, como un mito maorí, asevera que el No-ser en sí mismo es el
origen de todo Ser y No-ser. Algunos ven el origen de toda esta polaridad como el Caos,
que incluiría todas las distinciones posibles; la creación se produce cuando el Caos se
fusiona y toma forma y actúa sobre todo lo no formado para crear más distinciones y, con
ello, crear el mundo. «En este caso, ¿qué es la realidad absoluta? ¿El Caos en sí mismo? ¿O
el hijo del Caos que actúa sobre él? Ambos. Son uno». [20]
Las diferencias aparentes surgen porque los mitos hablan de lo desconocido en
términos de lo conocido, normalmente utilizando formas antropomórficas o sirviéndose de
palabras relacionadas para intentar describir lo absoluto. Según Sproul, incluso el rechazo
de un acto de creación por parte de los budistas, los jainistas y los yoguistas, separa su
universo eterno del universo creado; los mitos que relatan sucesos de creación
temporalizan, simplemente: hablan de lo absoluto en términos de lo primero.
La reivindicación de que todos los mitos sobre el origen revelan aspectos de la
misma realidad absoluta resulta fascinante. No está, sin embargo, sustentada por ninguna
evidencia. Queda igualmente explicada por la interpretación que Sproul realiza de estos
mitos según sus propias creencias de lo que constituye la realidad absoluta.
Verdad arquetípica

Según Sproul, que fue alumna de Joseph Campbell, los mitos de la creación son
importantes no solo por su valor histórico sino también porque revelan valores arquetípicos
que nos ayudan a comprender nuestro crecimiento personal «físicamente, mentalmente y
espiritualmente, en el contexto del flujo cíclico de ser y no-ser y, finalmente, en la unión
absoluta de los dos».[21]
Su utilización de los conceptos de Campbell, derivados de la psicología de Jung, no
logra presentar una explicación convincente.
Experiencia fetal

El biólogo molecular Darryl Reanney sugiere que el tema común de unas aguas
oscuras e informes preexistentes en las que aparece la luz y nace el universo podría
explicarse por los recuerdos subliminales del feto que experimenta el nacimiento al emerger
de las aguas oscuras, informes y nutritivas del útero. «Las huellas que la experiencia del
nacimiento deja en el cerebro pre-natal predisponen a los mitos a desarrollar
configuraciones concretas de imaginería simbólica que tocan teclas extremadamente
receptivas desde un punto de vista psicológico».[22] Para sustentar su teoría, afirma que a
partir del séptimo mes de embarazo es posible registrar actividad eléctrica en el córtex
cerebral del feto (datos más recientes sugieren que puede registrarse antes del sexto mes).
[23]
Se trata de una conjetura interesante, pero es difícil entender de qué manera podría
validarse o refutarse.
Sugiero tres explicaciones más.
Comprensión limitada de los fenómenos naturales

En la fase de la evolución humana en la que se desarrollaron estos mitos, la mayoría


de culturas poseía una comprensión errónea o limitada de las fuerzas naturales y, con la
excepción de India occidental y ciertas partes de China, la indagación filosófica ni siquiera
existía.
El elemento de las aguas primigenias común en tantos mitos podría tener su origen
en el motivo por el que muchos pueblos neolíticos tardíos instalaron sus poblados a orillas
de un río. Utilizaban el agua para beber, para seguir con vida y para regar sus cultivos. El
agua era fuente de vida y de fertilidad y antes del desarrollo de las ciudades solía estar
asociada con el espíritu y la divinidad de la vida.
La mayoría de mitos se remonta a culturas de la Edad de Bronce en las que la
ciencia, con la excepción de la astronomía, era completamente desconocida. Cuando a los
hombres sabios se les preguntaba cuál era el origen del mundo, recurrían a sus propias
experiencias de creación para dar la respuesta. Hombres y animales eran resultado de la
unión sexual de sus padres y madres y, en consecuencia, también el mundo tenía que ser
resultado de la unión de un padre y una madre. Para fertilizar el mundo, este padre tenía
que ser todopoderoso, y la fuerza más poderosa que conocían era el cielo, de donde
provenía el calor del sol, los truenos, los rayos y la lluvia que fertilizaba todo lo que crecía.
Para gestar el mundo, la madre tenía que ser tremendamente fecunda, y lo más fecundo que
conocían era la tierra, de donde provenían los árboles, la vegetación y los cultivos. De ahí
el dios-cielo padre y la diosa-tierra madre.
Sabios de distintos pueblos consideraron el huevo como el objeto a partir del cual
emerge la vida. De ahí que el cosmos, o el dios que lo crea, hubieran surgido de un huevo.
Otros sabios tomaron debida nota de los ciclos del sol, la luna, las estaciones y los cultivos.
Todos ellos menguan, mueren, resurgen y se desarrollan en una serie aparentemente eterna.
Así, dedujeron, debe de ser cómo funcionan los elementos esenciales del universo y cómo
debe de funcionar el universo en sí.
Necesidad política y cultural

En la Edad de Bronce, los espíritus de la naturaleza invocados por los cazadores-


recolectores y por las culturas agrícolas primitivas evolucionaron para transformarse en
dioses, cuya jerarquía funcional es un reflejo de la de las ciudades-estado, mientras que sus
mitos sobre el origen, por otra parte, solían satisfacer una necesidad política o cultural.
Atum, el dios creador autosuficiente venerado en Heliópolis durante el cuarto
milenio a. C., fue degradado por los teólogos del faraón Menes a hijo y funcionario de Ptah,
que hasta el momento había sido simplemente el dios del destino, y al que quisieron elevar
a la categoría de dios creador porque era una deidad local de Menfis, lugar donde Menes
construyó allí la nueva capital.
La creación de mitos a través de la batalla primordial conforma habitualmente esta
explicación. Así, vemos como en el mito babilónico de Enûma Elish, Marduk mata a
Tiamat y a sus monstruos del Caos y se erige como dios creador supremo, lo que santifica y
legitima el triunfo de los babilónicos sobre los antiguos poderes sumerios y la imposición
de su orden en la totalidad de Sumeria.
Las evidencias arqueológicas descubiertas a finales del siglo xx sugieren que el
relato bíblico de la creación, escrito según la palabra de Dios, se explica probablemente por
una necesidad política y cultural. A finales del siglo vii a. C., el rey Josías encargó a sus
escribas que recopilaran los mitos y las leyendas de la región en un texto canónico cuyo
objetivo era santificar y legitimar la unión de su reino de Judea con el derrotado reino de
Israel y dejarlo bajo un único gobierno absoluto patriarcal y un único ordenamiento
jurídico. Yahvé, el dios local de Judea, que en sus orígenes tenía como esposa a la diosa
Asherá, se convirtió no solo en el dios principal, sino también en el único dios. Yahvé es el
nombre que se aplica a Dios en el relato de la creación que aparece en Génesis 2. Pero para
convencer al pueblo de Israel de que aceptara la unión, se intentó que fuera igual que sus
dioses. Elohim, el nombre que recibe Dios en Génesis 1, es el término genérico empleado
para cualquier ser divino y lo utilizaban los cananeos, cuyo territorio y cultura habían
adoptado los israelitas, para referirse a su panteón de dioses; en Génesis 1, los dioses pasan
a formar una sola deidad. En un reflejo del papel de gobernador absoluto del reino unido de
Judea e Israel que Josías quería santificar, a este único Dios le bastaba con decir una cosa
para que se cumpliera; y así se creó el mundo. Pero este cambio de mitos no es prerrogativa
del conquistador. La historia de la creación de los chiricahua apaches es una fusión
tragicómica del Antiguo Testamento y su mitología previa a la conquista. El Diluvio bíblico
ahoga a todo aquel que veneraba a los dioses de la montaña del Rayo y el Viento. Cuando
las aguas se retiran, se pone ante dos hombres un arco y una flecha y un rifle. Uno coge el
rifle y se convierte en el hombre blanco, mientras que el otro tiene que quedarse con el arco
y la flecha y se convierte en el indio.
Visión mística

Algunas culturas de India y China valoraban el entrenamiento de la mente para


concentrarse en el interior y adquirir conocimientos directos fusionándose con el objeto a
estudiar. A través de la meditación, los videntes de India tuvieron la visión de que atman, el
Yo esencial, era idéntico al universo, que a su vez era idéntico a Brahmán, la inefable
entidad omnipresente de la que procedía. Esta visión mística es muy similar a la de los
primeros taoístas y a la de los posteriores videntes de otros países. Es importante distinguir,
sin embargo, entre la esencia de estas visiones comunes y las interpretaciones culturalmente
sesgadas que realizaron los discípulos, que a menudo mostraban una falta de comprensión
de los fenómenos naturales o eran un reflejo de una necesidad social o política.
El test de las evidencias y del razonamiento

Carecemos de evidencias que validen científicamente los mitos sobre el origen y las
explicaciones que podamos hacer de ellos. Poseemos, sin embargo, evidencias suficientes
para refutar la verdad literal de la mayoría de estos mitos, incluyendo los que declaraban
haber sido revelados por un Dios externo y trascendente.
La comprensión limitada, o incluso falsa, de los fenómenos naturales, sumada a
necesidades culturales y políticas y a las interpretaciones culturalmente sesgadas de las
visiones místicas podrían ser explicaciones más prosaicas que las ofrecidas por muchos
mitólogos, etnólogos, psicólogos y otros eruditos, aunque no puedo citar evidencias
conclusivas que apoyen esto. Sin embargo, ellos tienen la ventaja de mostrarse de acuerdo
con estos hechos, como bien sabemos, y han llegado a dicho acuerdo aplicando la navaja de
Ockham o, lo que es lo mismo, la regla científica de la parsimonia: son la explicación más
sencilla.
Los relatos sobre el origen que sustentan su reivindicación de veracidad no en las
evidencias materiales, ni en la racionalidad ni en la revelación por parte de un Dios
trascendente, sino en la visión mística, no pueden ser ni validados ni refutados por la
ciencia ni por el razonamiento. Volveré a tratar con mayor profundidad la visión mística
cuando hable sobre el desarrollo del pensamiento filosófico. Sin embargo, desde una
perspectiva puramente científica y racional, la mayoría de mitos entra dentro de la categoría
de superstición, que definiré como
Superstición: creencia que entra en conflicto con las evidencias o para la que no
existe una base racional y que surge normalmente como consecuencia de una falta de
entendimiento de los fenómenos naturales o del miedo a lo desconocido.
El porqué de su supervivencia

Una explicación del porqué los mitos sobre la creación sobreviven incluso en
culturas científicamente avanzadas como la nuestra la encontramos en que la ciencia solo
examina el mundo físico, pero existe una realidad principal que trasciende ese mundo
físico; todos los mitos sobre la creación expresan esta realidad principal en términos —a
menudo antropomórficos— que son un reflejo de las distintas culturas.
Y a pesar de que esto podría ser cierto en muchos casos, hay demasiados mitos que
son mutuamente contradictorios con esta propuesta para que podamos considerarla válida
en términos generales. Una explicación más simple es que la supervivencia de estas
creencias no es el testimonio de su veracidad, sino más bien el poder de inculcación que
han tenido doscientas generaciones de sociedades humanas en el transcurso de más de
cinco mil años.
Influencia sobre el pensamiento científico

La supervivencia de estos mitos no solo resistió la primera revolución científica,


sino que los arquitectos de esa revolución jugaron su papel al descubrir las leyes por las que
el Dios judeo-cristiano gobernaba el universo que había creado. Isaac Newton, el
consumador de esa revolución, creía que el universo «solo podía provenir del
asesoramiento y el dominio de un ser inteligente y poderoso».[24]
Los mitos sobrevivieron también a la segunda revolución científica, que se inició a
mediados del siglo xix con los argumentos de Darwin a favor de la evolución biológica y
que culminó en el primer tercio del siglo xx con la transformación que supusieron para la
física las teorías de la relatividad y de la mecánica cuántica. Darwin abandonó sus creencias
cristianas y acabó su vida en el agnosticismo,[25] pero Albert Einstein, el creador de las
teorías de la relatividad especial y de la relatividad general, compartía con Newton la
creencia de que el universo había sido creado por una inteligencia suprema, aunque negaba
la intervención de ese Dios en los asuntos humanos.[26]
Muchos pioneros de la teoría cuántica abrazaron la creencia de que la materia no
existe de manera independiente sino solo como una construcción de la mente. Erwin
Schödinger, por ejemplo, estuvo toda la vida fascinado por la visión de las Upanishad de
que todo, incluido el universo, proviene de la conciencia de Brahmán, la realidad definitiva
que existe fuera del espacio y del tiempo;[27] hasta qué punto influyo esto en su trabajo es
una pregunta que permanece abierta. Lo que sí es evidente es que el pensamiento científico
de David Bohm estuvo influido por esta creencia. [28]
Hoy en día, una minoría de científicos profesa públicamente su fe religiosa. Entre
ellos destacan John D. Barrow, cosmólogo y miembro de la Iglesia unida reformada de
Cristo Emanuel; Francis Collins, antiguo director del Proyecto del genoma humano y
cristiano evangélico, que ve el «ADN, la molécula de información de todas las cosas vivas,
como el lenguaje de Dios, y la elegancia y la complejidad de nuestro cuerpo y del resto de
la naturaleza como un reflejo del plan de Dios»[29] y Ahmed Zewail, musulmán y Premio
Nobel de Química en 1989. En general, estos científicos sostienen que la ciencia y la fe
religiosa operan en terrenos distintos, aunque algunos, como John Polkinghorne, físico
teórico y sacerdote anglicano, promueven activamente el debate sobre la intersección entre
ciencia y teología.
Alejándose del mito, la ciencia nos ofrece una comprensión más clara del origen del
universo y, a partir de ahí, de la materia y la energía a partir de las cuales evolucionamos.
¿O no?
[1]1 El día que los científicos de la NASA anunciaron que los datos de la sonda
espacial Wilkinson Microwave Anisotropy Probe (WMAP), habían confirmado el modelo
del Big Bang y les habían per mitido determinar la edad del universo con un uno por ciento
de margen de error, una exactitud sin precedentes. El 21 de marzo de 2013, científicos de la
Agencia Espacial Europea anunciaron que los datos de su telescopio espacial Planck
indicaban que dicha edad debía ser revisada y establecerse en 13,82 miles de millones de
años.
[2]2 Véase el glosario, al final del libro, para una explicación más detallada de estos
términos.
[3]Para las traducciones, he utilizado The Rig Veda (1896) y The Upanishads
(1987).
[4]Para la mayoría de mitos resumidos en este capítulo, he recurrido a Sproul (1991)
y Long, Charles H., «Creation Myth», Encyclopædia Britannica Online, 2014.
[5]Graves (1955), p. 27.
[6]Sproul (1991), pp. 19-20.
[7]Véase Kak, Subhash C., «Archaeoastronomy and Literature», Current Science,
73: 7, 1997, pp. 624-627 como ejemplo de un grupo pequeño pero creciente de académicos
indios que desafían lo que consideran la interpretación colonial de la historia y la cultura
indias enraizada en la intelectualidad victoriana.
[8]Finkelstein y Silberman (2001).
[9]The Revised English Bible (1989), Génesis 1:1.
[10]The Holy Qur’an (1938), Sura 7:54 y Sura 41:9–12.
[11]Buda (1997).
[12]Según una encuesta llevada a cabo el 21 y 22 de abril de 2005 por Rasmussen
Reports.
[13]Las ramas místicas y más modernas del islam están hoy en día marginadas,
véase Ahmed (2007).
[14] Ussher (1581-1656) era arzobispo de Armagh, Irlanda, por lo que se supone
que la hora corresponde con la del meridiano de Greenwich.
[15]Los cálculos de Ussher aparecen en Gorst (2001). Para apoyos contemporáneos
véase, por ejemplo, la Creation Science Association y su página web
http://www.csama.org/.
[16]Véase, por ejemplo, Kitcher (1982); Futuyma (1983).
[17]Sproul (1991), p. 17.
[18]Ibíd, p. 6.
[19]Ibíd, p. 4.
[20]Ibíd, p. 10.
[21]Ibíd, p. 29.
[22]Reanney (1995), p. 99.
[23]Finkelstein y Silberman, (2001).
[24]Citado en Snobelen, Stephen D., «God of Gods and Lord of Lords: The
Theology of Isaac Newton’s General Scholium to the Principia», Osiris, 16, 2001, pp.169-
208.
[25]Véase el apéndice cuando trata sobre sus creencias religiosas en Darwin,
Charles (1929).
[26]Einstein (1949).
[27]Schrödinger (1964).
[28]Véase Krishnamurti y Bohm (1985), (1986), (1999).
[29]http://www.cnn.com/2007/US/04/03/collins.commentary/index.html, consultado
el 6 de febrero de 2008.
CAPÍTULO 3. EL ORIGEN DE LA MATERIA: LA TEORÍA ORTODOXA
DE LA CIENCIA

A mí, esa teoría del Big Bang siempre me pareció insatisfactoria.

Fred Hoyle, 1950

[El Big Bang] es un testimonio de aquel fiat lux primordial.

Papa Pío XII, 1951

Somos materia. Podríamos ser algo más que materia. Podríamos ser manifestaciones
de una conciencia cósmica, como defienden las visiones místicas, o simulaciones
tridimensionales generadas por un ordenador súper inteligente, como propone una conjetura
filosófica. Pero el objetivo de este estudio es establecer lo que sabemos en la actualidad, o
lo que podemos deducir de un modo razonable, a partir de la experimentación y la
observación del mundo que percibimos: es decir, lo que la ciencia nos cuenta sobre qué
somos y de dónde venimos.
El punto de partida, por lo tanto, es lo que conocemos sobre el origen de la materia
a partir de la ciencia, y la teoría ortodoxa actual de la ciencia es que la materia y la energía
tienen su origen en el Big Bang que se produjo hace 13,8 miles de millones de años.
Me gustaría destacar la palabra «actual» porque tanto los medios de comunicación
como los libros científicos más populares presentan las teorías científicas, e incluso las
conjeturas, como si fueran hechos indiscutibles. Las teorías científicas cambian. Para dejar
claro este hecho, describiré la teoría imperante en la primera parte del siglo xx, explicaré
por qué y cómo cambió para dar lugar al modelo del Big Bang, examinaré los problemas
que presenta el modelo y consideraré las soluciones que proponen los cosmólogos actuales
para hacer frente a dichos problemas.
Primera mitad del siglo xx

De haber escrito este libro en 1928, habría dicho que la teoría ortodoxa actual de la
ciencia es que el universo es eterno e invariable.
Era una teoría tan establecida que Einstein cometió lo que posteriormente reconoció
como el mayor error de su vida. En 1915 presentó su Teoría general de la relatividad, que
incorporaba la gravedad en su descripción de toda la materia y las fuerzas conocidas. Sin
embargo, cuando la aplicó al universo como un todo, descubrió que predecía un universo
cambiante —la fuerza de la gravedad provocaba el efecto de unir toda la materia del
universo—, razón por la cual dos años después introdujo una constante arbitraria, Lambda
(Λ), en sus ecuaciones de campo. Realizando los ajustes necesarios al nivel de Lambda,
consiguió que ese término adicional de las ecuaciones equilibrara exactamente la fuerza de
la gravedad, produciendo, en consecuencia, un universo estático.
Durante los quince años siguientes, todos los teóricos físicos aceptaron la propuesta
porque estaba respaldada por la evidencia: las estrellas se movían muy poco. El concepto
de universo estático siguió imponiéndose incluso después de que el astrónomo Edwin
Hubble demostrara en 1924 que en la única galaxia conocida por aquel entonces —la Vía
Láctea— había manchas difusas de luz que no eran nubes de gas, sino galaxias de estrellas
muy lejanas.
Entre 1929 y 1931, sin embargo, Hubble demostró que en la luz emitida desde esas
galaxias remotas había un desplazamiento al rojo, y que ese desplazamiento al rojo
aumentaba cuanto más lejos estaban de nosotros. La luz roja consiste en una mezcla de
colores que se revela cuando un prisma se descompone en un espectro de longitudes de
onda, siendo las longitudes de onda más cortas de color azul y las longitudes de onda más
largas de color rojo. Cuando una fuente de luz se aleja del observador, su longitud de onda
aumenta y se desplaza hacia el extremo rojo del espectro. Las observaciones de Hubble
fueron interpretadas como un signo de que las galaxias se alejan de nosotros y que cuánto
más lejos están, a mayor velocidad se mueven.
No fue hasta entonces que los teóricos físicos se tomaron en serio el trabajo de
aquellos que habían producido soluciones distintas a las ecuaciones de campo de la
relatividad general de Einstein y que daban como resultado un universo en expansión. Uno
de ellos fue el jesuita y científico belga Georges Lemaître, que en 1927 incorporó los datos
de Hubble a sus propias ideas y planteó la expansión del universo con carácter retrospectivo
para obtener su hipótesis del átomo primitivo. La hipótesis defendía que en el tiempo cero,
todo lo que contiene el universo —toda la luz y todas las galaxias, estrellas y planetas—
estaba comprimido en un único átomo súper denso que explotó y formó un universo en
expansión.
En 1948, el astrónomo Fred Hoyle se refirió en tono despectivo a esta hipótesis
como el Big Bang después de haber desarrollado, junto a Thomas Gold y Herman Bondi, la
teoría del estado estacionario. Según esta hipótesis, el universo está en expansión pero no a
partir de un punto, sino que la materia se crea continuamente en el espacio en expansión y
produce una densidad uniforme en un universo infinitamente grande.
Durante la década posterior a la Segunda Guerra Mundial, varios teóricos físicos
volcaron su atención hacia el rompecabezas de la cosmogénesis, o cómo se inició el
universo. Enrico Fermi, Edward Teller, Maria Mayer, Rudolf Peierls, George Gamow,
Ralph Alpher y Robert Herman estuvieron entre los que examinaron la idea del Big Bang.
Gamow, Alpher y Herman intentaron averiguar de qué modo pudieron crearse todos
los tipos de átomos que vemos hoy en día en el universo a partir del plasma increíblemente
pequeño, denso y caliente de protones, neutrones, electrones y fotones de la hipótesis.[1]
Demostraron que los núcleos de helio y los isótopos[2] de hidrógeno estarían producidos
por la combinación de protones y neutrones en los tres primeros minutos posteriores al Big
Bang, puesto que aquel plasma se expandió y se enfrió a una temperatura inferior a mil
millones grados Kelvin.[3] El cálculo de Alpher y Herman sobre la proporción de
hidrógeno y helio producido de esta manera encaja aproximadamente con el que se observa
en el universo, lo que viene a sustentar la hipótesis del Big Bang pero ni ellos ni nadie,
debido a la inestabilidad de los núcleos formados por una combinación de cinco u ocho
protones y neutrones, fue capaz de demostrar cómo debieron crearse los elementos más
pesados. Todo ello sembró dudas sobre el Big Bang, y Fermi y sus colegas lo dejaron como
un modelo de cosmogénesis.[4]
Según el relato ortodoxo, Gamow y Alpher calcularon que, después de trescientos
mil años de expansión a partir del Big Bang, el plasma se enfrió hasta alcanzar una
temperatura de 4.000 K,[5] momento en el cual los electrones con carga negativa fueron
capturados por los núcleos atómicos con carga positiva para formar moléculas de hidrógeno
diatómicas estables y eléctricamente neutras, sus isótopos, y átomos de helio. Los fotones
—partículas de radiación electromagnética con carga neutra— dejaron entonces de estar
vinculados al plasma y se separaron para viajar libremente por el espacio en expansión.
Con ello, se enfriaron y su longitud de onda se incrementó. Cuando el universo alcanzó su
tamaño actual, esa longitud de onda se situó en la región de las microondas y llenó todo el
espacio, produciendo un fondo cósmico de microondas. En 1948, esos científicos estimaron
que la temperatura de este fondo cósmico de microondas era aproximadamente de 5 K. En
1952, Gamow estimó que la temperatura se situaba alrededor de 50 K.[6]
Entretanto, Fred Hoyle y sus colegas demostraron que los elementos más pesados
podían ser producto de una fusión nuclear en el interior de las estrellas.
Esta obra de la postguerra, por lo tanto, dejo la teoría del estado estacionario y el
Big Bang como dos hipótesis en competencia para explicar el origen del universo: la
primera sostenía que el universo era eterno y que, en consecuencia, no había principio,
mientras que la segunda defendía que el universo empezó como una explosión de luz y
plasma a partir de un punto.
Sin esperar las evidencias que la comunidad científica necesitaba y, de este modo,
poder elegir entre las dos, la iglesia católica romana emitió su veredicto. En 1951, el papa
Pío XII dijo a la Pontificia Academia de las Ciencias que el Big Bang era un testimonio del
relato de la creación plasmado en el Génesis, cuando Dios dijo que se hizo la luz. La
alacridad con la que la Iglesia respondió a esta hipótesis científica contrasta con los
doscientos años que fueron necesarios para que aceptase que Galileo tenía razón cuando sus
observaciones sustentaron la teoría de Copérnico de que la Tierra no es el centro del
universo, sino que la Tierra y los demás planetas orbitan alrededor del sol.
A diferencia de la iglesia católica, la comunidad científica siguió dividida entre los
seguidores del Big Bang y los de la teoría del estado estacionario hasta 1965, momento en
el cual, según la versión ortodoxa de la historia, un descubrimiento casual produjo las
evidencias decisivas.
Los astrónomos Arno Penzias y Robert Woodrow Wilson no conseguían eliminar el
«ruido» de fondo que llegaba desde todas las regiones del firmamento cuando las
observaban a través de su radiotelescopio en los Bell Laboratories de Nueva Jersey.
Pidieron consejo a Robert Dicke, de Princeton, que, sin que ellos estuvieran al corriente,
llevaba tiempo intentando encontrar la radiación de fondo cósmico de microondas predicha
por Gamow. Dicke se dio cuenta entonces de que este «ruido» uniforme en la región de las
microondas era esta radiación que se había enfriado a una temperatura de 2,7 K.[7]
Rara vez, si alguna, se comenta que Geoffrey Burbridge, profesor de astrofísica de
la Universidad de California, afirmó que este relato ortodoxo está distorsionado. Según él,
la elección de parámetros que Alpher y Herman realizaron para sus ecuaciones fue lo que
hizo que la proporción entre hidrógeno y los demás elementos ligeros que presentaron se
correspondiera aproximadamente a la proporción observada. Más aún, señaló que el
descubridor de la radiación de fondo cósmico de microondas fue Andrew McKellas, que
estimó además su temperatura entre 1,8 y 3,4 K, y que publicó dichos descubrimientos en
1941; alegó que Gamow conocía como mínimo estos resultados y que, por lo tanto, no
predijo la radiación de fondo cósmico de microondas que las observaciones posteriores
confirmaron.[8]
Sin embargo, el relato ortodoxo prevaleció y Penzias y Wilson recibieron un Premio
Nobel por su descubrimiento. La inmensa mayoría de la comunidad científica adoptó el Big
Bang como modelo para el origen del universo y los que no se mostraron de acuerdo con él
lo pasaron realmente mal. Según John Maddox, la continuada adhesión de Hoyle a la teoría
del estado estacionario «lo condenó al ostracismo de sus colegas académicos y a la renuncia
sin precedentes de su puesto como profesor en Cambridge».[9]
Probablemente, este último hecho fue una consecuencia de las duras críticas de
Hoyle a las evidencias contra la teoría del estado estacionario que presentó su colega
académico en Cambridge, Martin Ryle, y que acabaron con la enemistad entre los dos. Y
mientras que Hoyle jamás consiguió un nuevo puesto académico, Ryle acabó
convirtiéndose en Astrónomo Real de Gran Bretaña y siendo galardonado con un Premio
Nobel. De manera inexplicable, el Premio Nobel de 1983, concedido por el trabajo sobre la
nucleosíntesis estelar, fue otorgado únicamente a William Fowler e ignoró tanto a Hoyle
como a Geoffrey y Margaret Burbidge, los otros tres autores del trascendental documento
de 1957 que describe en detalle cómo se forman en el interior de las estrellas todos los
elementos naturales distintos al hidrógeno y el helio. Fowler reconoció libremente que
Hoyle fue el primero en establecer el concepto de nucleosíntesis estelar y que se había
incorporado a Cambridge con una beca Fullbright con el único fin de trabajar con Hoyle.
[10]
El relato ortodoxo ejemplifica el método científico según el cual una teoría
consolidada —el universo eterno— queda descartada cuando nuevos datos confirman
predicciones realizadas por una hipótesis distinta —el Bing Bang—, que pasa entonces a
convertirse en la teoría ortodoxa. En el trato recibido por Hoyle, ejemplifica también el
comportamiento de la clase dirigente científica hacia aquellos que se muestran
disconformes con la ortodoxia.
Desde mediados de la década de los sesenta del siglo pasado, el modelo del Big
Bang se ha mantenido con la misma convicción que mantenía la teoría del universo eterno e
invariable en 1928. ¿Pero siguen las evidencias validando este modelo y, en caso contrario,
como ha respondido la comunidad científica?
La teoría actual: el Big Bang

Para ver si el modelo del Big Bang ofrece una explicación satisfactoria del origen
del universo, debemos examinar su base teórica.
Base teórica

A diferencia del método científico[11] comúnmente aceptado, la teoría del Big Bang
no derivó de la observación sino que surgió a partir de soluciones a las ecuaciones de la
teoría general de la relatividad de Einstein, una de las cuales fue seleccionada por ser la que
mejor encajaba con las observaciones.
La visión de Einstein produjo leyes del movimiento que no dependen de que el
observador se mueva de un modo particular en relación con lo que está observando.
Einstein asumió que la velocidad de la luz (c) es constante, que es la misma para todos los
observadores en cualquier momento y en todas las partes del universo, y que no hay nada
que pueda viajar más rápido. Su teoría de la relatividad especial de 1905 aporta la idea de
que espacio y tiempo son independientes y absolutos: ofrece una matriz espacio-tiempo de
cuatro dimensiones en la que el espacio o el tiempo podrían expandirse o contraerse
dependiendo del movimiento del observador, pero el espacio-tiempo es igual para todo el
mundo.
Una consecuencia de la teoría de la relatividad especial es que la masa (m) y la
energía (E) son equivalentes, lo que queda reflejado en la famosa ecuación E = mc2.
Cuando Einstein incorporó la gravedad a estas leyes del movimiento para producir
una teoría general de la relatividad, su visión era que la gravedad no es una fuerza que actúa
instantáneamente entre masas, según definía la ley de Newton, sino que es una distorsión en
el tejido espacio-tiempo provocada por la masa y que, cuánto más grande sea la masa,
mayor será la distorsión. Estas distorsiones dictan entonces el movimiento de otras masas
en el espacio-tiempo. Para parafrasear a John Archibald Wheeler, la materia le dice al
espacio-tiempo cómo debe curvarse y el espacio-tiempo le dice a la materia cómo debe
moverse.
Para producir una ecuación que cuantificara este concepto y permitiera realizar
predicciones, Einstein utilizó una rama complicada de las matemáticas, conocida como
geometría diferencial, que se ocupa de las superficies curvas. Llegó de este modo a lo que
hoy en día se conoce como las ecuaciones de campo de Einstein. Se utiliza el plural porque
la ecuación única contiene tensores[12] que tienen diez posibilidades lo que genera, a todos
los efectos, diez ecuaciones. Las muchísimas soluciones posibles a estas ecuaciones
producen muchos universos teóricos y el reto consistía en descubrir la solución que mejor
encajara con los datos observacionales.

Resolver estas ecuaciones es extremadamente difícil. Los intentos fueron liderados


por cuatro hombres. Además de Einstein y Lemaître, los otros dos fueron el astrónomo
holandés Willem de Sitter y el meteorólogo ruso Alexander Friedmann.
Simplificación de supuestos: isotropía y omnicentrismo

Todos ellos realizaron dos supuestos con fines de simplificación: en cualquier


momento dado, el universo es el mismo independientemente de la dirección hacia la que
miremos (es isotrópico) y esto sigue siendo cierto si observamos el universo desde
cualquier otra parte (es omnicéntrico). Estos dos supuestos implican necesariamente que el
universo es el mismo en todos sus puntos (es homogéneo).[13]
Evidentemente, el supuesto isotrópico no es totalmente válido: las estrellas de
nuestra galaxia forman una banda perceptible de luz en el cielo nocturno, lo que conocemos
como la Vía Láctea. Pero los supuestos se hicieron por tres motivos: (a) la intuición de que
era una buena aproximación a la escala del universo; (b) la creencia de que no ocupamos un
lugar especial, o privilegiado, en el universo, del mismo modo que Copérnico demostró que
no ocupamos un lugar único en el sistema solar; y (c) la conveniencia matemática, puesto
que reduce drásticamente el número de posibles geometrías, o espacios-tiempo, que
describen la forma del universo pues, si la materia produce curvatura y si el universo es
homogéneo, la curvatura del universo es la misma en todas partes.
Friedman demostró que una consecuencia de estos supuestos es que el universo solo
puede tener tres geometrías: cerrada (esférica), abierta (hiperbólica) o plana, cada una de
las cuales cambia con el tiempo según el factor de escala, o expansión, del universo. Según
las ecuaciones de campo de Einstein, es la materia lo que curva la totalidad —geometría
tridimensional más el factor de escala función del tiempo— que define el espacio-tiempo.
Estas matrices matemáticas cambiantes de cuatro dimensiones son difíciles de
visualizar. La figura 3.2 ofrece solo representaciones bidimensionales de los espacios
tridimensionales que cambian con el tiempo.

Friedman demostró que los universos con estas tres posibles geometrías tenían tres
destinos distintos. El universo cerrado (o esférico) se expande a partir de un Big Bang, pero
el efecto gravitacional de su materia es lo bastante fuerte como para ralentizar, detener y
cambiar el sentido de la expansión hasta que el universo en contracción termina en un Big
Crunch, o gran implosión. El universo abierto (o hiperbólico) se expande a partir de un Big
Bang, pero el efecto gravitacional de su materia es demasiado débil para detener esta
expansión, que continúa indefinidamente a un ritmo regular hasta que sus elementos dejan
de tener contacto entre ellos, lo que conduce a un universo vacío. El universo plano se
expande a partir de un Big Bang, pero el efecto gravitacional que une su materia equilibra
exactamente la energía cinética de la expansión, lo que da como resultado que el ritmo de la
expansión disminuya pero no lo bastante como para detenerla, de modo que el universo se
expande eternamente a un ritmo de expansión continuamente más lento.
Como consecuencia de los supuestos de simplificación, tanto el universo plano
como el abierto son necesariamente infinitos en su extensión: si llegaran a un límite
definido, entrarían en contradicción con el supuesto de que el universo se ve igual desde
todos los puntos. Pero esto no aplica para un universo esférico: una esfera perfecta tiene el
mismo aspecto desde todos los puntos de su superficie.
A diferencia de Einstein, Friedman no incorporó una constante arbitraria Lambda
para conseguir el resultado deseado. En su modelo matemático, la fuerza de la gravedad de
la materia en relación con la energía cinética de la expansión se expresa como el parámetro
de densidad crítica Omega (Ω). En un universo cerrado, Omega es mayor que 1; en un
universo abierto, Omega es menor que 1; en un universo plano, Omega es igual a 1.
Después de que Hubble publicara sus datos, la mayoría de científicos llegó a la
conclusión de que lo que más encajaba con las observaciones era un universo plano
iniciado a partir de un Big Bang muy caliente, razón por la cual el modelo Friedmann-
Lemaître pasó a ser el modelo ortodoxo.[14]
Una geometría cerrada es el análogo tridimensional de la superficie de una esfera:
en esta geometría, la suma de los ángulos de un triángulo es superior a 180º y la
circunferencia de un círculo es inferior a π veces su diámetro. Una geometría abierta es el
análogo de una superficie hiperbólica, o en forma de silla de montar: en este caso, la suma
de los ángulos de un triángulo es inferior a 180º y la circunferencia de un círculo es
superior a π veces su diámetro. Una geometría plana es la geometría euclidiana que
conocemos: la suma de los ángulos de un triángulo es igual a 180º y la circunferencia de un
círculo es exactamente π veces su diámetro. Las distintas geometrías espaciales cambian
con el tiempo según el factor de escala, o de expansión, del universo. Sin embargo, si
introducimos una constante cosmológica distinta a cero, podrá producirse cualquier tipo de
geometría con cualquier tipo de evolución en el tiempo.
Problemas de la teoría del Big Bang

El universo como sujeto de la investigación científica dejó de ser dominio exclusivo


de la astronomía observacional y teórica. Surgió entonces una nueva ciencia de la
cosmología, que definiré como
Cosmología: el estudio del origen, la naturaleza y la estructura a gran escala del
universo físico, que incluye la distribución y la interrelación de todas las galaxias, cúmulos
de galaxias y objetos cuasi-estelares.
La teoría de la relatividad había jugado un papel crucial en la investigación del
universo como un todo en comparación con la astronomía, que tradicionalmente había
puesto su foco en las estrellas y las galaxias. En la actualidad se utiliza la física de
partículas, la física de plasmas y la física cuántica, tanto a nivel teórico como experimental,
para examinar lo que sucedió durante el Big Bang, e inmediatamente después del mismo,
cuando el universo era increíblemente minúsculo y caliente. Cuando los científicos
aplicaron estas disciplinas al modelo del Big Bang, se encontraron con cuatro problemas.
Sin constante cosmológica, una densidad de masa lo suficientemente elevada como
para cambiar el sentido de la expansión produciría un universo cerrado; una densidad de
masa baja sería insuficiente para cambiar el sentido de la expansión, que seguiría a un ritmo
constante y llevaría a un universo abierto; si la densidad es igual a la densidad crítica
tendría una geometría plana: se expandirá eternamente, pero a un ritmo cada vez menor.
Monopolo magnético

Los físicos de partículas y de plasmas defienden la teoría de que la temperatura


extremadamente elevada y la energía del plasma inmediatamente posteriores al Big Bang
tendrían que haber creado monopolos magnéticos, que son partículas con un único polo de
carga magnética en vez de los habituales dos.[15] Y utilizando la teoría de la relatividad,
calcularon que el Big Bang tendría que haber producido la cantidad suficiente de los
mismos como para generar un centenar de veces la densidad de energía observada del
universo.[16]
En el universo no se ha detectado ni un solo monopolo magnético.
Homogeneidad

Los dos supuestos del modelo ortodoxo producen un universo que es homogéneo, o
completamente uniforme, mientras que todas las demás soluciones a las ecuaciones de
campo de Einstein sin estos supuestos, producen universos irregulares.
Contrastando con este modelo, cuando observamos el universo vemos que no es
completamente uniforme. Tiene sistemas solares, cúmulos de galaxias y supercúmulos,
todos ellos separados por inmensos vacíos que contienen poca o ninguna materia. La Tierra
tiene una densidad unas 1030 veces superior a la de la media del universo, el aire que
respiramos tiene una densidad 1026 veces superior, la densidad media de nuestra galaxia, la
Vía Láctea, es 106 veces superior, nuestro grupo de galaxias tiene una densidad media
doscientas veces superior, mientras que los vacíos entre los supercúmulos tienen
normalmente una anchura de ciento cincuenta años luz.[17]
Si el universo fuese perfectamente homogéneo, no estaríamos aquí para observarlo.
Sin embargo, los cosmólogos piensan que en una escala del tamaño del universo, el
alejamiento de la homogeneidad es solo de una cienmilésima parte.
El modelo del Big Bang no consigue explicar cómo y por qué el universo debería
estar tan extremadamente cerca de la homogeneidad perfecta, aunque sin llegar a
alcanzarla, y permitir aun así la formación de estructuras como nuestro sistema solar, con
planetas como la Tierra en la que el hombre ha evolucionado.
Isotropía del fondo cósmico de microondas (el problema del horizonte)
El modelo del Big Bang defiende que el fondo cósmico de microondas (FCM) es la
radiación que se escindió de la materia en estado de plasma unos 380.000 años (según las
estimaciones revisadas) después del Big Bang, y que perdió energía y que, a medida que el
universo fue expandiéndose, se enfrió hasta alcanzar su temperatura actual de 2.73 K.
Los detectores de los satélites Cosmic Background Explorer (COBE) y Wilkinson
Microwave Anisotropy Probe (WMAP) demostraron que esta temperatura es prácticamente
isotrópica, es decir, que es la misma en todas direcciones. Para alcanzar esta temperatura
casi uniforme, todas las partículas de radiación (fotones) deberían haberse combinado a
través de colisiones repetidas justo después de escindirse del plasma.
La teoría de la relatividad afirma que nada puede viajar más rápido que la velocidad
de la luz. De ahí que, para poder combinarse, la distancia de separación entre los fotones no
debería ser mayor a la que se puede viajar a la velocidad de la luz. Esta distancia se conoce
como el horizonte de contacto del fotón.
Sin embargo, el modelo del Big Bang afirma que el ritmo de expansión del universo
se ralentizó. En consecuencia, en un universo mucho más joven, el horizonte de contacto de
un fotón era muy inferior al que pueda ser ahora. De ahí que habría sido imposible que
todos los fotones estuvieran en contacto entre sí justo después de escindirse del plasma. Por
lo tanto, la energía de los diversos fotones debía de ser distinta y esto tendría que quedar
patente en la actualidad con distintas temperaturas del fondo cósmico de microondas
medido en distintas direcciones.
La teoría del Big Bang es incapaz de explicar este conflicto con pruebas
observacionales.
Planicidad (Omega)

Un universo plano es inestable por definición. Se sustenta mediante el equilibrio


precario entre la energía cinética de la expansión y la atracción de fuerza gravitacional de
su materia para producir Omega = 1. Pero los cálculos matemáticos del modelo del Big
Bang demostraron que Omega es extremadamente sensible, sobre todo en el universo
primitivo. Las desviaciones ínfimas de la unidad, en un sentido u otro, pueden magnificarse
muy rápidamente, inclinando el universo hacia una configuración cerrada o abierta. Dicke
calculó que cuando el universo tenía un segundo de antigüedad, el valor de Omega debió de
situarse entre 0,99999999999999999 y 1,00000000000000001, es decir, una sensibilidad de
± 1-17. Si Omega se hubiera desviado de 1 por una cantidad superior a esta cifra, el
universo habría colapsado en un Big Crunch o se habría expandido hacia el vacío mucho
antes de que pudieran formarse los sistemas solares y los planetas, y nosotros no estaríamos
aquí para hacer especulaciones sobre el Big Bang.
La mayoría de cosmólogos deduce, a partir de bases teóricas más que de la
observación, que el universo se ha estado expandiendo desde que tenía 10-43 segundos de
vida[18] (por ninguna otra razón que la teoría cuántica[19] se desmorona con un tiempo
inferior). De ser así, el valor de Omega no podría diferenciarse de la unidad por más de 10-
64, una sensibilidad que resulta inconcebible.[20]
Pero Omega no podía ser exactamente igual a uno desde un buen principio; de ser
este el caso, el universo jamás se habría expandido.
El modelo del Big Bang no consigue explicar cómo o por qué el valor de Omega
tiene que situarse tan increíblemente cerca de uno, aunque no ser igual a uno, para permitir
que el universo se expanda establemente.
Existe un quinto problema, más fundamental si cabe, que la inmensa mayoría de
cosmólogos no aborda. Consideraré este esqueleto encerrado en el armario en el siguiente
capítulo, cuando examine lo que el modelo revisado no consigue explicar.
La solución de la teoría de la inflación

Hay una idea que afirma solucionar estos primeros cuatro problemas de un solo
plumazo.
A quién se le ocurrió la idea fue, y sigue siendo, tema de debate. Alan Guth, del
Massachusetts Institute of Technology, declara «Protagonicé el debut oficial de la inflación
en el seminario que impartí en SLAC el 23 de enero de 1989».[21] El ruso Andrei Linde,
que trabaja actualmente en la Universidad de Stanford, California, reivindica que Alexei
Starobinsky, David Kirzhnits y él desarrollaron los conceptos esenciales de la inflación en
la antigua Unión Soviética antes de esa fecha.[22]
Según la versión publicada por Guth en 1981, muy poco después de que se
produjera el Big Bang el universo sufrió una expansión enorme y casi instantánea que lo
infló billones de veces en lo que podría haber sido menos de un billón de billones de
billones de segundo. Para que este fenómeno fuera posible, el universo estaba en un estado
inestable tremendamente frío; esta inflación decadente acabó deteniéndose y el inmenso
universo inició la expansión desacelerada que predice el modelo básico del Big Bang.[23]
Después de la inflación, el universo ha quedado convertido en algo tan inmenso que
solo alcanzamos a ver una mínima fracción del mismo. Y esta es la razón por la cual, igual
que sucede con un área minúscula en la superficie de un globo gigantesco, nuestra parte
tiene aspecto plano. Dicho de otra manera, la inflación diluye de tal manera cualquier
desequilibrio entre la energía explosiva de la expansión y la energía de la fuerza de
gravedad de la materia del Big Bang que permite que el universo post-inflación
experimente una expansión desacelerada estable. En efecto, después de la inflación Omega
queda igual a uno y el universo no está destinado a sufrir una aceleración rápida hacia el
vacío ni una contracción veloz hacia el colapso: sigue el modelo matemático del universo
plano. Lo cual soluciona el problema de la planicidad.
La enorme expansión inflacionaria ha diluido también cualquier irregularidad
surgida a partir del Big Bang explosivo. Lo cual soluciona el problema de la
homogeneidad.
De un modo similar, todos esos monopolos magnéticos existen en algún lugar del
inmenso universo, pero nuestra región es tan increíblemente minúscula que no contiene
ninguno. Lo cual soluciona el problema de los monopolos magnéticos.
El universo que somos capaces de ver actualmente, cuyas distancias más lejanas
están limitadas por la velocidad de la luz y la edad del universo, es solo la región post-
inflación expandida de lo que fue una parte increíblemente minúscula del universo
inflacionado. En esta parte increíblemente minúscula, todos los fotones estuvieron en
contacto y alcanzaron una temperatura uniforme. Lo cual soluciona el problema del fondo
cósmico de microondas.
La conjetura sobre la inflación de Guth, sin embargo, tenía un punto débil que acabó
resultando fatal. Su mecanismo para terminar con la expansión exponencial desbocada y
que permitía que el universo pudiera entonces iniciar su expansión desacelerada según el
modelo básico de universo plano de Friedmann-Lemaître, producía en el universo grandes
heterogeneidades que las observaciones refutan. Guth la retiró después de un año.
Andreas Albrecht y Paul Steinhardt y, por otro lado, Linde, presentaron versiones
modificadas.
Pero según Linde, estas versiones tampoco funcionaban. Declaró que los problemas
de la conjetura de la inflación solo quedaron solventados cuando, en 1983, él concibió una
nueva versión más sencilla en la que prescindía del súper enfriamiento, de los efectos
cuánticos de la gravedad e incluso del supuesto habitual de que el universo era caliente en
su origen; se basaba simplemente en los campos escalares. Un campo escalar en un
concepto matemático según el cual todo punto del espacio está asociado a un escalar, una
cantidad como la masa, la longitud o la velocidad que queda totalmente especificada por su
magnitud.[24] Linde se limitó a asumir que el universo tenía todos los campos escalares
posibles, y que cada uno de ellos tenía todos los valores posibles. Este supuesto otorgó a su
modelo matemático infinitas posibilidades y produjo, teóricamente, regiones del universo
que continúan siendo pequeñas y otras que se inflan de manera exponencial. Por su
naturaleza arbitraria, lo denominó «inflación caótica». Se convirtió en una versión popular
de la inflación y desde entonces se han propuesto muchas más versiones de la misma.[25]
La conjetura de la inflación no solventa el problema del esqueleto en el armario —
de hecho, agranda incluso más el tamaño del esqueleto—, pero los cosmólogos se sintieron
tan aliviados al ver que solucionaba los cuatro problemas que habían identificado, que la
aceptaron con entusiasmo. De hecho, acordaron ponerle el título de Teoría de la inflación y
el modelo Inflacionario del Big Bang pasó a convertirse en la ortodoxia científica.
Validez de la teoría inflacionaria del Big Bang

Que esta ortodoxia cosmológica revisada ofrezca una explicación científica al


origen del universo depende de si tanto la teoría básica como el añadido inflacionario son
válidos en dos sentidos: (a) ¿es fiable la teoría? y (b) ¿está sustentada por observaciones o
experimentación?
Fiabilidad de la teoría básica

La teoría básica del Big Bang caliente consta de dos partes. La primera es la
solución a las teorías de campo de Einstein que asume que el universo es tanto
omnicéntrico como isotrópico (y, por lo tanto, homogéneo) y la elección de un universo
geométricamente plano. La segunda parte es el modelo estándar de la física de partículas.
El supuesto omnicéntrico no es verificable. Incluso en el caso de que una
civilización avanzada de una galaxia remota nos hiciera llegar su visión del universo,
estaría tremendamente obsoleta cuando llegara a nosotros.
A pesar de que tanto el supuesto de isotropía como el supuesto de homogeneidad no
son totalmente válidos porque el universo está integrado por sistemas solares, galaxias,
grupos locales de galaxias, cúmulos de galaxias y supercúmulos separados por gigantescos
vacíos, los cosmólogos creen que estos supuestos son válidos en la escala del universo. Sin
embargo, cada vez que los astrónomos han examinado secciones grandes a enormes
distancias con instrumentos cada vez más sofisticados, han descubierto estructuras tan
grandes como el tamaño de la región examinada. En 1989, Geller y Huchra identificaron
una estructura casi bidimensional de aproximadamente 650 millones de años luz de
longitud a la que apodaron la Gran Muralla. En 2005, Gott y sus colegas detectaron la Gran
Muralla Sloan, de más del doble de longitud que la primera, 1,3 miles de millones de años
luz, a una distancia aproximada de nosotros de mil millones de años luz. En 2013, Roger
Clowes y sus colegas identificaron un grupo de cuásares sin precedentes con una longitud
de cuatro mil millones de años luz a una distancia que se sitúa entre ocho y nueve mil
millones de años luz.[26] En 2014, István Horváth y sus colegas informaron de que en 2013
habían realizado el descubrimiento de un objeto que multiplicaba por seis el tamaño de la
Gran muralla Sloan, de una longitud de entre siete y diez mil millones de años luz y a una
distancia aproximada de diez mil millones de años luz.[27] Los tamaños de estos objetos
contradicen los supuestos de isotropía y homogeneidad.
En cuanto a la elección de la geometría plana, no podemos verificar la consecuencia
de que el universo tiene un tamaño infinito.
Más aún, la idea de que el universo, espacio-tiempo incluido, cobra existencia a
partir de la nada gracias un Big Bang caliente partió de extrapolar la expansión del universo
al momento de tiempo cero. Pero la teoría cuántica se desmorona en ese momento porque
su Principio de la incertidumbre defiende que no es posible especificar nada dentro de un
periodo inferior a 10-43 segundos, lo que se conoce como tiempo de Planck.[28] Además,
esta extrapolación comprime el universo hasta un punto de densidad infinita donde la
curvatura del espacio-tiempo es infinita, lo que provoca el derrumbe de la teoría de la
relatividad.[29] Como dice Guth, «la extrapolación a temperaturas arbitrariamente elevadas
nos lleva mucho más allá de la física que comprendemos, razón por la cual no existen
motivos válidos para confiar en ella. La verdadera historia del universo en “t = 0” sigue
siendo un misterio».[30]
Una teoría que se basa en un misterio en el que las teorías que la sustentan se
desmoronan y, que se basa además en supuestos simplificadores, uno de los cuales no
puede verificarse mientras que los demás entran en contradicción con las observaciones
astronómicas, queda lejos de ser totalmente fiable.
La segunda parte de la teoría básica del Big Bang es el modelo estándar de la física
de partículas, que utiliza la teoría del campo cuántico para explicar cómo, mediante un
mecanismo denominado ruptura de simetría, se forman las partículas subatómicas a partir
de la energía liberada por el Big Bang.
Modelo estándar de la física de partículas: pretende explicar la existencia de, y
las interacciones entre, todas las cosas, excepto la gravedad que observamos en el universo,
en términos de partículas elementales y sus movimientos. Actualmente describe diecisiete
tipos de partículas elementales, agrupadas en forma de cuarks, leptones o bosones. Cuando
se tienen en cuenta las correspondientes antipartículas y variaciones de bosones, el total de
partículas elementales asciende a sesenta y una.
Según este modelo, distintos tipos de cuarks se combinan para crear los protones y
los neutrones (cuyas distintas combinaciones crean el núcleo de todos los átomos). Las
interacciones entre doce de estos tipos de partículas elementales son los movimientos de
cinco partículas elementales más, bosones que son portadores de fuerza, como los gluones,
que proporcionan la fuerza de unión a los cuarks.[31]
El modelo ha predicho con éxito la existencia de partículas que posteriormente han
sido detectadas, directamente o por inferencia en el caso de los cuarks, mediante
experimentación u observación. Una predicción clave es la existencia de una partícula
conocida como el bosón de Higgs, esencial para explicar por qué los dieciséis tipos de
partículas elementales restantes, con la excepción del fotón y el gluon, tienen masa. En
2012, dos experimentos llevados a cabo con el Large Hadron Collider, o Gran Colisionador
de Hadrones (LHC), construido por el Centro Europeo para la Investigación Nuclear
(CERN) en el subsuelo de la frontera franco-suiza, identificó la muy efímera existencia del
bosón de Higgs, o posiblemente de una familia de bosones de Higgs, en cuyo caso el
modelo estándar necesitaría revisión.
Incluso en el caso de que solo se confirmara un único bosón de Higgs después de
que el LHC reabriera en 2015 con niveles de energía muy superiores, seguiría habiendo
problemas importantes. El modelo estándar contenía diecinueve parámetros, que se
revisaron después de 1998 a veintinueve para permitir que los neutrinos tuvieran masa, algo
que no había predicho el modelo. Estos parámetros son constantes libremente ajustables
cuyos valores deben elegirse: desde un punto de vista matemático, la teoría resulta
consistente independientemente de los valores que se incorporen. Estas constantes
especifican las propiedades de la materia, como la carga de un electrón, la masa de un
protón y constantes de acoplamiento (números que determinan la fuerza de las
interacciones entre partículas). Las constantes se calculan experimentalmente y luego se
incorporan al modelo «a mano». Tal y como Guth reconoce «[según el modelo estándar] las
masas de la partícula W+ y del electrón surgen esencialmente de la misma manera, de
modo que el hecho de que la masa del electrón sea 160.000 veces inferior se incorpora a la
teoría amañando los parámetros para que así suceda».[32] Una teoría de este estilo es, por
naturaleza, menos fiable que aquella cuyas predicciones queden posteriormente
confirmadas por la experimentación y la observación.
Cuando se tienen en cuenta las antipartículas correspondientes y las variaciones en
los bosones, el número de partículas elementales asciende a sesenta y uno, [33] lo que
parece un número importante para definirlas como elementales o irreducibles. Además, el
actual modelo estándar es necesariamente incompleto porque no tiene en cuenta la
gravedad. De hacerlo, se harían necesarias más partículas elementales, como los gravitones.
La fiabilidad de la teoría básica del Big Bang depende también de su
correspondencia con la realidad. Los cosmólogos han adoptado la interpretación que hizo
Friedman para solucionar matemáticamente las ecuaciones de campo de Einstein. Esta
interpretación defiende que las estrellas (que posteriormente se revisaron para pasar a ser
galaxias y más adelante cúmulos galácticos) no se mueven. Están incrustadas en el espacio
y lo que se expande es el espacio entre las galaxias. Puede que la lógica matemática que lo
respalda sea correcta, pero para muchos no-cosmólogos parece una interpretación jesuítica:
en el mundo real, si la distancia entre dos galaxias aumenta con el tiempo, las galaxias se
distancian durante ese tiempo. De hecho, los cosmólogos se refieren al desplazamiento al
rojo de una galaxia como la medida de la velocidad a la que esa galaxia se aleja de la
nuestra.
Necesidad de evidencias que sustenten la teoría básica

La inmensa mayoría de cosmólogos reivindica la existencia de tres plataformas


distintas de evidencias que sustentan con fuerza suficiente la teoría básica del Big Bang: (a)
los desplazamientos al rojo observados de galaxias que demuestran que el universo está
expandiéndose; (b) la existencia y la forma de cuerpo negro del fondo cósmico de
microondas; y (c) la abundancia relativa observada de elementos ligeros.
Desplazamiento al rojo cosmológico
La interpretación del desplazamiento al rojo observado en los objetos celestes como
su movimiento de alejamiento de nosotros y la conclusión de que cuánto más se alejan
dichos objetos más rápido es su movimiento, dio lugar a la constante de Hubble, la
proporción entre velocidad de recesión y distancia. Su cálculo es tremendamente
complicado, por no decir, además, que calcular la distancia es un reto gigantesco.[34] Pero
con todo y con eso, los cosmólogos ortodoxos asumieron que todos los desplazamientos al
rojo de objetos que se alejan de nuestro Grupo Local de galaxias se deben a la expansión
del universo y adoptaron el desplazamiento al rojo como una medida de distancia.
Diversos astrónomos de renombre han desafiado este supuesto y afirman que las
evidencias demuestran que muchos desplazamientos al rojo tienen un origen distinto.
Examinaré las distintas reivindicaciones en conflicto en el capítulo 6, cuando trate sobre los
problemas a los que se enfrenta la cosmología como medio explicativo. Pero si su
interpretación de los datos[35] es correcta, el desplazamiento al rojo por sí mismo —y muy
especialmente el desplazamiento al rojo muy elevado sin evidencias de que surge del
espectro de emisión o absorción de luz estelar— no sería un indicador fiable ni de la
distancia cosmológica ni de la velocidad de recesión y, consecuentemente, de la edad. Lo
cual socavaría una de las tres plataformas claves de evidencias que soportan el modelo del
Big Bang de la cosmología ortodoxa.
Fondo cósmico de microondas
La temperatura de 2.73K del fondo cósmico de microondas (FCM) es consistente
con la radiación que se habría desprendido de la materia en las primeras fases del Big Bang
caliente y de su enfriamiento en su diseminación por el universo en expansión. Además,
dicha radiación tendría lo que se conoce como un espectro de cuerpo negro de Planck. El
satélite COBE, lanzado al espacio en 1989, detectó este espectro, lo que aportó una base
sólida al modelo ortodoxo.[36]
Sin embargo, como veremos en el capítulo 6 cuando considere la interpretación de
los datos, los defensores de otros modelos cosmológicos afirman también que la existencia
y las características del FCM son consistentes con sus hipótesis.
Abundancia relativa de los elementos ligeros
Gamow, Alpher y Herman demostraron que los núcleos de helio, deuterio y litio
podrían ser resultado de la fusión nuclear de protones y neutrones en el plasma
tremendamente caliente existente durante los dos primeros minutos posteriores al Big Bang.
[37] La abundancia relativa de estos elementos ligeros antes de la expansión y el
enfriamiento que provocaron el proceso de nucleosíntesis debería permanecer básicamente
invariable en el universo actual. La predicción que hicieron Alpher y Herman de la
proporción de aproximadamente un 75 por ciento de hidrógeno y un 25 por ciento de helio
por masa es la misma proporción observada y se cita como evidencia convincente del Big
Bang.
Como se ha apuntado anteriormente, Burbridge declaró que el valor que Alpher y
Herman eligieron en sus ecuaciones para la proporción entre la densidad de bariones
(material normal, visible) y la radiación, se calculó expresamente para que produjera la
proporción entre hidrógeno y helio observada entonces y que, en consecuencia, no era una
predicción.[38] Reconoció que el parámetro elegido también produce la proporción
observada de hidrógeno respecto a deuterio y que ello sustenta la hipótesis del Big Bang.
Sin embargo, en 2004, Michael Rowan-Robinson, entonces profesor de Astrofísica
del Imperial College de Londres y presidente de la Royal Astronomical Society, destacó
que las estimaciones más recientes presentadas por Tytler y sus colegas sobre la abundancia
de deuterio procedente de las líneas de absorción de cuásares con un desplazamiento al rojo
muy alto y situados en el mismo campo visual, precisa una revisión de la estimación de la
densidad bariónica. El nuevo valor está sustentado por el análisis de las fluctuaciones del
fondo cósmico de microondas. Y coincide poco con la abundancia de helio.[39]
Todo esto sugiere que esta plataforma de evidencias del Big Bang podría no ser tan
sólida como la mayoría de cosmólogos afirma.
Una hipótesis alternativa planteada por Hoyle y Burbridge sostiene que todos los
elementos surgen a partir de la nucleosíntesis que se produce en el interior de las estrellas.
Para sustentarla, afirman que si la abundancia de helio que conocemos se hubiera producido
de esta manera a partir del hidrógeno, la energía liberada cuando aumenta de temperatura
generaría un espectro de cuerpo negro como el del fondo cósmico de microondas a una
temperatura de 2.76 K, que coincide casi exactamente con la observada. Defienden que los
demás elementos ligeros podrían crearse bien a partir de la actividad de las llamaradas que
se producen en la superficie de muchas estrellas, como se sabe que sucede con el sol y otros
astros, bien a partir de la combustión incompleta del hidrógeno en su interior.[40]
¿Objetos antiguos en galaxias jóvenes?
Astrónomos respetables afirman que las galaxias con desplazamientos al rojo muy
elevados, que según el modelo ortodoxo serían muy jóvenes, contienen objetos muy
antiguos, como estrellas rojas gigantes además de hierro y otros metales. Como que las
galaxias no pueden contener objetos más antiguos que ellas mismas, los astrónomos
defienden que la teoría ortodoxa del Big Bang es, por lo tanto, errónea. Consideraré esta
postura con mayor detalle cuando examine la evolución de la materia en el universo en el
capítulo 8.
De los cinco problemas mencionados previamente, tres presentan conflictos menos
controvertidos con las evidencias: la ausencia de monopolos magnéticos, el alejamiento de
la homogeneidad de solo una cienmilésima parte y la isotropía del fondo cósmico de
microondas. Fueron estas tres inconsistencias con las evidencias, además del problema de
planicidad del modelo del Big Bang, lo que empujó a la mayoría de cosmólogos a aceptar
la solución de la teoría de la inflación como parte del modelo ortodoxo del universo. De ahí
que se haga necesario examinar la validez de esta incorporación a la teoría básica del Big
Bang.
Fiabilidad de la teoría de la inflación

Linde dice que «si el universo en el inicio de la inflación tenía un tamaño de 10-33
centímetros,[41] después de 10-35 segundos de inflación este campo adquiere un tamaño
increíble. Según algunos modelos inflacionarios, este tamaño en centímetros puede ser
equivalente a (1010)12», es decir, 101000000000000 centímetros.[42] Lo que pretende
decir uno de los creadores de la teoría de la inflación es que en cien mil millones de
millones de millones de millones de millonésimas de segundo, un universo con un supuesto
diámetro de mil millones de millones de millones de millones de millonésimas de
centímetro podría haberse expandido en un orden de magnitud de más de diez miles de
millones del universo que hoy observamos. Sería presuntuoso poner reparos al calificativo
«increíble» que propone Linde.
Pero que una conjetura sea increíble, sin embargo, no significa que sea
científicamente inválida. Aunque alcanzar un tamaño tan increíble en un espacio de tiempo
tan breve sí significa que el universo se expandió a una velocidad de magnitudes
muchísimo más elevadas que la velocidad de la luz. Los inflacionistas sostienen que esto no
viola la teoría de la relatividad. Apelando a la interpretación de Friedmann, defienden que
no fue la sustancia del universo lo que viajó más rápido que la velocidad de la luz sino el
espacio entre la sustancia, y lo que prohíbe la teoría de la relatividad es que la sustancia y la
información, que no el espacio, viajen más rápido que la luz.
Una mayoría de inflacionistas sostiene actualmente la postura de que el Big Bang
caliente se produjo después de la inflación, es decir, que lo que sufrió la inflación no fue
sustancia —materia y radiación— sino solo una burbuja de vacío que al finalizar la
inflación se convirtió en energía y materia. Sin embargo, los inflacionistas defienden
también que el espacio o vacío que se expandió posee una energía del estado fundamental,
y como que energía y masa son equivalentes, la masa-energía del espacio o vacío viajó a
una magnitud muchísimo más veloz que la luz, lo que entra en conflicto con la teoría de la
relatividad.
Cómo y cuándo se inició la supuesta inflación del universo sigue siendo una
pregunta sin respuesta. La versión que Guth planteó de entrada estaba basada en teorías de
gran unificación (TGU) de la física de partículas, y propone que la inflación se inició unos
10-35 segundos después del Big Bang. Desde entonces, los teóricos han desarrollado más
de cien versiones distintas de la inflación basadas en diversos mecanismos y que suelen
incorporar algún tipo de campo escalar al que genéricamente se refieren como campo de
inflación; entre estas teorías destacan la inflación caótica, doble, triple e hibrida, y la
inflación que utiliza la gravedad, el espín, los campos vectoriales y las branas de la teoría
de cuerdas.[43] Cada una de ellas plantea un distinto momento de inicio, un periodo
distinto de inflación exponencial más rápida que la velocidad de la luz y un momento
distinto de finalización, lo que produce una inmensa variedad de tamaños del universo.
Pero, con todo y con eso, cada versión defiende que su periodo inflacionario termina con un
universo con una densidad crítica altamente improbable en la que Omega = 1, de modo que
un universo plano experimenta una expansión estable y desacelerada.
Si el Big Bang se produjo después de que el universo experimentara una inflación,
surgen las preguntas acerca de qué había antes de la inflación y por qué, cómo y cuándo se
inició la inflación. Pero es algo que no parece preocupar a Guth: «la teoría inflacionista
permite una amplia variedad de supuestos sobre el estado del universo antes de la
inflacion»,[44] y «Independientemente de lo poco probable que sea que se iniciara la
inflación, el crecimiento exponencial externo puede fácilmente compensarlo».[45]
Respuestas tan vagas no son precisamente el sello distintivo de una teoría fiable.
Otra pregunta que suscitan estas teorías inflacionistas es la de qué es lo que conduce
a los distintos mecanismos a inflar de forma exponencial un universo primigenio súper
denso contra su inmenso campo gravitatorio, que cabría esperar que se comprimiera en un
agujero negro[46] del que nada podría escapar. Para dar una respuesta, la mayoría de
teóricos reintrodujo en sus ecuaciones la constante arbitraria Lambda que Einstein descartó
como un error. Al asignar a esta constante arbitraria un valor positivo mucho mayor del que
Einstein le otorgó, fueron capaces de proporcionar a sus campos de inflación conceptuales
una enorme energía gravitatoria negativa (o repulsiva) que hace insignificante el inmenso
campo gravitatorio normal.
Y en cuanto a lo que Lambda es en la realidad física, para diferenciarlo de la
constante matemática arbitraria que proporciona a una ecuación la solución deseada,
consideraré los distintos puntos de vista en el capítulo 4 puesto que, más de quince años
después de la presentación de la hipótesis de la inflación, los cosmólogos volvieron a
invocarla —aunque con un valor muy distinto— para explicar otra observación
astronómica que contradecía el modelo del Big Bang.
Es evidente que no todas las versiones de la inflación pueden ser acertadas, aunque
Guth comenta: «De las muchas versiones de la inflación que se han desarrollado, pueden
extraerse algunas conclusiones […]. La inflación solo exige que haya algún estado que
juegue el papel de falso vacío, y que haya algún mecanismo que produzca los bariones (por
ejemplo, los protones y neutrones) del universo una vez la inflación haya finalizado. Por lo
tanto, la inflación puede sobrevivir incluso si las teorías de gran unificación se equivocan
[la cursiva es mía]».[47] Esto no define una teoría tal y como la entiende la ciencia, sino
una colección de conjeturas tan abstracta y generalizada que carece de sentido en el mundo
físico.
Este problema de definición surge porque la cosmología ha estado liderada por
teóricos cuyo principal instrumento son las matemáticas. Los matemáticos utilizan el
término «teoría» para describir una colección de propuestas sobre un tema que son
demostrables mediante razonamiento deductivo para un conjunto de supuestos o axiomas y
que se expresan mediante símbolos y fórmulas. Una teoría matemática no tiene por qué
mantener relación con los fenómenos físicos, tal y como Einstein reconoció sin reservas:
«Los escépticos dirán: “Tal vez sea cierto que este sistema de ecuaciones es razonable
desde un punto de vista lógico. Pero ello no demuestra que tenga correspondencia en la
naturaleza”. Tiene usted razón, mi querido escéptico. Solo la experiencia puede decidir
acerca de la verdad».
Mientras que la mayoría de cosmólogos afirma que su disciplina es una ciencia,
muchos fusionan teoría matemática con teoría científica, algo que es bastante distinto. La
ciencia es una disciplina empírica, y una teoría científica es la explicación de un conjunto
de fenómenos validado por experimentos u observaciones independientes y se utiliza para
realizar predicciones o retrodicciones rigurosas sobre fenómenos.
Necesidad de evidencias que sustenten la teoría de la inflación

¿Hay alguna de las hipótesis de la inflación que realice predicciones únicas que
hayan quedado confirmadas por las evidencias? En 1997, Gurth escribió: «Es justo decir
que la inflación no está demostrada, pero creo que está avanzando rápidamente de hipótesis
de trabajo a hecho aceptado».[48] En 2004, declaró que «Las predicciones de la inflación
coinciden maravillosamente con las mediciones del fondo cósmico de microondas».[49] De
hecho, el equipo científico responsable del satélite espacial Wilkinson Microwave
Anisotropy Probe (WMAP) anunció en 2006 que las ondulaciones detectadas en el fondo
cósmico de microondas (FCM) favorecen las versiones más simples de la inflación, lo que
confirmó la inflación como un elemento esencial de la explicación que da la cosmología
ortodoxa a la aparición del universo.
Más aún, en 2014 el equipo encargado de examinar de uno a cinco grados del
firmamento (de dos a diez veces el ancho de una luna llena) desde una estación situada
cerca del polo sur, como parte del proyecto que lleva el nombre de BICEP2, anunció haber
encontrado evidencias directas de inflacion.[50]
Lo que de hecho descubrieron fue una señal de polarización de modo B en el fondo
cósmico de microondas (FCM). El equipo del BICEP2 llegó a la conclusión de que esta
señal estaba provocada por ondas gravitacionales primigenias generadas por la expansión
inflacionaria del universo. Después de la excitación inicial y de las declaraciones de
diversos premios Nobel, dos estudios independientes de los datos aportados por BICEP2
afirmaron que la señal podía ser también resultado del polvo y los campos magnéticos
galácticos de nuestra propia galaxia, la Vía Lactea.[51] Además, las señales eran mucho
más potentes de lo esperado e inconsistentes con los datos de la sonda WMAP y del
telescopio Planck.
Si las distintas versiones de la inflación consiguen realizar predicciones y si los
parámetros de sus ecuaciones de campo Estan forzados para producir resultados
consistentes con las observaciones es un tema que examinaré en el capítulo 8. Más aún, la
literatura cosmológica rara vez menciona que las ondas del FCM sean consistentes con
otras hipótesis, como la de un modelo de universo esféricamente simétrico y no
homogéneo, el modelo de universo cíclico ecpirótico, la cosmología de estado cuasi-
estacionario y el modelo de universo eterno de la cosmología del plasma.
Examinaré estas posturas y los datos de la sonda WMAP con más detalle cuando
trate sobre la cuestión de la interpretación de los datos en el capítulo 6. Baste con decir por
el momento que Peter Coles, profesor de Astronomía de la Universidad de Nottingham,
subraya las discrepancias entre los datos de la WMAP y la inflación, citando el
alineamiento inexplicable de determinados componentes de puntos calientes y fríos, que
teóricamente no deberían poseer estructura. Concluye con:
Existen escasas evidencias directas de que la inflación tuviera realmente lugar. Las
observaciones del fondo cósmico de microondas […] son consistentes con la idea de que la
inflación se produjo, pero eso no significa que realmente tuviera lugar. Lo que es más,
seguimos incluso sin saber qué habría causado de haberse producido.[52]
Lo cual es una réplica de la conclusión de Rowan-Robinson:
Se han propuestos distintas versiones sobre cómo se produjo la inflación. La
característica común esencial es el periodo de expansión exponencial en el universo
temprano, lo que resuelve los problemas del horizonte y la planicidad. Sin embargo, no
existen evidencias de que alguna de estas fases se haya producido y comprender cómo
podrían obtenerse dichas evidencias resulta tremendamente difícil.[53]
Ellis llama la atención hacia la debilidad explicativa y el escaso poder predictivo de
la teoría de la inflación.
Si la hipótesis solo soluciona los problemas concretos sobre el universo primigenio
para los que fue diseñada y nada más, la verdad es que tiene escaso poder explicativo y se
quedaría tan solo en una descripción alternativa (tal vez preferible desde un punto de vista
teórico) de la situación conocida […] el supuesto campo inflatón que sustenta una era
inflacionaria de rápida expansión en el universo primigenio no se ha identificado y ningún
experimento de laboratorio ha demostrado su existencia. Al ser φ un campo desconocido,
podemos asignarle un potencial arbitrario V(φ) […]. Se ha demostrado que podemos
obtener la evolución de escala S(t) deseada del universo si elegimos adecuadamente su
potencial; y también es posible obtener la perturbación del espectro que deseemos si
realizamos la elección (posiblemente distinta) adecuada. De hecho, en todos los casos es
posible realizar los cálculos matemáticos a la inversa, a partir del resultado deseado, para
determinar el potencial V(φ) requerido.[54]
Finalmente, para que una hipótesis se convierta en teoría científica debe ser
susceptible de ser verificada. La reivindicación principal de las diversas hipótesis de
inflación es que el universo que observamos no es más que una parte increíblemente
minúscula de la totalidad del universo. Si la información no puede viajar a velocidad
superior a la de la velocidad de la luz, no podremos comunicar con, ni obtener ninguna
información sobre, ninguna otra parte de este universo. Hasta que los proponentes de los
distintos modelos de inflación conciban un método para verificar sin ambigüedades la
existencia de algo con lo que no podemos ni comunicar ni obtener información, su principal
reivindicación no solo seguirá pendiente de verificación sino que además seguirá siendo no
verificable. En consecuencia, me referiré a ella como la conjetura de la inflación.
Como John Maddox, director editorial de Nature durante veintitrés años, dijo: «Un
hecho revelador sobre los hábitos de la comunidad científica es que no haya vertido con la
generosidad acostumbrada su perpetuo y sano escepticismo sobre esta atrevida e ingeniosa
teoría».[55]
Conclusiones

Con tantos supuestos carentes de validez y dependientes de la incorporación o la


variación de los valores de parámetros arbitrarios para que los resultados coincidan con las
observaciones, se hace difícil no llegar a la conclusión de que la teoría ortodoxa de la
cosmología no es fiable. Además, los diversos modelos de inflación introducidos para
explicar las contradicciones reconocidas del modelo básico del Big Bang con respecto a las
evidencias aportadas por la observación, no solo carecen de fiabilidad sino que además su
reivindicación principal no es verificable.
Y lo que es más, no aborda tampoco, ni explica adecuadamente, varios conflictos
clave que consideraré en el siguiente capítulo.
[1] Véase el glosario, al final del libro, para una explicación más detallada de estos
términos.
[2]Los átomos con el mismo número de protones pero un número distinto de
neutrones reciben el nombre de isótopos. El núcleo de un átomo de hidrógeno está formado
por un protón, el del deuterio está formado por un protón y un neutrón, mientras que el del
tritio está formado por un protón y dos neutrones.
[3]3 Un kelvin es la unidad de temperatura de la escala de temperatura Kelvin, que
empieza con 0K, el cero absoluto debajo del cual la energía molecular no puede caer. Un
grado Kelvin tiene la misma dimensión que un grado Celsius, y 0K corresponde a -273,15º
C.
[4]Burbidge, Geoffrey, «Quasi-Steady State Cosmology», 2001.
http://arxiv.org/pdf/astro-ph/0108051. Consultado el 29 de diciembre de 2006.
[5]K es la abreviatura de Kelvin.
[6]Assis, Andre K. T. y Neves, Marcos C. D., «History of the 2.7 K Temperature
Prior to Penzias and Wilson», Apeiron 2: 3, 1975, pp. 79–87.
[7]Véase, por ejemplo, Bryson (2004), pp. 29–31.
[8]Burbidge (2001).
[9]Maddox (1998), pp. 33–34.
[10]Fowler, William, A., Autobiography, Fundación Nobel, 1993,
http://nobelprize.org/nobel_prizes/physics/laureates/1983/fowler-autobio.html. Consultado
el 31 de octubre de 2007.
[11]Véase el glosario para una descripción completa.
[12]Un tensor es una entidad algebraica de varios componentes que cambian en la
transformación de un sistema coordinado de espacio a otro.
[13]Isotrópico significa que, para el observador, el universo es el mismo en todas
direcciones. Homogéneo significa que el universo es igual en todos sus puntos. Lo cual no
es necesariamente lo mismo. Por ejemplo, un universo con un campo magnético uniforme
es homogéneo porque todos sus puntos son iguales, pero no es isotrópico porque un
observador vería distintas líneas de campos magnéticos en distintas direcciones. Por otro
lado, una distribución esféricamente simétrica de material es isotrópica cuando se observa
desde su punto central, pero no es necesariamente homogénea; el material de un punto
determinado podría no ser el mismo que el de un punto distinto en la misma dirección. Sin
embargo, si asumimos que la distribución de material es isotrópica cuando se observa desde
todos los puntos, el universo será necesariamente homogéneo.
[14]Magueijo (2003), pp. 79–85.
[15]Véase el glosario para una definición completa.
[16]Ibíd, pp. 109–111; Linde (2001).
[17]Guth (1997), pp. 213–214.
[18]Es lo que se conoce como tiempo de Planck; véase el glosario para su
explicación.
[19]Véase el glosario para una definición de teoría cuántica y página 159 para una
descripción más completa.
[20]Magueijo (2003), pp. 94–98.
[21]Guth (1997), p. 186
[22]Linde (2001).
[23]Guth, Alan y Steinhardt, Paul, «The Inflationary Universe», Scientific
American, 250, 1980, 116-128.
[24]Véase el glosario para una definición completa.
[25]Linde (2001).
[26]Clowes, Roger G., et al., «A Structure in the Early Universe at Z ~ 1.3 That
Exceeds the Homogeneity Scale of the R-W Concordance Cosmology», Monthly Notices of
the Royal Astronomical Society, enero 2013.
[27]Horváth, I., et al., «Possible Structure in the GRB Sky Distribution at Redshift
Two», Astronomy & Astrophysics, 561, 2014, L12, 4pp. http://arxiv.org/abs/1401.0533v2.
Consultado el 29 de Agosto de 2014.
[28] Véase el glosario para una explicación del Tiempo de Planck y el Principio de
incertidumbre.
[29]Hawking (1988), p. 46.
[30]Guth (1997), p. 87.
[31]Véase el glosario para una definición de cuark, leptón y bosón.
[32]Ibíd, pp. 238–239.
[33]Braibant, et al. (2012), pp. 313–314.
[34]Véase página 140.
[35]Véase página 146 para más discusión sobre esta interpretación de los datos.
[36]Rowan-Robinson (2004), pp. 89–92.
[37]Véase página 55.
[38]Véase página 56.
[39]Ibíd, p. 99.
[40]Burbidge, Geoffrey y Hoyle, Fred, «The Origin of Helium and the Other Light
Elements», The Astrophysical Journal, 509, 1998, L1–L3; Burbidge (2001).
[41]Un supuesto basado en la longitud debajo de la cual la teoría cuántica se
desmorona.
[42]Linde (2001).
[43]Las principales versiones se consideran en mayor detalle en la página 201 y las
páginas siguientes.
[44]Guth (1997), p. 186.
[45]Ibíd, p. 250.
[46]Véase el glosario para una descripción completa de agujero negro.
[47]Ibid. pp. 278–279.
[48]Ibíd, p. 286
[49]Alspach, Kyle, «Guth, Linde Win Gruber Cosmology Prize», Science &
Technology News, 1, mayo 2014, pp. 1 y 3.
[50]Ade, P. A. R. et al., «Detection of β-Mode Polarization at Degree Angular
Scales by BICEP2», 2014, http://arxiv.org/pdf/1403.3985. Consultado el 18 de marzo de
2014.
[51]Cowan, Ron, «Big Bang Finding Challenged», Nature, 510, 2014, p. 20.
[52]Coles, Peter, «Inside Inflation: After the Big Bang», New Scientist Space, 2007,
Informe especial, 3 de marzo de 2007,
http://space.newscientist.com.libproxy.ucl.ac.uk/article/mg19325931.400;jsessionid=CCH
NEIPIDDIE. Consultado el 2 de abril de 2007.
[53]Rowan-Robinson (2004), p. 101.
[54]Ellis (2007), S.5.z
[55]Maddox (1998), p. 55.
CAPÍTULO 4. LO QUE LA TEORÍA ORTODOXA DE LA CIENCIA NO
CONSIGUE EXPLICAR

Como principio científico general, no es deseable depender esencialmente de lo que


no es observable para explicar lo observable.

Halton Arp, 1990

No solo no podemos ver aquello de lo que está hecha la mayor parte del universo,
sino que además ni siquiera estamos hechos de lo que la mayor parte del universo está
hecha.

Bernard Sadoulet, 1993

Si la teoría ortodoxa de la ciencia, el modelo del Big Bang inflacionario, pretende


proveernos de un relato convincente sobre el origen de la materia de la que estamos hechos,
debería ofrecernos una respuesta satisfactoria a seis preguntas clave.
Singularidad

Según el modelo del Big Bang, si echáramos hacia atrás el reloj de la expansión del
universo se produciría una singularidad. Los físicos teóricos desarrollaron el concepto de
singularidad cuando estudiaron los agujeros negros. Podría definirse como sigue:
Singularidad: región hipotética en el espacio-tiempo donde la fuerza de la
gravedad hace que una masa finita quede comprimida en un volumen infinitamente
pequeño, y por lo tanto tenga una densidad infinita, y donde el espacio-tiempo queda
infinitamente distorsionado.
En 1970, Stephen Hawking y Roger Penrose publicaron una prueba matemática de
que el universo empezó a existir a partir de una singularidad, el Big Bang, siempre y
cuando la teoría general de la relatividad fuera correcta y el universo contuviera toda la
materia que observamos. Y esto se convirtió en la teoría ortodoxa.
Hawking, sin embargo, ha cambiado de idea desde entonces y sostiene que la
singularidad desaparece en cuanto tenemos en cuenta los efectos cuánticos (véase el
universo sin límites de Hartle-Hawking en el próximo capítulo).
Nos preguntamos, por lo tanto, ¿hubo una singularidad en el Big Bang y, de haberla
habido, qué sabemos sobre el universo en aquel momento? La teoría ortodoxa se muestra
ambigua respecto a la primera parte de la pregunta. Y respecto a la segunda parte, si hubo
una singularidad en el Big Bang, no nos dice nada porque, como se ha comentado en el
capítulo anterior,[1] la teoría de la relatividad y la teoría cuántica que la sustentan se
desmoronan. Por mucho que un periodo de 10-43 segundos pueda parecer un periodo de
tiempo absurdamente pequeño en el que no es posible concretar nada, diversos modelos de
inflación especulan que en o durante ese periodo de tiempo, antes o después del Big Bang,
se produjeron sucesos tremendamente importantes.
Proporción observada de materia respecto a radiación
La teoría ortodoxa sobre el origen de la materia invoca la teoría estándar de física de
partículas para explicar la creación de la materia a partir de la energía que liberó la
explosión del Big Bang.
Según la teoría estándar, una partícula elemental de materia se materializa
espontáneamente a partir de un campo de energía junto con una partícula de antimateria
simétricamente opuesta a ella, que posee la misma masa y espín pero carga eléctrica
opuesta. Así pues, un electrón (con carga negativa) aparece con un positrón (carga
positiva), y un protón (carga positiva) lo hace con un antiprotón (carga negativa). En
condiciones de laboratorio, estas partículas y antipartículas pueden separarse y
«embotellarse» mediante campos electromagnéticos. Sin embargo, sin campos aplicados
externamente, la vida de estas partículas y antipartículas elementales es ínfima,
normalmente de 10-21 segundos, después de lo cual se aniquilan mutuamente en una
explosión de energía, un proceso contrario al que las crea.
De ahí que el modelo del Big Bang inflacionario tuviera que explicar lo siguiente:
(a) puesto que en la densidad extremadamente elevada que siguió al Big Bang todas las
parejas partícula-antipartícula se vieron presionadas entre ellas, ¿por qué esas partículas y
antipartículas no se aniquilaron mutuamente?; y (b) ya que sabemos que en el universo
existe una cantidad enorme de materia, ¿dónde está la cantidad correspondiente de
antimateria?
Las especulaciones sobre las anti-galaxias dieron paso a estimaciones
observacionales de la proporción entre fotones y protones del universo, que se sitúa
aproximadamente en dos miles de millones contra uno. Con ello, los teóricos llegaron a la
conclusión de que para cada mil millones de antipartículas (antiprotones y positrones) que
se materializaron a partir de la liberación de energía del Big Bang, debieron de
materializarse mil millones más una partículas correspondientes (protones y electrones).
Los mil millones de partículas y antipartículas se aniquilaron entre ellas en una explosión
de energía y produjeron dos mil millones de fotones, que son cuantos de energía
electromagnética. Según el modelo del Big Bang, es esta energía, ahora expandida y
enfriada, lo que forma la radiación de fondo cósmico de microondas que vemos hoy en día.
Los mil millones más uno protones y electrones que quedaron huérfanos sobrevivieron y se
combinaron para crear toda la materia del universo: todos los planetas, sistemas solares,
galaxias y cúmulos de galaxias.
Sin embargo, esto entraba en conflicto con la teoría estándar de la física de
partículas que decía que, según la ley de la simetría, solo pueden materializarse parejas de
partículas y antipartículas.
Este conflicto siguió siendo un problema para los físicos teóricos hasta mediados de
los años setenta del siglo pasado, cuando conjeturaron que, bajo las condiciones de
temperaturas extremadamente elevadas del Big Bang, las tres fuerzas fundamentales de la
naturaleza —electromagnética, nuclear débil y nuclear fuerte[2]— son simplemente tres
aspectos distintos de la misma fuerza. Los teóricos concibieron asimismo distintos modelos
matemáticos, que denominaron teorías de gran unificación (TGU), aunque los datos
experimentales han refutado la TGU original y hasta el momento no han conseguido validar
ninguna de las otras. Estas conjeturas permiten que todo tipo de partículas elementales
interactúen, y transmuten, con todas las demás partículas. Como consecuencia de ello, los
físicos teóricos consideraron que no era necesario conservar la simetría entre materia y
antimateria. Ajustaron el modelo estándar para que diera cabida a la asimetría. Este ajuste
no predice la cantidad de asimetría pero, como la carga de un electrón, requiere medidas
obtenidas a partir de la observación que se incorporan luego al modelo para que el mismo
sea consistente con la observación.
A pesar de las esperanzas albergadas en los años setenta, no fue posible detectar y
calibrar en laboratorio la asimetría materia-antimateria hasta 2001, momento en el cual se
produjeron mesones B y anti mesones B y se logró que sobrevivieran 10-12 segundos. Sin
embargo, la asimetría observada no resultó ser lo bastante grande como para explicar la
proporción estimada entre energía y materia en el universo.[3]
De ahí que la actual teoría ortodoxa de la ciencia sobre el origen de la materia
necesite ofrecer una respuesta convincente a la pregunta de cómo se formó la materia a
partir de la energía liberada por el Big Bang para producir la proporción entre materia y
energía que observamos actualmente en el universo.
Materia oscura y Omega

Y aquí surgen dos problemas.


En primer lugar, si estimamos la masa de una galaxia mediante el método
convencional de medir su luminosidad, vemos que la atracción gravitatoria de la masa es
solo una décima parte de la que sería necesaria para que todas sus estrellas orbitaran a su
alrededor. De un modo similar, la atracción gravitatoria de la masa de un cúmulo de
galaxias medida por su luminosidad es solo de una décima parte de la que sería necesaria
para mantener las galaxias unidas en un cúmulo.
Lo cual no es una sorpresa, puesto que el método convencional se limita a medir tan
solo la cantidad de luz emitida. Estrellas y galaxias de distintas masas varían en cuanto a su
luminosidad y su distancia de nosotros, y las más remotas pueden quedar oscurecidas por el
gas y el polvo u ocultas por la luz de estrellas y galaxias más próximas. Por lo tanto, el
cálculo de la masa no es más que una burda estimación basada en el promedio de valores
estimados «conocidos».
Y lo que es más importante, el método convencional no mide la masa de nada que
no emita o refleje luz. Si la teoría general de la relatividad fuese válida, tendría que haber
diez veces más cantidad de materia no luminosa —materia oscura— extendiéndose más
allá del radio de cualquier galaxia visible para con ello impedir que la galaxia no se
dispersase. De un modo similar, tendría que haber diez veces más cantidad de materia
oscura en lo que se cree que es el vacío que rodea las galaxias visibles de un cúmulo.
Las numerosas especulaciones sobre lo que constituye la materia oscura podrían
agruparse en dos tipos:
MACHO: los objetos masivos de halo compacto (MACHO del inglés «Massive
Compact Halo Objects») son formas de materia densa —como los agujeros negros, las
enanas marrones y otras estrellas tenues— que los astrofísicos utilizan para explicar la
materia oscura.
WIMP: las partículas masivas de interacción débil (WIMP, del inglés «Weakly
Interacting Massive Particles») son partículas dejadas por el Big Bang —como los
neutrinos, con una masa que multiplica por cien la del protón, y otros— que los físicos de
partículas utilizan para explicar la materia oscura.
A pesar de que la existencia de la materia oscura se ha deducido siempre a partir de
sus efectos gravitatorios, más de treinta años de investigaciones no han logrado todavía
identificar la naturaleza de la materia oscura ni confirmar experimentalmente la existencia
de WIMP. Muchos físicos de partículas confían en que el Gran Colisionador de Hadrones
produzca evidencias de la existencia de WIMP después de su reapertura en 2015 con casi el
doble de energía de colisión que tenía anteriormente.
El segundo problema es que, aun en el caso de que sumáramos toda la materia
oscura estimada para mantener las estrellas orbitando en galaxias y las galaxias agrupadas
en cúmulos a toda la materia estimada visible y conocida, seguiríamos obteniendo una masa
total demasiado pequeña para proporcionar la atracción gravitatoria necesaria para
equilibrar la energía cinética de la expansión del universo según el modelo ortodoxo del
Big Bang inflacionario. Las estimaciones producen un valor del parámetro de densidad
Omega de aproximadamente 0,3,[4] que es significativamente inferior al 1,0 del universo
plano que supone el modelo ortodoxo de Friedmann-Lemaître y que racionalizan las
conjeturas de la inflación.
Por lo tanto, la teoría ortodoxa de la ciencia sobre el origen de la materia no
consigue responder a las siguientes preguntas: (a) ¿qué es la materia oscura que al parecer
mantiene a las estrellas trazando órbitas y a las galaxias agrupadas en cúmulos?; y (b) ¿qué
y dónde está la materia oscura adicional necesaria para ser consistente con el modelo
ortodoxo del universo?
Energía oscura

Y por si todo esto no fuera bastante malo para el modelo ortodoxo, en 1998 los
astrónomos anunciaron un descubrimiento de importancia mayor si cabe.
Gracias al desarrollo de la tecnología y de la teoría astrofísica, dos equipos
internacionales de astrónomos fueron capaces de recopilar datos de supernovas Tipo 1a con
gran desplazamiento al rojo; consideraron que estas explosiones violentas de estrellas
enanas blancas producían luminosidades estándar. Según la cosmología ortodoxa, el grado
de desplazamiento al rojo indicaba que eran estrellas lejanas, y por lo tanto jóvenes, que
habrían explotado cuando el universo tenía entre nueve y diez miles de millones de años.
Sin embargo, eran más tenues de lo esperado. Los cosmólogos llegaron a la conclusión de
que debían de estar situadas más lejos de lo predicho por el modelo de geometría plana de
Friedmann-Lemaître, que defiende que el ritmo de expansión del universo está
ralentizándose. De ahí que decidieran que alguna cosa tenía que haber provocado la
aceleración de la expansión del universo. Y a ese ingrediente desconocido le pusieron el
nombre de «energía oscura».[5]
Basándose en los supuestos de la teoría ortodoxa y en su interpretación de los datos
astronómicos, los científicos que dirigen la Wilkinson Microwave Anisotropy Probe
anunciaron en 2003 que el universo está integrado por un 4 por ciento de materia conocida,
un 23 por ciento de materia oscura de tipo desconocido y un 73 por ciento de esta
misteriosa energía oscura.[6] Es decir, que la materia oscura desconocida que deja reducida
a nada la materia que conocemos queda a su vez reducida a nada por una energía oscura
desconocida que es responsable de más de dos terceras partes del universo. Tal vez la cita
de Bernard Sadoulet que encabeza el capítulo debería decir: «No solo no estamos hechos de
aquello de lo que está hecho la mayor parte del universo, sino que además ni siquiera
sabemos de qué está hecha la mayor parte del universo».
La figura 4.1 describe esta versión ortodoxa revisada de la historia del universo.
Los científicos empezaron de inmediato a tratar de identificar la energía oscura. Los
cosmólogos teóricos pensaron que podía ser la responsable de aquel incremento
relativamente reciente de la expansión del universo si reintroducían Lambda en las
ecuaciones de campo de Einstein.
Como vimos en el capítulo 3, Einstein había descartado esta constante cosmológica,
describiéndola como su mayor error. No aparece en las ecuaciones de Friedmann utilizadas
en el modelo básico del Big Bang, pero la mayoría de modelos de inflación la
reintrodujeron, aunque con un valor muy superior al que le había otorgado Einstein y solo
durante un periodo de tiempo increíblemente breve, para justificar una inflación del
universo primigenio y así conseguir la densidad de masa crítica con Omega = 1 para una
expansión con desaceleración estable. (Al tratarse de una constante arbitraria, los
cosmólogos pueden otorgarle cualquier valor, positivo, negativo o cero.)
Los teóricos actuales han vuelto a introducir la constante cosmológica —aunque
con un valor distinto al que le otorgaron Einstein o los inflacionistas— para intentar
justificar la aceleración implícita, muy inferior a la aceleración inflacionista. No carece de
razón el cosmólogo de la Universidad de Chicago, Rocky Kolbe, cuando se refiere a ella
como la «constante cosmo-ilógica».
Pero si pretende ser algo más que una constante matemática que los teóricos pueden
insertar de manera arbitraria en sus ecuaciones y cuyo valor pueden manipular hasta que las
soluciones cuadren con la observación, deberá significar alguna cosa en el mundo real. Los
físicos de partículas pensaron que representaba la energía del punto cero, o energía del
estado fundamental de la mecánica cuántica, del universo: es decir, la energía más baja
posible del universo, que es la energía asociada al vacío del espacio. Pero cuando
calcularon su valor de esta manera, resultó que tenía una magnitud ciento veinte veces
superior a la observada por los astrónomos.4
El físico teórico Martin Kunz y sus colegas pusieron palos en la rueda de la
constante Lambda señalando que, en primer lugar, los datos astronómicos presentan una
gran dispersión y, en segundo lugar, la interpretación de los datos es implícitamente
sensible a los supuestos sobre la naturaleza de la energía oscura. Sugirieron que
comparando datos en una amplia variedad de fenómenos astrofísicos sería posible descartar
una constante cosmológica como el origen de la energía oscura.[7]
Otro físico de partículas, Syksy Rasanen, del CERN, lanzó un palo más a la rueda al
proponer que la expansión acelerada del universo está provocada no por una energía oscura
misteriosa sino, paradójicamente, por una disminución cada vez mayor del ritmo de
expansión de esas pequeñas regiones de espacio dominadas por la materia. Como que la
atracción gravitatoria de estas regiones las lleva a absorber más materia, se condensan y
representan un porcentaje cada vez más pequeño —y menos importante— del volumen del
universo. La expansión de los vacíos sigue avanzando de manera desenfrenada y, por
consiguiente, ocupan un porcentaje cada vez mayor del volumen del universo. La
consecuencia general de todo ello, sugiere Rasanen, es que el ritmo medio de expansión del
universo aumenta sin necesidad de energía oscura.[8]
En 2011, la física teórica Ruth Durrer, de la Universidad de Ginebra, destacó que
todas las evidencias aportadas hasta la fecha para corroborar la existencia de la energía
oscura dependen de distancias calculadas de desplazamiento al rojo que son mayores de lo
que cabría esperar según el modelo ortodoxo.[9] Richard Lieu, profesor de Astrofísica de la
Universidad de Alabama, va más allá y argumenta que gran parte del modelo ortodoxo, que
ahora incluye materia oscura y energía oscura, «está sustentado por una cantidad
impresionante de propaganda que reprime las evidencias que apuntan en direcciones
opuestas y los modelos alternativos». Apunta que dos modelos alternativos, uno que
elimina la materia oscura y otro que elimina tanto la materia oscura como la energía oscura,
no presentan resultados peores en cuanto a corresponderse o no con las evidencias, y
concluye diciendo que cuánto más fracase el ámbito ortodoxo —que es el que domina las
entidades de financiación— en su empeño de encontrar estos ingredientes oscuros
desconocidos, más se invertirá el dinero de los contribuyentes en intentar encontrarlos,
hasta el punto de ahogar por completo cualquier enfoque alternativo.[10]
Ellis sostiene también que hay explicaciones alternativas a los datos astronómicos
que poseemos que son perfectamente posibles. Podrían encajar con un modelo de universo
esféricamente simétrico y no homogéneo, o podrían deberse en parte a la retro-reacción de
heterogeneidades sobre la expansión cósmica, o al efecto de heterogeneidades sobre el área
distancia efectiva.[11]
El cosmólogo Lawrence Krauss concluye diciendo que «la naturaleza de la “energía
oscura” que está provocando la aparentemente acelerada expansión del universo es, sin
lugar a dudas, el mayor misterio de la física y la astronomía».[12]
Por lo tanto, si la teoría ortodoxa de la ciencia sobre el origen de la materia pretende
ser convincente, deberá responder a lo siguiente: (a) si la expansión del universo se está
acelerando o no; (b) en caso afirmativo, cuándo se produjo el cambio de expansión
desacelerada a expansión acelerada; y (c) que causa verificable está produciendo esta
aceleración.
El ajuste de precisión de los parámetros cosmológicos

Cuando en el capítulo 3 examinamos el problema de la planicidad del modelo


básico del Big Bang, vimos que diferencias extremadamente minúsculas en el valor de
Omega —una medida de la atracción gravitatoria de la materia en el universo en
comparación con su energía de expansión— producen tipos de universo muy distintos.
En 2000, Martin Rees, astrónomo real de Gran Bretaña, defendió que nuestro
universo no habría evolucionado hasta la fase en la que se encuentra, con seres humanos
como nosotros que reflexionamos sobre el origen del universo, si el valor, no solo de
Omega sino también de cinco parámetros cosmológicos más, hubiera sido distinto en
cantidades increíblemente minúsculas.
De hecho, se afirma que para la evolución humana es imprescindible ajustar con
precisión muchos parámetros, además de los seis apuntados por Rees, y examinaré la
cuestión del «universo antrópico» con más profundidad en posteriores capítulos. Baste por
el momento decir que la teoría cosmológica ortodoxa no responde a la pregunta de cómo y
por qué el universo que emergió del Big Bang adoptó la forma que adoptó entre otras
muchas formas posibles.
La creación a partir de la nada

Este es el esqueleto encerrado en el armario. Es la pregunta más importante que la


teoría ortodoxa sobre el origen de la materia está obligada a responder. Dicho de forma muy
sencilla: ¿de dónde vino todo?
Y más concretamente, ¿de dónde procede la energía que no solo produjo todo el
universo, sino que además contrarrestó la inmensa atracción gravitatoria de la materia súper
densa que se creó —infinitamente densa si se inició como una singularidad— y expandió el
universo hasta su tamaño actual?
Muchos cosmólogos apoyan la idea de que procede de la energía neta cero del
universo. Según la teoría de la relatividad especial de Einstein, toda masa m posee una
energía equivalente calculada mediante E = mc2 y, convencionalmente, esta energía de la
masa de la materia en reposo tiene un valor positivo. Guth defiende que la energía de un
campo gravitatorio es negativa. Basándose en una idea que al parecer fue avanzada por
Richard Tolman en 1934,[13] la argumentación de Guth para la creación a partir de la nada
utilizando el concepto de energía neta cero se resumiría como sigue:
1. Si el principio de conservación de la energía aplica al universo, entonces el
universo tiene que tener la misma energía a partir de la cual fue creado.
2. Si el universo fue creado de la nada, entonces la energía total del universo tiene
que ser cero.
3. Como que es evidente que el universo observable está lleno a rebosar de la
inmensa energía-masa de cien miles de millones de galaxias en expansión, dicha expansión
tiene que estar originada por otra energía.
4. Como que el campo gravitatorio tiene energía negativa, la inmensa energía que
observamos puede quedar anulada por una contribución negativa de igual magnitud del
campo gravitatorio.
5. Como que la magnitud de energía del campo gravitatorio no tiene límite, tampoco
tiene límite la cantidad de energía-masa que es capaz de anular.
6. Por lo tanto, el universo podría haber evolucionado a partir de absolutamente
nada y de forma consistente con todas las leyes de conservación conocidas.[14]
La proposición (2) depende de la condición de que el universo fue creado a partir de
la nada. Lo cual no es una verdad obvia. De ahí que la validez de esta proposición sea
cuestionable.
La proposición (5) se basa en un supuesto cuestionable; en el capítulo 6, cuando
examine la infinitud de un cosmos físico, discutiré términos como «ilimitado» e «infinito».
Pero aun aceptando proposiciones tan cuestionables como estas, el argumento
muestra que, en teoría, el universo podría haber evolucionado a partir de la nada, pero no
nos explica cómo evolucionó en la práctica.
En 1973, Edward Tryon propuso la respuesta de la «fluctuación cuántica del vacío».
Según el principio de incertidumbre de la teoría cuántica, es imposible calcular la energía
exacta de un sistema en un momento exacto. En consecuencia, la teoría cuántica permite la
conjetura de que incluso el vacío, un espacio en el cual todo ha sido eliminado, tiene un
punto cero, o estado fundamental, de energía fluctuante a partir de la cual una pareja de
partículas de materia y antimateria puede materializarse de manera espontánea, existir
durante un periodo de tiempo increíblemente breve y luego desaparecer. Tryon sugirió que
el universo se materializó espontáneamente a partir de un vacío mediante esta fluctuación
cuántica.[15]
Sin embargo, en la teoría cuántica, la probabilidad de que un objeto se materialice a
partir de un vacío disminuye dramáticamente a tenor de su masa y su complejidad, lo que
hace que la probabilidad de que un universo complejo de catorce mil millones de años de
antigüedad y que posee unos diez mil millones de millones la masa del sol surgiera de esta
manera es tan remota, que resulta prácticamente imposible. Nadie se tomó en serio la
sugerencia de Tryon hasta que la inflación acudió a su rescate.
Guth y otros especularon que, durante el tiempo de vida infinitésimamente breve de
estas fluctuaciones cuánticas del vacío, surgió un proto-universo que se infló en un instante
hasta alcanzar una magnitud cincuenta veces mayor, y que lo hizo incluso a pesar del
campo gravitatorio provocado por su masa que amenazaba con aplastarlo y acabar con su
existencia.
Lo cual plantea dos retos. En primer lugar, como vimos en el capítulo 3, a pesar del
intento de los teóricos de la inflación de defender lo contrario, esta energía-masa no puede
viajar más rápido que la velocidad de la luz sin entrar en conflicto con la teoría de la
relatividad.[16]
En segundo lugar, como vimos también en el último capítulo, existe alrededor de un
centenar de versiones de la inflación, pero en su mayoría siguen a Linde y asumen que el
mecanismo es algún tipo de campo escalar, que recibe el nombre genérico de campo de
inflación. Sin embargo, a diferencia de un campo electromagnético que puede ser detectado
y medido, nadie ha encontrado todavía la manera de detectar, y mucho menos de medir, un
campo de inflación. Por lo tanto, esta conjetura crucial carece de base empírica.
Se supone que la energía que impulsa este supuesto campo de inflación proviene de
la energía neta cero del universo. Y mientras que Rees se muestra cauteloso y utiliza la
palabra «conjetura» para calificar esta idea[17], Hawking no tiene tantas reservas. Asevera
que, en el caso de un universo que es aproximadamente uniforme en el espacio, la energía
de gravitación negativa cancela por completo la energía positiva representada por la
materia. De ahí que la energía total del universo sea cero. «El doble de cero es también
cero. Por lo tanto, el universo puede duplicar la cantidad de energía de materia positiva y
duplicar también la energía gravitatoria negativa sin que se viole la conservación de la
energía. […] Durante la fase inflacionaria el universo aumenta su tamaño en una cantidad
muy grande. De este modo, la cantidad total de energía disponible para crear partículas se
hace muy grande. Como comentaba Guth: “Se dice que la comida gratis no existe. Pero el
universo es la comida gratis por excelencia”».[18]
No conozco muchos científicos, aparte de los cosmólogos, que crean en la comida
gratis. Pero incluso en el caso de que el universo fuera una comida gratis, la idea sigue sin
decirnos de dónde provienen los ingredientes. Concretamente, un vacío con una energía
fundamental que experimenta fluctuaciones cuánticas aleatorias no es la nada. ¿De dónde
surgió este vacío? Más aun, ¿cómo se puede verificar esta conjetura?
Se trata de preguntas que la cosmología ortodoxa está obligada a responder si
pretende que su conjetura de la creación a partir de la nada sea tratada como una teoría
científica.
Conclusiones

El capítulo 3 concluía diciendo que la teoría ortodoxa de la cosmología no es fiable


y que su reivindicación principal, la inflación, que se incorporó para explicar las
contradicciones que presenta la teoría con las evidencias aportadas por la observación, no
es verificable con casi toda seguridad.
Este capítulo llega a la conclusión de que, incluso con dos añadidos importantes —
la materia oscura y la energía oscura—, la teoría actual sigue sin ofrecer respuestas
convincentes a seis preguntas clave: si hubo o no una singularidad y, en caso afirmativo,
cómo se originó el universo como singularidad; cómo se formó la materia oscura a partir de
la energía liberada por el Big Bang para producir la proporción entre materia y energía que
observamos en la actualidad; qué es esa materia oscura que al parecer es necesaria para
explicar por qué las galaxias y los cúmulos de galaxias no se disgregan, y qué y dónde está
esa cantidad mucho mayor de materia adicional necesaria para explicar por qué el ritmo de
expansión del universo es el pronosticado por la teoría; cómo y cuándo este ritmo
desacelerado de expansión cambió a un ritmo acelerado y qué es la energía oscura invocada
como su causa; cómo y por qué el universo adoptó la forma que adoptó habiendo tantas
otras formas disponibles; y, lo que es más importante, cómo se creó todo a partir de la nada
cuando la burbuja de vacío originaria posee una energía fundamental y, por lo tanto, no es
la nada.
En 1989, Nature publicó un editorial en el que calificaba de «inaceptable» el
modelo del Big Bang y predecía que «es poco probable que sobreviva la próxima década».
[19] Pero ha sobrevivido más que eso: el Big Bang caliente inflacionario sigue siendo la
explicación ortodoxa de la cosmología para el origen del universo. ¿Pero por cuánto tiempo
más?
En la actualidad, otras hipótesis compiten bien para modificar el modelo ortodoxo,
bien para desbancarlo. ¿Ofrecen un relato más riguroso, desde un punto de vista científico,
sobre el origen del universo?
[1]Véase página 71.
[2]Véase el glosario para una definición de las distintas fuerzas.
[3]Rodgers, Peter, «Where Did All the Antimatter Go?», Physics World, 2001.
http://physicsweb.org/articles/world/14/8/9. Consultado el 12 de junio de 2006.
[4]Ellis (2007), S.2.3.6.
[5]Ellis, George, «Physics Ain’t What It Used to Be», Nature 438: 7069, 2005, pp.
739-740.
[6]Los datos aportados en 2013 por el telescopio espacial Planck de la Agencia
Espacial Europea provocaron una revisión de estas proporciones que quedaron en un 4,9
por ciento de materia conocida, un 26,8 por ciento de materia oscura y un 68,3 por ciento
de energía oscura.
[7]Kunz, Martin, et al., «Model-Independent Dark Energy Test with Sigma [Sub 8]
Using Results from the Wilkinson Microwave Anisotropy Probe», Physical Review D
(Particles, Fields, Gravitation, and Cosmology) 70: 4, 041301, 2004.
[8]Shiga, David, «Is Dark Energy an Illusion?»,
http://www.newscientist.com/article/dn11498-is-dark-energy-an-
illusion.html#.U5GjRSj5hhI. 30 de marzo de 2007.
[9]Durrer, Ruth, «What Do We Really Know About Dark Energy?», Philosophical
Transactions of the Royal Society, 369, 2011, pp. 5102–5114.
[10]Lieu, Richard, «ΛCDM Cosmology: How Much Suppression of Credible
Evidence, and Does the Model Really Lead Its Competitors, Using All Evidence?», 2007,
http://arxiv.org/abs/0705.2462.
[11]Ellis (2007), S.2.3.5.
[12]Krauss, Lawrence M., «What Is Dark Energy? », Nature 431, 2004, pp. 519–
520.
[13]Tolman (1987).
[14]Guth (1997), pp. 9–12 y 289–296
[15]Tryon, Edward P., «Is the Universe a Vacuum Fluctuation?», Nature 246, 1973,
pp. 396–397
[16]Véase página 79.
[17]Rees (1997), p. 143.
[18]Hawking (1988), p. 129.
[19]Maddox, John, «Down with the Big Bang», Nature 340, 1989, p. 425.
CAPÍTULO 5. OTRAS CONJETURAS COSMOLÓGICAS

Buscar una alternativa [al modelo ortodoxo] es buena ciencia, simplemente. La


ciencia avanza con mayor rapidez cuando hay dos o más ideas en competencia.

Paul Steinhardt, 2004

Muchos de los teóricos actuales no parecen estar preocupados por la posibilidad


de que sus hipótesis acaben viéndose confrontadas a observaciones objetivas y reales.

Michael Riordan, 2003

Algunos cosmólogos, a diferencia de algunos papas, no están satisfechos con la idea


de que el universo surgió de la nada a partir de una explosión. Para ellos, resulta mucho
más atractivo el concepto de que el universo es eterno. Una de las dificultades a las que se
enfrenta la evaluación, tanto de estas ideas como de otras alternativas al modelo ortodoxo
del Big Bang inflacionario, es que, del mismo modo que la literatura religiosa está escrita
por creyentes en las distintas religiones, la literatura sobre la especulación cosmológica está
escrita por creyentes en las distintas especulaciones; e igual que sucede con sus homólogos
religiosos, a menudo distan mucho de ser objetivos cuando presentan sus hipótesis y
seleccionan e interpretan las supuestas evidencias que las sustentan.
He elegido las que considero ideas más relevantes.
El universo sin límites de Hartle-Hawking

Para abordar la primera pregunta planteada en el anterior capítulo —si el universo,


incluyendo el tiempo y el espacio, se originó o no como una singularidad en la que dejan de
ser válidas las leyes conocidas de la física—, Stephen Hawking examinó diversas maneras
de aplicar la teoría cuántica al estado inicial del universo. Plantear sus ecuaciones sin
realizar distinción alguna entre las dimensiones del espacio y la dimensión del tiempo, le
permitió introducir un tiempo imaginario. Lo cual sería equivalente al concepto de los
números imaginarios aceptado desde hace mucho tiempo en las matemáticas. Si tomamos
un número real, como 2, y lo multiplicamos por sí mismo, el resultado obtenido es un
número positivo, 4. Lo mismo sucede si multiplicamos un número negativo por sí mismo:
-2 por -2 igual a 4. Un número imaginario es aquel que, multiplicado por sí mismo, da un
número negativo. Por ejemplo, i multiplicado por sí mismo es igual a -1, mientras que 2i
multiplicado por sí mismo es igual a -4.
El resultado de este trabajo, que desarrolló junto con Jim Hartle en 1983, fue
producir un universo en el que el tiempo y el espacio son finitos, pero sin límites de ningún
tipo.[1] Una analogía simplificada del universo espacio-tiempo de cuatro dimensiones de
Hartle-Hawking sería la superficie de la Tierra, que es finita pero no tiene límites, como se
muestra en la figura 5.1.
En la figura, el universo se origina con el Big Bang con un tamaño cero en su
equivalente del polo norte, se expande en un tiempo imaginario hasta alcanzar el tamaño
máximo en su equivalente del ecuador, y se contrae en un tiempo imaginario para terminar
en un Big Crunch con tamaño cero en su equivalente del polo sur. Y del mismo modo que
las leyes de la física aplican en el polo norte real de la superficie de la Tierra, aplican
también en el tiempo imaginario cero.
Esta solución describe un universo en el que, según Hawking, «No habría
singularidades en las que las leyes de la ciencia dejaran de ser válidas y no habría ningún
límite del espacio-tiempo […]. La condición de frontera del universo es que no hay
frontera. El universo […] no sería creado ni destruido. Simplemente SERÍA».
Hawking reconoce que cuando regresemos al tiempo real en el que vivimos, seguirá
pareciendo que hay singularidades, pero sugiere que lo que denominamos tiempo
imaginario podría de hecho ser el tiempo real, mientras que lo que denominamos tiempo
real no es más que un producto de nuestra imaginación.
Esta propuesta ingeniosa soluciona muchos problemas del modelo ortodoxo de la
cosmología, no siendo precisamente el menor de ellos el de la creación a partir de la nada.
Sin embargo, Roger Penrose, coautor con Hawking de la prueba matemática de que se
produjo una singularidad tipo Big Bang siempre y cuando la teoría general de la relatividad
sea correcta,[2] describe el modelo como un «truco inteligente» para producir teorías
cuánticas de campo consistentes pero presenta «severas dificultades» cuando se utiliza en
conjunción con las aproximaciones necesarias para resolver las ecuaciones.[3]
Para ver si describe el mundo que experimentamos, hay que comprobarlo. Hawking
afirma que realiza dos predicciones que coinciden con las observaciones: la amplitud y el
espectro de fluctuaciones del fondo cósmico de microondas. Sin embargo, como en el caso
de las de la inflación, las «predicciones» derivan de la elección arbitraria de campos
escalares, más que de las predicciones reales del modelo del universo sin límites.
Por muy atractivo que resulte conceptualmente el modelo, han pasado más de
treinta años y Hawking no ha conseguido convencer todavía a muchos cosmólogos teóricos
de que sus cálculos matemáticos son viables y de que su tiempo imaginario es
verdaderamente tiempo real. Además, el modelo no ha realizado ninguna predicción única
que esté sustentada por la observación.
La inflación caótica eterna

Si al Big Bang le siguió un periodo de inflación, como la mayoría de cosmólogos


actuales apoya, surge entonces la cuestión de qué fue lo que lo precedió. En consecuencia,
Linde desarrolló en 1986 lo que describió como el modelo de un «universo que se
reproduce a sí mismo a través de una inflación caótica eterna».[4]
A pesar de que los cosmólogos formados después de 1965 con la cultura del Big
Bang como única cosmogonía rara vez lo reconocen, este modelo tiene mucho en común
con la versión actualizada de la teoría del estado estacionario conocida como cosmología
del estado cuasi-estacionario.[5] Linde propone que la inflación caótica se prolonga
eternamente como un proceso continuado que crea nuevas regiones de espacio con
propiedades distintas. Algunas de estas regiones podrían ser tan grandes como todo nuestro
universo observable. «Con la inflación eterna, todo sería el mismo universo, pero sus partes
estarían tan distanciadas las unas de las otras que, a todos los efectos prácticos, podríamos
decir que son universos distintos».[6]
El modelo sugiere que una vez estas regiones se hayan inflado, contendrán
necesariamente en su interior partes minúsculas que se inflarán, y que cuando estas partes
se inflen, contendrán también partes minúsculas que a su vez se inflarán. En consecuencia,
el proceso inflacionario se reproduce a sí mismo eternamente.
Guth lo suscribe con entusiasmo porque «la inflación eterna pone fin a la difícil
cuestión de decidir hasta qué punto es plausible que la inflación se iniciara». Además,
Si el concepto de la inflación eterna es correcto, el Big Bang no fue un acto singular
de creación, sino más bien algo parecido al proceso biológico de la división celular […].
Dada la plausibilidad de la inflación eterna, creo que cualquier teoría cosmológica que no
conduzca hacia la reproducción eterna de los universos pronto quedará considerada como
algo tan inimaginable como una especie de bacterias incapaz de reproducirse.[7]
Guth tiene razón al respaldar este punto de vista como una declaración de fe más
que como una conclusión científica.
En principio, la conjetura responde a la cuestión del origen de nuestra región, o
nuestra burbuja, del universo: tuvo un principio y podría o no tener un fin, pero el proceso
no concluirá nunca. Pero Linde ya no está tan seguro en lo referente a cómo se inició el
proceso. En 2001 escribió: «Existe la posibilidad de que todas las partes del universo se
crearan simultáneamente en una singularidad inicial tipo Big Bang. La necesidad de este
supuesto, sin embargo, ha dejado de ser obvia».[8] Siete años antes, los cosmólogos Arvind
Borde y Alexander Vilenkin llegaron a una conclusión más precisa. Defendieron que,
siempre y cuando se acepten determinados supuestos técnicos, un espacio-tiempo
físicamente razonable que esté inflándose eternamente hacia el futuro tendría que haberse
iniciado a partir de una singularidad.[9]
El peso del argumento sustenta con claridad la conclusión de que la conjetura de la
inflación caótica «eterna» no es eterna: por mucho que la inflación caótica continuara
indefinidamente en el futuro, tuvo un principio. En consecuencia, no responde a la pregunta
fundamental sobre de dónde salió todo, ni pone tampoco fin a la difícil cuestión de decidir
hasta qué punto es plausible que la inflación empezara. Más aún, presenta exactamente los
mismos problemas de imposibilidad de verificar su principal reivindicación que situaba las
demás versiones de la idea de la inflación fuera del terreno de la ciencia y dentro del
terreno de las conjeturas filosóficas.
La velocidad variable de la luz

Un joven cosmólogo, Joao Magueijo, que en aquel momento estaba en posesión de


una prestigiosa beca para investigación de la Royal Society, propuso una alternativa a la
conjetura de la inflación que, según sostiene, se ha convertido en la teoría sagrada para la
comunidad cosmológica americana. La idea central es que en el universo primigenio, la
velocidad de la luz era muchísimo más rápida que la actual. Esta conjetura solventa todos
los problemas que solventa la conjetura de la inflación y, a pesar de que no existen
evidencias de la existencia de una partícula inflatón ni de su correspondiente campo
inflacionario, Magueijo defiende que sí hay evidencias observacionales de estrellas muy
jóvenes que sustentan la hipótesis de la velocidad de la luz variable desarrollada por él y
Andreas Albrecht (que también había desarrollado conjuntamente una de las primeras
versiones modificadas de la conjetura de la inflación, véase página 70). Esta idea, por
supuesto, quebranta uno de los principios fundamentales de la teoría de la relatividad de
Einstein, el de que nada puede viajar más rápido que la velocidad de la luz y, por ello,
Magueijo está intentando reformular en consecuencia las ecuaciones de Einstein.
Especular que en un periodo justo después Big Bang (en el que la teoría de la
relatividad de Einstein deja de ser válida), la velocidad de la luz era miles de veces más
rápida de lo que lo es ahora, no parece más irracional que especular que la energía-masa de
un vacío se infló a una velocidad miles de veces superior a la velocidad de la luz. A pesar
de ello, a Magueijo y a Albrecht les resultó extremadamente difícil poder publicar su
artículo, igual que les sucedió a Hoyle y a otros cuyas hipótesis difieren de la ortodoxia
cosmológica.
El relato de Magueijo sobre sus intentos de publicación y las respuestas a su artículo
de los grandes referentes, ofrece una imagen del tan cacareado proceso de revisión por
parte de los colegas que impera en la ciencia que emula la revisión por parte de obispos de
la ortodoxia que instintivamente rechazan aquellos puntos de vista herejes que suponen un
desafío a las conjeturas en las que se basa su reputación. Una triste reflexión acerca de
Nature la expone el hecho de que para leer la versión completa de Magueijo me vi obligado
a comprar la edición norteamericana de su libro, puesto que Nature amenazó con acciones
legales al editor británico si no cribaba la primera edición y publicaba una versión
expurgada. Entre otras cosas, Magueijo alega que el consenso en su campo de investigación
es que el editor de cosmología de Nature no está a la altura del puesto pero que sus colegas
no se atreven a decirlo por miedo a perjudicar su propia carrera profesional. Utiliza un
lenguaje desmedido, tildando al editor de «imbécil redomado» y «científico fracasado» con
envidia de pene. Este tipo de lenguaje degrada su caso. Evidentemente, Nature habría
estado más en la línea de los ideales de la ciencia si hubiese desistido de la idea de
comportarse como el Santo Oficio y hubiese permitido que los lectores decidieran hasta qué
punto el relato de Magueijo es el de un egocéntrico inmaduro y equivocado o el de un
hombre razonable abocado a la frustración.[10]
El artículo de Magueijo y Albrecht fue finalmente publicado en 1999 por Physical
Review. Su conjetura podría llevar a una teoría más robusta si pudiera realizar predicciones
capaces de ser verificadas por la observación, pero cualquier opinión al respecto debe
esperar a la aparición tanto de más trabajo teórico como de más evidencias observacionales.
El universo oscilante cíclico

La hipótesis de que el Big Bang surgió del colapso de un universo anterior fue
sugerida por Richard Tolman, del Instituto Tecnológico de California, en un momento tan
temprano como 1934. Se basó en otra solución a las ecuaciones de la relatividad general de
Einstein para el universo, que también asumió que era isotrópico y omnicéntrico, pero
cerrado en lugar de plano. Su solución muestra un universo oscilante, que se expande, se
contrae en un Big Crunch y luego vuelve a expandirse, proceso que se repite ad infinitum.
Cuando Tolman aplicó al modelo la segunda ley de la termodinámica, descubrió que cada
ciclo del universo oscilante era mayor y duraba más tiempo que el anterior.[11]
La hipótesis cayó en desgracia por varias razones, sobre todo cuando los
cosmólogos llegaron a la conclusión de que las evidencias obtenidas mediante la
observación apoyaban el modelo del universo plano. Pero, como hemos visto, el modelo del
universo plano se topó con conflictos tan importantes al ser contrastado con las evidencias
obtenidas mediante la observación, que hubo que incorporar la conjetura de la inflación
además de cantidades inmensas de materia oscura desconocida y de energía oscura
desconocida.
La hipótesis de Tolman parece evitar el problema de la singularidad. Sin embargo, si
cada ciclo del universo oscilante es mayor y más prolongado, cada ciclo precedente será
menor y habrá durado menos tiempo. Si movemos el reloj hacia atrás, llegará un punto en
el tiempo cero en el que el ciclo se aproximará a una insignificancia infinita y a una
densidad infinita, es decir, las condiciones que se conjeturan para la singularidad del Big
Bang. De ahí que el modelo no sea verdaderamente eterno y no evite el problema básico del
origen: cómo y por qué se origina una singularidad infinitamente pequeña y densa.
Además, nadie ha concebido hasta la fecha ningún medio que sirva para observar o
demostrar la existencia física de un universo previo del supuesto ciclo. Hasta que no se
consiga, esta conjetura deberá mantenerse también fuera del terreno de la ciencia, tal y
como la entendemos hoy en día.
La selección natural de universos

Lee Smolin es un teórico que no solo está preparado para pensar más allá de las
cuatro paredes de la ortodoxia, sino que además cree que es necesario para que la física
progrese. Su conjetura de una evolución de universos mediante selección natural ha sido
tomada muy en serio por diversos sectores de la comunidad científica, razón por la cual
merece la pena examinarla con cierto nivel de detalle.
En 1974, John Wheeler especuló que el colapso del universo en un Big Crunch
podría conducir a un Big Bounce, o «gran rebote», en el que el universo se reprocesara para
producir un nuevo universo donde las leyes de la física serían las mismas pero los
parámetros físicos, como el de la masa de un protón o la carga de un electrón, que las leyes
no predicen, serían distintos.
Como vimos en el último capítulo cuando hablamos sobre el ajuste de precisión de
los parámetros cosmológicos, cambios muy pequeños pueden producir universos muy
distintos. Por ejemplo, si el único cambio fuera que los protones son un 0,2 por ciento más
pesados, no se formarían átomos estables y el universo se mantendría en estado plasma; en
consecuencia, nunca podría haber evolucionado la materia compleja, como la del ser
humano.
Llevando este concepto un paso más allá, Smolin lanza la conjetura de que no es
solo el colapso de un universo en un Big Crunch lo que produce otro universo con
parámetros distintos a través de un Big Bounce, sino que además el colapso de una estrella
en un agujero negro produce otro universo con parámetros distintos al otro lado del agujero
negro. Generaciones de universos producidos de esta manera con parámetros aleatorios a
partir de un universo progenitor llevaría, mediante un proceso de selección natural similar
al de la biología,[12] a universos más adaptados para sobrevivir y capaces de permitir la
evolución de vida inteligente.[13]
Esta especulación se sustenta sobre ocho parámetros:
1. Los efectos cuánticos impiden la formación de una singularidad en la que el
tiempo se ponga en marcha o se detenga cuando un universo colapse en un Big Crunch o
una estrella colapse en un agujero negro, de tal modo que el tiempo continúa en una nueva
región de espacio-tiempo conectada al universo padre solo en su primer momento.
2. Esta nueva región de espacio-tiempo donde el tiempo continúa después del
colapso de una estrella en un agujero negro es inevitablemente inaccesible para nosotros
pero «podría ser tan grande y tan variado como el universo que podemos ver».
3. Debido a que nuestro universo visible contiene un número enorme de agujeros
negros, «debe de haber un número enorme de otros universos […], como mínimo tantos
como agujeros negros hay en nuestro universo […] [además] si hay muchos más que esos,
¿por qué, entonces, cada uno de estos universos no podría tener también estrellas que
colapsan en agujeros negros y engendran otros universos?».
4. Los parámetros del primer universo son tales que produce como mínimo una
descendencia de un universo.
5. Cada descendiente sucesivo produce al menos un vástago.
6. Los parámetros del nuevo universo formado por el colapso de un universo o de
una estrella son ligeramente distintos a los de su padre.
7. En el proceso aplican las reglas de la selección natural: el efecto acumulativo de
pequeñas mutaciones aleatorias en los parámetros de los universos hijos acaba generando
universos cuyos parámetros están mejor adaptados para producir muchos agujeros negros
—y de ahí, muchos vástagos— hasta acabar en universos como el nuestro, que crea
alrededor de 1018 agujeros negros.
8. Los parámetros de universos como el nuestro, con cantidades tan grandes de
agujeros negros, están ajustados para la evolución de vida inteligente.
Estos supuestos no son ni mucho menos evidentes.
Smolin comparte el supuesto (1) con muchos otros teóricos, pero reconoce que si
esto corresponde o no a la realidad depende de los detalles de la teoría de la gravedad
cuántica, que no está completa.
El supuesto (2) parece poco razonable. Si la teoría actual de los agujeros negros es
correcta, los agujeros negros pueden tener una densidad enorme, si no infinita, pero poseen
una masa limitada. Por ejemplo, un agujero negro podría estar formado por el colapso
gravitacional de una estrella con una masa tres veces superior a la de nuestro sol. Se estima
que la masa de la materia luminosa y de la hipotética masa oscura del universo es
aproximadamente la de diez mil millones de millones de soles. Incluso sin tener en cuenta
la energía necesaria para impulsar la expansión del nuevo universo, suponer que una masa
de, por ejemplo, cinco soles, colapsa en un agujero negro y explota hacia el otro lado como
una masa de diez mil millones de millones de soles, parece ilógico. Probablemente, Smolin,
al igual que Guth y otros teóricos,[14] está siguiendo las ideas de Tolman, pero se muestra
menos ambicioso y crea un nuevo universo a partir de cinco masas solares en vez de
hacerlo a partir de la nada.
En el supuesto (4), Smolin admite que si los parámetros del primer universo fueran
aleatorios es «más probable» (abrumadoramente probable, creo que sería más adecuado)
que en cuestión de microsegundos este primer universo se inflara hacia el vacío o
colapsara. Es decir, que el proceso evolutivo no empezara nunca. Para evitar esto, Smolin
asume que los parámetros del primer universo, y de los universos posteriores, están
afinados con precisión para que los universos puedan experimentar al menos un rebote. Sin
embargo, la única justificación que ofrece para sustentar este supuesto es que es necesario
para que su especulación funcione. Y además, la especulación no explica cómo se originó
este universo progenitor. Lo cual le impide reivindicar un poder explicativo superior al que
pueda tener el modelo ortodoxo del Big Bang inflacionario.
El supuesto (8) implica que la física que maximiza la producción de agujeros negros
es la física que permite la evolución de la vida, pero Smolin no ofrece ninguna base que
sustente este supuesto.
Por lo que a su base empírica se refiere, esta especulación plantea la existencia de
un número enorme de universos que o han desaparecido o, en el caso de existir todavía, nos
resulta imposible comunicarnos con ellos. Smolin, de todos modos, sostiene que su
conjetura es verificable argumentando que predice los parámetros de la ley de la física de
las partículas elementales que se acercan a un valor que maximiza el número de agujeros
negros de nuestro universo. Se trata de un argumento circular. La especulación no puede
verificarse con ningún método o medio conocido y de ahí que sea más una conjetura
filosófica que ciencia.
La gravedad cuántica de bucles

Igual que sucede con la conjetura de Smolin, la mayoría de las hipótesis alternativas
al modelo del Big Bang gestiona el problema de la singularidad especulando que, si
echáramos hacia atrás la expansión, los efectos cuánticos impedirían la formación de una
singularidad en la que el tiempo empieza o se detiene. Intentan unificar la teoría cuántica y
la teoría de la relatividad y proponen un universo que colapsa al otro lado del Big Bang al
cual está conectado nuestro universo a través de un túnel cuántico. De ser así, echarían por
tierra la reivindicación principal del modelo del Big Bang, a saber, que el espacio y el
tiempo surgieron en el Big Bang a partir de la nada.
Un problema importante, que tanto Smolin como otros cosmólogos reconocen, es
que todavía no disponemos de una teoría adecuada de la gravedad cuántica.
Gravedad cuántica: la esperada teoría de la gravedad cuántica que permitiría que
la energía gravitatoria se unificara con otras formas de energía en único marco teórico
cuántico.
Teoría cuántica: la teoría de que la energía es emitida y absorbida por la materia en
cantidades minúsculas y discretas, cada una de las cuales se conoce como un cuanto que
está relacionado con la frecuencia de radiación de la energía y, por consiguiente, posee
propiedades tanto de las partículas como de las ondas. Dio lugar a la mecánica cuántica. El
término se utiliza ahora en general para hacer referencia a todos los desarrollos teóricos
subsecuentes.
Abhay Ashtekar, sin embargo, declara con osadía que él y sus colegas del Penn
State Institute of Gravitational Physics and Geometry han sido los primeros en ofrecer una
descripción matemática robusta que establece sistemáticamente la existencia de un universo
colapsado previo y deduce propiedades de geometría espacio-tiempo en dicho universo.
Ashtekar y su equipo utilizan un enfoque denominado gravedad cuántica de bucles en el
afirman demostrar que en vez del clásico Big Bang, lo que se produce es un rebote
cuántico, al otro lado del cual hay un universo clásico como el nuestro.
Ashtekar reconoce una limitación en su modelo, a saber, los supuestos de que el
universo es homogéneo e isotrópico. «Es una aproximación que se hace en cosmología,
aunque sabemos que el universo no es exactamente así. Así que la pregunta es cómo
conseguir que el modelo sea cada vez más realista. Y eso es precisamente en lo que estamos
trabajando».[15]
El jurado está evaluando el modelo matemático, pero aun en el caso de que el
veredicto emitido fuera «queda demostrado», la ciencia exigiría evidencias físicas que
sustentaran cualquier prueba matemática, y nadie ha sugerido todavía cómo dichas
evidencias podrían obtenerse.
La cosmología de estado cuasi-estacionario

En 1993, Fred Hoyle, Geoffrey Burbridge y Jayant Narlikar modificaron la teoría


del estado estacionario a partir de las observaciones y presentaron lo que denominaron
cosmología de estado cuasi-estacionario (CECE o QSSC, del inglés «Quasi-Steady State
Cosmology»), que defiende que en el plazo de mil miles de millones de años el universo se
expande hasta alcanzar un estado estacionario, pero que lo hace en ciclos de cincuenta
miles de millones de años de expansión y contracción en los que la contracción nunca llega
a cero, es decir, a una singularidad.
Este equipo de astrónomos y astrofísicos postula que el responsable tanto de la
creación contínua de materia como de la expansión del universo es un campo universal de
creación, al que denominan campo C. El campo C tiene energía negativa y crea materia en
forma de partículas de Planck, la partícula elemental con el máximo de masa posible: con
una masa superior a esta, una partícula elemental quedaría superada por su propia fuerza
gravitacional y colapsaría en un agujero negro.[16]
El campo C solo tiene la fuerza necesaria para crear partículas de Planck cuando se
encuentra cerca de unos objetos muy masivos, compactos y densos, que el equipo
denomina agujeros casi negros (ACN o NBH, del inglés «near black holes»), que se
encuentran en el centro de las galaxias. Se forman cuando la fuerza creciente del campo C
impide que un objeto celeste en contracción alcance un radio de 2GM/c2, después de lo
cual se convertiría en un agujero negro. Lo que hace entonces el objeto en contracción es
ralentizarse hasta detenerse y empezar a rebotar contra el radio del agujero casi negro.
Aquí, la fuerza del campo C es lo bastante potente como para crear partículas de Planck, de
aproximadamente un centenar de milésimas de gramo, en un mini-bang no singular o
evento de creación de materia (ECM o MCE, del inglés «matter creation event»). Dichas
partículas se desintegran luego en muchas partículas más pequeñas, incluyendo entre ellas
bariones (como protones y neutrones) y leptones (como electrones y neutrinos), con la
producción de radiación, para formar la materia a partir de la cual evolucionan las galaxias.
El campo C cobra fuerza cuando crea materia, incrementando tanto la producción
de materia como de radiación. Sin embargo, la energía negativa del campo C actúa como
fuerza repulsiva que expulsa del agujero casi negro la materia y la radiación recién creadas,
por lo que podría considerarse como un «agujero blanco».
En el modelo de la cosmología de estado cuasi-estacionario, la constante
cosmológica es negativa, mientras que en el modelo ortodoxo es positiva. Por lo tanto, la
materia y la radiación que se crean están sujetas a las dos fuerzas de atracción de la
gravedad y de la constante cosmológica y a la fuerza repulsiva del campo de creación. La
que domina de entrada es esta última, y la materia y la radiación se ven expulsadas del
agujero casi negro a altísima velocidad, lo que provoca la expansión del universo.
Cuando la materia se expande la densidad disminuye y, con ella, la fuerza del
campo C, hasta el punto que ya no puede seguir creando partículas de Planck. Las fuerzas
de atracción de la gravedad y de la constante cosmológica pasan a ser dominantes y hacen
que el universo se contraiga. Y cuando se contracta hasta alcanzar una densidad lo bastante
elevada, el campo C adquiere la fuerza suficiente como para crear nueva materia y se inicia
el siguiente ciclo.[17]
Cuando la base teórica de todo esto se vió cuestionada, Hoyle destacó con ironía en
una reunión de la Royal Astronomical Society que tuvo lugar en Londres en diciembre de
1994, que las ecuaciones relevantes de la cosmología de estado cuasi-estacionario son las
mismas que las ecuaciones de la inflación correspondientes si se sustituye la letra griega
«Φ» por la letra «C».
Los defensores de la cosmología de estado cuasi-estacionario defienden que solo
exige un supuesto, el campo C, y que el resto se obtiene a partir de la observación y queda
explicado por la física normal, a diferencia del modelo ortodoxo, que tiene que recurrir a
ideas como la de una era de gravedad cuántica, un campo de inflación, teorías de gran
unificación, materia oscura desconocida y energía oscura desconocida para mantener la
idea del Big Bang y la consistencia con las observaciones.
Además, mientras que el Big Bang se produce una única vez y no puede ser
observado, los eventos de creación de materia se producen constantemente y pueden ser
observados en los chorros de plasma de las fuentes de radio y en explosiones de energía en
forma de radio, rayos infrarrojos, visibles, ultravioleta y gamma de las zonas cercanas al
centro de las galaxias. (La cosmología ortodoxa interpreta estas observaciones como
emisiones de cuásares en las que la materia es absorbida por un agujero negro que se
encuentra en el centro de galaxias muy remotas y, por lo tanto, muy jóvenes, véase página
146).
Sus defensores defienden además que la cosmología de estado cuasi-estacionario
ofrece una explicación mejor que la del modelo ortodoxo para otras observaciones. Por
ejemplo, los cosmólogos ortodoxos aceptan la teoría de la nucleosíntesis estelar avanzada
por Hoyle y sus colegas para explicar cómo todos los elementos, además del litio, se
originan a partir de estrellas, pero afirman que solo el modelo ortodoxo demuestra que la
cantidad observada de helio se corresponde con la generada a partir de la bola de fuego del
Big Bang. Burbidge y Hoyle contraatacaron diciendo que es ilógico pensar que el helio
pueda crearse mediante un método distinto: todos los elementos se originan a partir de
estrellas, y la cantidad de helio observada en la actualidad incluye el helio producido en la
escala de tiempo del universo de la cosmología de estado cuasi-estacionario, mucho más
extensa que los 13,7 miles de millones de años defendidos (entonces) por la cosmología
ortodoxa.
Por otro lado, los cálculos muestran que la termalización de la energía irradiada por
la producción estelar de helio genera casi exactamente la temperatura de 2.73 K del
espectro de cuerpo negro del fondo cósmico de microondas (FCM) observada en la
actualidad.[18] La termalización se consigue mediante la absorción de esta energía
irradiada y la emisión de longitudes de onda milimétricas que producen las partículas de
hierro en forma de aguja del medio intergaláctico. Estas agujas son resultado de
explosiones de supernovas que expulsan átomos vaporizados de hierro que se enfrían y se
condensan en forma de agujas minúsculas, no de bolas, tal y como se ha demostrado
experimentalmente; este polvo de agujas es un absorbente y un emisor efectivo de radiación
con longitudes de onda milimétricas.
La evidencia de este polvo de agujas la proporciona la radiación del púlsar del
Cangrejo, que muestra un vacío en su espectro en longitudes de onda milimétricas; la
cosmología de estado cuasi-estacionario lo achaca a la absorción del polvo de agujas de
hierro producido por la supernova del Cangrejo que dio como resultado el púlsar del
Cangrejo. Un vacío similar aparece en el espectro de emisión del centro de nuestra galaxia,
donde la actividad supernova se supone intensa.
La cosmología de estado cuasi-estacionario explica que las heterogeneidades del
fondo cósmico de microondas reflejan las heterogeneidades de la distribución del cúmulo
galáctico en la fase de contracción mínima del ciclo anterior.
Mientras que la cosmología ortodoxa tiene que invocar un cambio arbitrario en su
constante cosmológica positiva para explicar el desplazamiento al rojo de las supernovas
Tipo 1a, en la cosmología de estado cuasi-estacionario la constante cosmológica negativa se
mantiene constante; estas supernovas aparecen más débiles de lo esperado porque su luz
queda parcialmente absorbida por el polvo de agujas de hierro.
Narlikar y Burbridge defienden que la observación astronómica acabará
demostrando qué modelo refleja la realidad. La cosmología de estado cuasi-estacionario
predice objetos muy débiles con desplazamiento al azul, que son fuentes de luz en el ciclo
previo, cuando el universo era más grande que ahora; el modelo ortodoxo no los predice.
La cosmología de estado cuasi-estacionario predice además la existencia de galaxias
muy jóvenes formadas a partir de materia expulsada por el campo C en el transcurso de
eventos de creación de materia relativamente recientes, mientras que el modelo del Big
Bang defiende que las galaxias muy jóvenes tienen que ser muy remotas porque se
formaron en la primera época del universo. Narlikar y Burbridge defienden que las
observaciones astronómicas apoyan la predicción de la cosmología de estado cuasi-
estacionario. Esto, sin embargo, depende de la interpretación de los desplazamientos al
rojo.[19]
La cosmología de estado cuasi-estacionario predice asimismo la existencia de
estrellas muy antiguas formadas en el ciclo anterior. Por ejemplo, una estrella de la mitad
de la masa solar formada entre cuarenta y cincuenta miles de millones de años debería ser
ahora una gigante roja. En consecuencia, si se detectaran gigantes rojas con poca masa,
quedaría confirmada la cosmología de estado cuasi-estacionario. El modelo ortodoxo, por
otro lado, afirma que no puede existir materia anterior al Big Bang que se produjo hace
13,8 miles de millones de años.
Narlikar y Burbridge lamentan que los defensores de la cosmología de estado cuasi-
estacionario no disponen del tiempo que les gustaría para poder trabajar con telescopios,
tipo el telescopio Hubble, y poder de este modo probar sus afirmaciones; los astrónomos
ortodoxos defensores del Big Bang monopolizan los instrumentos, lo cual no es compatible
con una investigación científica de carácter abierto.
Los defensores del modelo ortodoxo de la cosmología rechazan la cosmología de
estado cuasi-estacionario. Ned Wright, profesor de Astronomia de UCLA y científico de los
proyectos COBE y WMAP, argumenta que el modelo de la cosmología de estado cuasi-
estacionario es incompatible con los datos observados, y muy en particular con los cálculos
relacionados con fuentes de radiación intensas, y sostiene que la afirmación de que el
modelo coincide con los datos del fondo cósmico de microondas es falsa. Además, asevera
que el artículo escrito en 2002 en el que se afirmaba que el modelo de la cosmología de
estado cuasi-estacionario explica mejor los datos de las supernovas Tipo 1a, requiere que el
universo tenga una opacidad óptica elevada, mientras que otro artículo del mismo año que
defendía la conformidad del modelo con la anisotropía del fondo cósmico de microondas
requiere una opacidad baja. «Estos artículos fueron publicados en distintas revistas y se
refieren mutuamente como ejemplos de cálculos correctos del modelo de la cosmología de
estado cuasi-estacionario, cuando en realidad se contradicen. Se supone que es un intento
deliberado de engañar al lector informal».[20]
La incorporación innecesaria de un ataque por un supuesto engaño por parte de
Narlikar y Burbridge es un triste reflejo de la actitud que a menudo exhiben los creyentes
en modelos cosmológicos distintos. Sin duda alguna, este tipo de reivindicaciones y
reconvenciones seguirá existiendo mientras existan creyentes. Pero esta en concreto no
durará mucho tiempo. Fred Hoyle falleció en 2001 y Geoffrey Burbridge en 2010, y Halton
Arp nació en 1927 y Jayant Narlikar en 1938. Las generaciones de cosmólogos más jóvenes
se han criado con las creencias ortodoxas y, para la inmensa mayoría, la investigación de
vías alternativas ha dejado de ser una opción para hacer carrera académica en el mundo de
la cosmología.
La cosmología del plasma

Eric Lerner, físico del plasma, publicó en 1991 un libro titulado The Big Bang
Never Happened, en el que recopilaba evidencias obtenidas a partir de la observación que
contradicen el modelo ortodoxo de la cosmología. Sostiene que ese modelo es un mito
renovado de un universo creado a partir de la nada que viola una de las leyes de la física
más comprobadas, el principio de conservación de la energía. Y que además, con el fin de
reconciliar el modelo matemático con la observación, exige la presencia de tres importantes
conjeturas —un campo de inflación, materia oscura y energía oscura— que carecen de base
empírica.
Basándose en el trabajo de Hannes Alfven, físico del plasma y laureado con un
premio Nobel, Lerner propone una cosmología que, según él, representa observaciones
astronómicas realizadas a partir de la física del plasma y la gravedad, ambas empíricamente
demostradas. Asume para el universo, igual que los defensores del modelo ortodoxo, una
geometría euclidiana, o plana, que ya conocemos (véase figura 3.2), pero propone que no
tiene ni principio ni fin y que tampoco se expande.
Según Lerner, dentro de este universo sin expansión, la teoría de la filamentación
del plasma predice la creación de estrellas de masa intermedia durante la formación de
galaxias así como la observada abundancia de los elementos ligeros. Las estructuras a gran
escala —como las galaxias, los cúmulos y los supercúmulos—, se forman a partir de
vórtices de filamentos comprimidos magnéticamente y ya que la conjetura propone que el
universo no tuvo un principio, el tiempo que necesitan las estructuras a gran escala
observadas para evolucionar a partir del desordenado plasma inicial, no tiene límite.
La radiación emitida por las primeras generaciones de estrellas proporciona la
energía necesaria para la aparición de eventos de creación de materia. La densa maraña de
filamentos de plasma comprimidos magnéticamente que impregna el medio intergaláctico
termaliza e isotropiza esta energía. Lo cual cuadra adecuadamente con el espectro del fondo
cósmico de microondas y predice la absorción observada de ondas de radio. Además, el
ajuste con la anisotropía del fondo cósmico de microondas, que contradice la cosmología
ortodoxa, queda explicado porque la densidad de los filamentos absorbentes es superior
localmente a lo largo del eje del supercúmulo local e inferior en los ángulos rectos con
respecto a este eje.[21]
Sospecho que muchos cosmólogos ortodoxos califican a Lerner de científico poco
serio porque no es un académico. Es presidente de Lawrenceville Plasma Physics Inc.
(compañía dedicada a la investigación de la energía de fusión), miembro del Institute of
Electrical and Electronic Engineers, de la American Physical Society y de la American
Astronomical Society, y ha publicado más de seiscientos artículos. Las evidencias que cita
incluyen muchos artículos de astrónomos del ámbito académico y en 2014 publicó un
artículo en coautoría con dos de estos astrónomos donde se compara el tamaño y la
luminosidad de alrededor de un millar de galaxias cercanas y extremadamente remotas.[22]
Afirma que los resultados contradicen la luminosidad de superficie predicha por un
universo en expansión y que son consistentes con un universo que no se expande.
Lo que podría denominarse modelo de universo estático evolutivo de la cosmología
de plasma propone un universo eterno y, a diferencia de la cosmología de estado cuasi-
estacionario, no requiere la creación de materia a partir de la nada. Explica la evolución
observada del universo como una interacción de fuerzas físicas conocidas:
electromagnetismo, gravedad y reacciones nucleares dentro de las estrellas y en rayos
cósmicos. Sin embargo, en su desarrollo hasta el momento, no explica qué fue lo que
provocó la existencia del plasma desordenado inicial de este universo eterno y qué fue lo
que provocó la existencia de estas fuerzas físicas conocidas y las llevó a interactuar para
que produjeran estados de materia más ordenados y complejos.
La quintaesencia

Paul Steinhardt, profesor Albert Einstein de Ciencias de la Universidad de


Princeton, es otro cosmólogo dispuesto a pensar más allá de las cuatro paredes de la
ortodoxia. En vez de utilizar, para un periodo de tiempo increíblemente breve, una
constante arbitraria, Lambda, con un valor muy distinto del que descartó Einstein o el que
introdujeron los inflacionistas, Steinhardt propuso que la energía oscura supuestamente
responsable del aparente aumento en el ritmo de expansión del universo es en realidad un
nuevo componente del universo.
Puesto que los cosmólogos ya habían considerado previamente que la evolución del
universo estaba determinado por cuatro componentes —bariones,[23] leptones,[24]
fotones[25] y materia oscura[26]—, Steinhardt decidió ponerle el nombre de quintaesencia
a este quinto elemento, rememorando la quinta esencia superior en la que creían los
antiguos griegos y que consideraban el elemento del que estaba constituida la esfera
celestial, a diferencia de los cuatro elementos básicos: tierra, aire, fuego y agua.
Su principal diferencia con respecto a Lambda es que, mientras que la constante
cosmológica tiene el mismo valor en todo el espacio y es inerte, la densidad de la
quintaesencia disminuye lentamente con el tiempo y su distribución en el espacio no es
uniforme. Los cosmólogos ortodoxos criticaron la quintaesencia destacando que las
observaciones obtenidas hasta la fecha no mostraban evidencias de variaciones temporales
o espaciales en la energía oscura. Lo cual descarta algunos modelos de quintaesencia pero,
según Steinhardt, sigue dando cabida a un amplio abanico de posibilidades.[27]
Sería más elegante un nuevo modelo que eliminara un Lambda arbitrario con un
valor cincuenta veces inferior a la Lambda arbitraria del modelo inflacionario. Sin
embargo, igual que sucede con el modelo ortodoxo, los modelos de quintaesencia no
consiguen explicar de dónde proviene esta energía oscura variable.
Posteriormente, Steinhardt y otros desarrollaron un modelo alternativo del universo
que dice proporcionar esta explicación. Lo examino a continuación.
El universo ecpirótico cíclico[28]

Esta alternativa al modelo cosmológico ortodoxo se basa en la teoría M, la última


versión de la teoría de cuerdas, que afirma que todo en el universo se reduce a cuerdas de
energía infinitamente pequeñas. Las distintas masas y propiedades, tanto de las partículas
elementales —electrones, neutrinos, quarks, etc. — como de las partículas de fuerza
asociadas a las cuatro fuerzas de la naturaleza —las fuerzas fuertes y débiles, el
electromagnetismo y la gravedad—, son simplemente un reflejo de las distintas formas de
vibración de estas minúsculas cuerdas unidimensionales.
La teoría M permite que las cuerdas se expandan, y una cuerda expandida se conoce
como una brana (una abreviatura de membrana); estas branas pueden tener 0, 1, 2, 3 o
cualquier cantidad de dimensiones. Con la energía suficiente, una brana puede alcanzar un
tamaño enorme y ser incluso tan grande como nuestro universo.
En 1999, Steinhardt y Neil Turok, entonces profesor de Física matemática en la
Universidad de Cambridge, asistieron en esa universidad a una conferencia de cosmología
en la que Burt Ovrut, teórico de cuerdas de la Universidad de Pensilvania, sugirió que
nuestro universo consiste en tres grandes dimensiones espaciales observables (altura,
anchura y longitud) en una brana, y seis dimensiones espaciales adicionales compactadas,
demasiado pequeñas para ser observadas, más una décima dimensión espacial —una línea
finita— que separa esta brana de la brana de otro universo, que tiene también tres
dimensiones espaciales grandes y seis dimensiones compactadas minúsculas. Como que ese
otro universo ocupa dimensiones distintas, queda oculto a nuestra percepción. Lo cual
planteó la pregunta de cómo podrían interactuar dos universos de este estilo.
Steinhardt y Turok llegaron a la conclusión de que si esa décima dimensión espacial
que separa los dos universos se contrajera hasta cero, la interacción liberaría una cantidad
de energía enorme, como la que se liberó en el Big Bang; además, creyeron que un
escenario de universos en colisión podría responder algunos de los problemas del modelo
del Big Bang inflacionario de la cosmología ortodoxa. Los tres científicos, más Justin
Khoury, uno de los estudiantes graduados de Steinhardt, desarrollaron entonces el modelo
del universo ecpirótico, llamado así por la palabra griega que significa «salido del fuego» y
que describe una antigua cosmología estoica en la que el universo experimenta un ciclo
eterno de ardiente nacimiento, enfriamiento y renacimiento.
Este modelo ecpirótico encontró también problemas y Steinhardt y Turok lo
desarrollaron para producir una versión cíclica que tiene el ambicioso objetivo de explicar
«toda la historia del universo, pasada y futura, bajo un punto de vista eficiente y unificado».
[29] Lo basaron en tres ideas:
a. El Big Bang no es el inicio del tiempo sino una transición a partir de una fase
anterior de evolución.
b. La evolución del universo es cíclica.
c. Los hechos clave que conformaron la estructura del universo se produjeron
durante una fase de contracción lenta de la décima dimensión antes del Big Bang y no
durante un periodo increíblemente breve de expansión inflacionaria después del Big Bang.
La construcción de su modelo matemático se basó en tres supuestos. Los dos
primeros son los siguientes:
1. La teoría M es válida. En particular, las partículas observables de nuestro
universo —protones, electrones, etc. — están en nuestra brana: cualquier partícula que se
encuentre en la brana del otro universo puede interactuar gravitacionalmente con partículas
de nuestra brana, pero no electromagnéticamente ni de ninguna otra manera.
2. Las dos branas se atraen mutuamente mediante una fuerza similar a la de un
muelle que es muy débil cuando las dos branas están a una distancia de miles de unidades
de longitud de Planck (que sigue siendo una distancia increíblemente pequeña), como
sucede en la actual fase de evolución del universo, pero cuya fuerza aumenta a medida que
las branas se acercan.
La figura 5.3 ilustra el ciclo.
«Usted está aquí» indica la fase actual del ciclo (la brana de la derecha es una
representación bidimensional de las tres dimensiones observables de nuestro universo). La
energía oscura dinámica (la quintaesencia) incrementa el ritmo de expansión del universo
de tal modo que, en el transcurso del próximo millón de millones de años, toda la materia y
la radiación se diluirán exponencialmente hasta que la densidad de la materia sea inferior a
un único electrón por mil millones de millones cúbicos de años luz de espacio: en efecto,
cada brana es un vacío casi perfecto y casi perfectamente plano.
En este punto, la fuerza de atracción entre branas toma el relevo. Al atraer las dos
branas, su fuerza aumenta y detiene la expansión acelerada de las branas. No existe
contracción de las tres dimensiones grandes de las branas, sino solo de la décima dimensión
adicional (una línea) que se sitúa entre ellas. A pesar de que cada brana es un vacío casi
perfecto, cada una de ellas posee una energía de vacío enorme. A medida que se aproximan,
los efectos cuánticos hacen que estas branas planas se ondulen antes de establecer contacto
y se separen con una liberación explosiva de energía que sería el Big Bang; las dos branas
rebotan y alcanzan la separación máxima casi de inmediato. Puesto que el contacto se
produce primero entre los picos ondulados, la explosión de energía no es exactamente
homogénea: los puntos calientes corresponden a los picos ondulados y los puntos fríos a las
depresiones. Cuando la bola de fuego de energía de cada brana se expande y se enfría, la
materia se condensa fuera de los puntos calientes y evoluciona en cúmulos galácticos,
mientras que los puntos fríos forman los vacíos intermedios.
Las branas se expanden a un ritmo decreciente, como en el modelo del Big Bang,
hasta que su densidad de energía queda lo suficientemente diluida para que domine la
densidad de energía potencial entre branas. Esta densidad actúa como una fuente de energía
oscura que acelera la expansión de las branas, con lo que se vuelve al inicio y el ciclo
continúa.
Pero a diferencia de lo que sucedía con los ciclos de Tolman, aquí no se produce
reciclaje de materia y la entropía no aumenta en cada ciclo; los ciclos ecpiróticos de
millones de millones de años se repiten eternamente.
Para que el modelo funcione se necesita un tercer supuesto.
3. Las branas sobreviven a la colisión. Esta colisión es una singularidad en el
sentido de que se produce la desaparición momentánea de una dimensión, pero las demás
dimensiones existen antes, durante y después de la colisión.
Steinhardt y Turok afirman que su modelo matemático posee todas las ventajas del
modelo ortodoxo del Big Bang inflacionario en cuanto a que predice la producción de
elementos en la proporción conocida hoy en día, un universo observable que es casi
homogéneo pero con heterogeneidades suficientes como para que se formen cúmulos de
galaxias mediante la atracción gravitacional de materia y las ondas observadas en un fondo
cósmico de microondas isotrópico.
Defienden que presenta la ventaja adicional de la parsimonia: requiere
modificaciones mínimas del modelo básico del Big Bang para ser consistente con la
observación. Las ondas de la materia y la energía de la radiación no surgen de un añadido
inflacionario, lo que invocaría una constante cosmológica arbitraria, sino que están ya
impresas en la liberación de energía del Big Bang que produce la ondulación de la brana
cuando las dos branas-universo vacías y frías se aproximan entre sí antes de establecer
contacto. La energía oscura no es la reaparición inexplicable de la constante cosmológica
con un valor considerablemente inferior; sino que, como quintaesencia dinámicamente
evolucionada, juega un papel fundamental a lo largo de cada ciclo. El problema de la
singularidad no existe porque ni la densidad ni la temperatura llegan al infinito durante la
transición desde la colisión de las branas hasta el Big Bang.
Más aún, el modelo responde a la pregunta de cómo se iniciaron el tiempo y el
espacio en el Big Bang. No se iniciaron. Desde la perspectiva de nuestro espacio de tres
dimensiones y una sola dimensión temporal, «parecen» haberse iniciado pero, en el
megaverso de diez dimensiones espaciales en el que está incrustado nuestro universo
observable tridimensional, el espacio es infinito y el tiempo es continúo: los ciclos se
prolongan eternamente.
La respuesta a esta hipótesis que tantos problemas resuelve, aparentemente, resulta
reveladora, sobre todo teniendo en cuenta que Steinhardt había desarrollado en un principio
un modelo inflacionario.[30] En el transcurso de una conferencia, Andrei Linde, fundador
de una de las conjeturas inflacionarias que el modelo ecpirótico desafía, dibujó la caricatura
de uno de los gráficos en forma de U utilizados por Turok y cortó por la mitad la U. En la
conferencia de la USA’s National Academic of Sciences de 2006, Alan Gurth, otro fundador
de la conjetura de la inflación, respondió a la presentación de Turok mostrando una
transparencia con un mono.[31] Respuestas de este estilo no cumplen con lo que sería un
debate razonable.
Para defender que el modelo del universo ecpirótico cíclico es fallido, otros teóricos
afirman que el tercer supuesto no es válido: argumentan que cuando las branas entran en
contacto, la dimensión extra que separa las dos branas pasa de ser infinitamente pequeña a
cero, se produce, pues, una singularidad y las leyes de la física se desmoronan, como
sucede en el modelo básico del Big Bang. Steinhardt reconviene diciendo que, debido a las
condiciones especiales que se obtienen cuando las dos branas colisionan, no se produce
ninguna singularidad, mientras que otros teóricos especulan que las branas rebotan y se
distancian antes de la colisión, evitando con ello una singularidad.[32]
Actualmente es imposible establecer —matemáticamente o a cualquier otro nivel—
quién lleva la razón, del mismo modo que actualmente es imposible establecer si en el
modelo básico del Big Bang existe o no una singularidad.
Si el modelo del universo ecpirótico cíclico pretende satisfacer su ambicioso
objetivo de explicar la historia del universo, tanto pasada como futura, con un enfoque
eficiente y unificado, deberá responder a cinco preguntas.
En primer lugar, ¿se conserva la energía? La materia y la energía de radiación
producidas por la colisión de las dos branas —una de las cuales crea el universo que vemos
ahora— no se transforman en nada. Al final del ciclo, permanecen en su brana, aunque
estresadas hasta tal nivel de dilución que sus componentes quedan más allá de sus
horizontes de contacto. En el ciclo siguiente, la colisión de branas produce una nueva masa-
energía que es exponencialmente mayor a la producida en el ciclo anterior.
Según Steinhardt y Turok, esto no viola el Principio de conservación de la energía.
Igual que en las otras conjeturas en competencia —a excepción de la cosmología del
plasma—, el modelo del universo ecpirótico cíclico afirma funcionar con gravedad: la
energía necesaria para producir continuamente nueva materia y nueva energía de radiación,
además de la energía cinética positiva necesaria para expandir esta materia casi
infinitamente densa contra la atracción gravitatoria de sus componentes, proviene del
campo de energía gravitatoria negativa que aumenta con cada ciclo. Ya he cuestionado la
validez de este argumento al hablar sobre la energía neta cero del universo en el capítulo 4.
[33] Depende del supuesto de que el cosmos se creó a partir de la nada; asume además que
la gravedad es una fuente de energía infinita.
En segundo lugar, ¿describe el modelo de universo ecpirótico cíclico un universo
eterno? Parece que sí, teniendo en cuenta que realiza dos supuestos adicionales:
4. Las tres dimensiones espaciales que observamos pueden expandirse, detenerse y
expandirse más en el ciclo siguiente, sin límite alguno de distancia; y
5. el número de ciclos es ilimitado.
Las ecuaciones permiten estos supuestos. Pero hacerlo significa extrapolar teoría
física basada en la evidencia no solo más allá de lo que es verificable, sino también hasta el
infinito; sacan el modelo del ámbito de la ciencia para convertirlo en una conjetura
filosófica.
Además, los supuestos cuarto y quinto plantean la pregunta de qué sucede si
hacemos retroceder los ciclos hasta el punto en que se inició la expansión. En 2004,
Steinhardt y Turok sugirieron que «la historia más probable es que los ciclos estuvieran
precedidos por un inicio singular»,[34] aunque posteriormente Steinhardt dijo que
eliminaría las palabras «más probable» porque los argumentos que había utilizado eran
débiles. La respuesta a la pregunta sobre si el modelo es realmente eterno permanece
abierta.[35] Pero no puede ser eterno si el universo aumenta de tamaño en cada ciclo
porque si retrocedemos en el tiempo, llegaríamos al punto en que la expansión sería
infinitamente pequeña, lo que daría lugar a una singularidad inicial.
Si hubo un inicio singular, Steinhardt y Turok consideran un efecto denominado
«túnel a partir de nada», una forma de crear cuánticamente espacio, tiempo, materia y
energía, todo en uno.[36] Pero esto dependería de la existencia previa de un campo
cuántico, lo cual no es «nada».
La tercera pregunta es: ¿cuál es la naturaleza de la fuerza que se produce entre las
branas, que sería similar a la que ejercería un muelle, y que actúa en esa hipotética décima
dimensión, y cómo podría verificarse su existencia? No tenemos información al respecto.
El cuarto conjunto de preguntas sería: ¿por qué dos branas-universo distintas
tendrían que estar tan cerca la una de la otra y, además, colocadas en paralelo? Se trata de
un supuesto matemáticamente exigido para que se cumpla la teoría M, donde la décima
dimensión espacial es una línea que une dos branas cuya existencia es necesaria para que
existan partículas con distintas propiedades de espín. En efecto, las dos branas-universo
comparten esta décima dimensión. Lo que implica que el universo va necesariamente por
parejas. ¿Pero por qué tendría que ser así, excepto para que la teoría M sea consistente con
la evidencia de que existen partículas con distintas propiedades de espín? En principio, la
longitud de esta línea de la décima dimensión no tiene límite; en la práctica, no puede tener
más de un milímetro pues, de lo contrario, la teoría M produce efectos gravitatorios
inconsistentes con lo que observamos. Witten y Horava sugirieron que, para que la teoría M
sea consistente con la observación, la dimensión adicional tendría que ser de unas diez mil
unidades de Planck (10-28 centímetros), y esta es la longitud que Steinhardt y Turok
adoptaron como hipótesis de trabajo. Y mantienen que las dos branas-universo son
paralelas porque curvarlas exigiría mucha energía y el ciclo repetitivo es lo que las
mantiene alineadas así.[37]
De ahí que la respuesta a este cuarto conjunto de preguntas dependa de la quinta
pregunta: ¿es válida esa teoría M en la que se basa todo? Consideraré esto de aquí a dos
secciones.
Steinhardt y Turok han dicho posteriormente que su modelo no se sustenta sobre la
teoría M. El modelo funciona cuando eliminamos las seis dimensiones espaciales,
demasiado pequeñas para ser observadas, y sustituimos la décima dimensión espacial (la
distancia entre las branas en la teoría M) por un campo escalar que desempeña el mismo
papel. El resultado es un modelo matemático que no es precisamente más exótico que los
modelos de la inflacion.[38] Y tampoco es empíricamente más verificable que muchos
modelos inflacionarios basados en un campo escalar igualmente arbitrario.
El paisaje de posibilidades de la teoría de cuerdas

A partir de la teoría de cuerdas surge otra conjetura. Leonard Susskind afirma que
no hay razón para limitar la vibración de las cuerdas de energía fundamental para que
produzcan solo aquellas partículas y fuerzas que nosotros observamos. En una miríada de
universos distintos, las cuerdas vibran de formas distintas para producir una miríada de
partículas y fuerzas distintas y, en consecuencia, una miríada de leyes físicas distintas y
constantes cosmológicas distintas, etc. Susskind lo denomina el «paisaje de posibilidades»
de la teoría de cuerdas.[39][40]
Esto respondería al problema de afinación de los parámetros cosmológicos: ¿por
qué nuestro universo emergió tal y como es cuando podría haber sido de otra manera? El
paisaje de posibilidades de la teoría de cuerdas significa que nuestro universo no tiene nada
de especial. Es simplemente un universo donde las cuerdas vibran de tal manera que
generan las leyes de la física y las partículas que observamos; en una miríada de universos
más, son distintas.
Problemas de la teoría de cuerdas

Una teoría que unifica partículas y fuerzas elementales, incluida la gravedad, y la


teoría cuántica y la de la relatividad es el santo grial de la física. La teoría de cuerdas, que
afirma hacer eso sustituyendo las sesenta y una partículas «elementales» del Modelo
Estándar de la Física de Partículas por una cuerda de energía, e incorporando la gravedad,
ha atraído a las mentes más brillantes de la física teórica, y no solo por su innegable
atractivo conceptual sino también por su elegancia matemática. Era aparentemente el
presagio de una nueva era en la física (una conferencia sobre teoría de cuerdas que se
celebró en Harvard llevaba el nombre de Seminario de física postmoderna) y sus defensores
están tan convencidos de que es cierta, que los hay que incluso han dejado de lado la norma
de la verificación experimental u observacional para buscar solo la demostración
matemática.
Pero esto plantea una pregunta con la que ya nos hemos tropezado antes:
¿constituyen realmente una teoría científica esos diversos modelos matemáticos (modelos
que pueden emplear de inmediato menos o más dimensiones que las tres dimensiones
espaciales y la única dimensión temporal que percibimos)? Según muchos y respetados
teóricos (incluyendo entre ellos al Premio Nobel Sheldon Glashow, al cosmólogo
matemático Sir Roger Penrose y al físico teórico y antiguo teórico de cuerdas Lee Smolin),
la respuesta es no. Las bases sobre las que se sustenta este punto de vista son las siguientes:
Teoría inadecuada
Las versiones iniciales de la teoría de cuerdas requerían veinticinco dimensiones de
espacio, una partícula que viajara a mayor velocidad que la luz y partículas que nunca
podían quedar en reposo.[41] Estas diferencias con el mundo que observamos serían, a
todas luces, un problema relevante para la teoría.
En vista del escepticismo despertado entre los teóricos físicos, los pioneros
desarrollaron la teoría de cuerdas durante la década de los 70 y hasta 1984, momento en el
cual John Schwarz y Michael Green convencieron a Ed Whiten, un destacado físico
matemático, de que una teoría de cuerdas que utilizara nueve dimensiones espaciales más la
supersimetría —de ahí la «supercuerda»— era una buena candidata para una teoría
unificada del todo. De pronto, la teoría de las supercuerdas se convirtió en el último grito de
la física teórica.
Surgieron entonces cinco teorías de cuerdas matemáticamente consistentes, cada
una de las cuales postulaba la existencia de diez dimensiones: una de tiempo, las tres
dimensiones espaciales que observamos, y seis dimensiones espaciales adicionales que son
demasiado pequeñas como para poder ser observadas. Pero algunas simetrías implicaban
que las teorías de cuerdas no podían explicar la existencia de partículas materia, como
electrones y neutrinos, con propiedades de espín a izquierda o a derecha (lo que se conoce
como quiralidad), tal y como exige la teoría cuántica. Además, la existencia de cinco teorías
distintas indicaba algún error. De modo que la teoría de cuerdas acabó pasando de moda.
Witten «solucionó» este segundo problema en 1995, cuando propuso que las cinco
teorías podían unirse en una teoría M que incorporaba al modelo una onceava dimensión.
Esto permite que las cuerdas se expandan en una brana, que puede tener todas las
dimensiones que se deseen.[42] No existe ninguna condición de simetría, lo que permite
que en una brana exista un universo con partículas con propiedades de espín a izquierda y
derecha. La teoría de cuerdas volvió a ponerse de moda.
Sin embargo, ni Witten ni nadie ha formulado todavía una teoría M más elaborada.
Tal y como Joan Magueijo, por aquel entonces profesor en el Imperial College de Londres,
expresó con su típica brusquedad, «la gente de la teoría M lo afirma [que todas esas teorías
de cuerdas y membranas se han unificado en un único invento, la teoría M] con tal fervor
religioso, que a menudo se pasa por alto que la teoría M no existe. No es más que una
expresión utilizada para referirse a una teoría hipotética que en realidad nadie sabe cómo
presentar».[43] Incluso David Gross, Premio Nobel, destacado teórico de cuerdas y antiguo
mentor de Witten, reconoce que «estamos todavía muy lejos de entender qué es realmente
la teoría de cuerdas».[44]
La teoría afrontó un tercer problema importante en 1998, cuando muchos
cosmólogos, en su interpretación de la oscuridad de las supernovas Tipo 1a con gran
desplazamiento al rojo, llegaron a la conclusión de que el universo inició una expansión
acelerada después de unos diez mil millones de años, y que esto exigía incorporar una
constante cosmológica positiva al modelo matemático ortodoxo.[45] Las teorías de las
supercuerdas revisadas no solo no habían predicho esto, sino que una de sus escasas
conclusiones había sido que la constante cosmológica solo podía ser igual a cero o
negativa. Witten reconoció en 2001: «No conozco ninguna manera clara de llegar al espacio
de De Sitter [un universo con una constante cosmológica positiva] a partir de una teoría de
cuerdas o una teoría M».[46]
Un grupo de teóricos de Stanford «solucionó» este tercer problema a principios de
2003 cuando presentaron otra versión en la que, entre otras cosas, envolvían teóricamente
con antibranas las seis dimensiones no observables y elegían valores de parámetros que
producían una constante cosmológica positiva.
Sin embargo, tanto el resultado de este como de otros trabajos implica la existencia
de 10.500, o una infinidad, de teorías de cuerdas. Susskind reconoció que «Podríamos decir
que la esperanza de que surja una solución matemáticamente única [a partir de este paisaje
de teorías de cuerdas] es un acto de fe similar al del DI [Diseño Inteligente]».[47] Lo cual
sitúa la teoría M, subyacente en el modelo, en el ámbito de la fe, no en el de la ciencia. Y
por lo que a la teoría de las supercuerdas se refiere, si existen infinitas versiones no hay
entonces ninguna que pueda falsarse, lo que la llevaría a no superar el test de Popper, sobre
lo que constituye una hipótesis científica.
En 2003, Dan Frieda, teórico de cuerdas desde 1985, llegó a la conclusión de que
«la teoría de cuerdas, tal y como se presenta en la actualidad, es incapaz de ofrecer
explicaciones precisas a los conocimientos que tenemos del mundo real y es incapaz de
realizar predicciones precisas. La fiabilidad de la teoría de cuerdas no puede evaluarse, y
mucho menos establecerse. La teoría de cuerdas, tal y como está actualmente, no posee
credibilidad para ser candidata a teoría fisica».[48]
Según Smolin, «la búsqueda por parte de la teoría de cuerdas de una teoría de la
naturaleza única y unificada ha llevado a conjeturar un número infinito de teorías, ninguna
de las cuales puede exponerse con detalle. Y si son consistentes, conducen a un número
infinito de universos posibles. Además de esto, todas las versiones que podemos estudiar
con cierto nivel de detalle discrepan de la observación. […] Los que creen en estas
conjeturas se hallan en un universo intelectual muy distinto al de aquellos que insisten en
creer solo lo que las evidencias sustentan».[49]
Estos universos distintos están separados por algo más que una diferencia de puntos
de vista con respecto a la necesidad de base empírica. Según Smolin y Peter Woit,[50] el
dominio de los teóricos de cuerdas en los comités estado que deciden los nombramientos y
las becas académicas en los Estados Unidos en el campo de la física teórica dificulta que
enfoques alternativos obtengan subvenciones. Dibujan la imagen de un culto que lleva a
cabo prácticas dudosas para acallar las opiniones discordantes de otros físicos. La amargura
de las disputas entre los teóricos de cuerdas y sus críticos queda ejemplificada con la
denigración que supuso la crítica que el profesor adjunto de Harvard, Lubos Motl, realizó
en Amazon.com del libro que Smolin publicó en 2006, Las dudas de la física en el siglo
xxi: ¿es la teoría de cuerdas un callejón sin salida?.[51] Woit contratacó el comentario con
otra crítica, alegando que la crítica de Motl era deshonesta y acusando a Motl de haber
ofrecido veinte dólares a todo aquel que publicara un comentario de su propio libro con la
máxima puntuación. Transcurrida una semana, Amazon eliminó ambas críticas.
Falta de base empírica
Una teoría en la que llevan trabajando los mejores cerebros del campo de la física
desde hace más de treinta años debería haber conseguido una base empírica importante. Sin
embargo, una cuerda es cien mil millones de millones de millones más pequeña que los
protones del núcleo de un átomo. Dicho de otro modo, si escaláramos un átomo al tamaño
del sistema solar, una cuerda tendría el tamaño de una casa. Lo cual significa que no existe
por el momento forma alguna de poder detectar cuerdas.
De todas maneras, defensores de la teoría de cuerdas, como Brian Green, creen —el
verbo «creer» se utiliza más de lo que cabría esperar en las publicaciones científicas y en
las entrevistas a científicos especialistas— que las predicciones de la teoría son validables.
Uno de los requisitos de las teorías de las supercuerdas es la supersimetría, que afirma que
para cada partícula subatómica que conocemos, como podría ser un electrón o un protón,
existe una pareja mucho más potente denominada «super compañera». Pero la
supersimetría no depende de la teoría de cuerdas —hay otras hipótesis, como la extensión
supersimétrica mínima del Modelo Estándar y la gravedad cuántica de bucles que la exigen
o son compatibles con ella[52]— y, en consecuencia, no es una predicción única cuya
confirmación validaría la teoría de cuerdas. Además, nadie ha detectado nunca una súper
compañera. A pesar de que hay investigadores que albergan esperanzas, parece poco
probable que ni siquiera el renovado Gran Colisionador de Hadrones, que en 2015 inició
operaciones de energía mucho más potentes, pueda conseguirlo.
La predicción fundamental de la teoría de las supercuerdas por lo que respecta al
origen de nuestro universo es que existen otras dimensiones con las que no podemos
comunicarnos. Greene cree que es una predicción demostrable, incluso validable, utilizando
otra predicción de las teorías de las supercuerdas, esta vez sobre los gravitones, hipotéticas
partículas desprovistas de masa que transmitirían la fuerza de gravedad. Las teorías de las
supercuerdas defienden que si en nuestro universo la gravedad es tan débil en comparación
con las demás fuerzas de la naturaleza, es porque las cuerdas de las que consisten los
gravitones son bucles cerrados que no están confinados a la brana en la que existe nuestro
universo de tres dimensiones espaciales observables: un gravitón puede moverse hacia otras
dimensiones. Por lo tanto, si un detector de partículas observara la desaparición repentina
de un gravitón, habría una base experimental suficiente para sustentar la predicción de la
teoría de cuerdas sobre la existencia de dimensiones adicionales. Sin embargo, nadie ha
detectado todavía un gravitón, y mucho menos un gravitón que desaparezca de forma
repentina.
De ahí que debamos llegar a la conclusión de que no existe forma predecible de
verificar las afirmaciones de los teóricos de las supercuerdas y de que su principal
reivindicación es, a todas luces, no comprobable.
A pesar de que la idea de que toda la energía y la materia consisten en cuerdas de
energía me resulta intuitivamente más atractiva que la de sesenta y una partículas
fundamentales, en este momento no es más que una idea que ha cosechado diversas
expresiones matemáticas. A partir de aquí utilizaré la expresión conjetura de cuerdas o
«teoría» de cuerdas para dejar claro que esta idea no satisface el criterio principal de una
teoría científica, tal y como hoy en día la entendemos.
El universo y sus definiciones

Como hemos visto, la palabra «universo» se aplica hoy en día a cosas muy distintas.
Para evitar malentendidos, definiré el concepto tanto de este término como de términos
relacionados.
Universo: toda la materia y energía que existe en la única dimensión de tiempo y
las tres dimensiones de espacio que perciben nuestros sentidos.
Universo observable: la parte del universo que contiene materia capaz de ser
detectada mediante la observación astronómica. Según la cosmología ortodoxa actual,
queda circunscrito por la velocidad de la luz y por el tiempo, puesto que la materia y la
radiación se escindieron unos 380.000 años después de que el universo empezara a existir a
partir del Big Bang.
Megaverso: un hipotético universo con más dimensiones en el que estaría
incrustado nuestro universo de tres dimensiones espaciales. Algunas especulaciones
defienden que el cosmos comprende muchos megaversos.
Cosmos: todo lo que existe, incluyendo varias dimensiones hipotéticas adicionales
a las tres dimensiones de espacio y una de tiempo que percibimos, así como otros universos
con los que no tenemos contacto físico y de los que no podemos obtener información
observable o experimental.
Multiverso: un cosmos hipotético que contiene nuestro universo más múltiples, e
incluso infinitos, universos con los que no tenemos contacto físico y de los que no podemos
obtener información observable o experimental. Se han propuesto distintos tipos de
multiverso, cada uno con distintas propiedades.
Conclusiones

Ninguna modificación del modelo del Big Bang inflacionario ni ninguna otra
conjetura proporcionan hoy en día una explicación científica satisfactoria, excepto
matemática, al origen de la materia de la que estamos formados ni a por qué el universo
adoptó la forma, y no otra, que permitió la evolución del ser humano.
Tiene que haber una explicación —y es posible que alguna de estas conjeturas acabe
proporcionándola—, pero la cosmología actual tiene problemas para superar los test que
diferencian la ciencia de la creencia con carácter especulativo. Consideraré este tema en el
siguiente capítulo.
[1]Hawking (1988), pp. 132–141.
[2]Véase página 85.
[3]Penrose (2004), pp. 769–772.
[4]Linde (2001).
[5]Véase página 113.
[6]Citado en Science & Technology News, 1 de mayo de2004, p. 3.
[7]Guth (1997), pp. 250–252.
[8]Linde (2001).
[9]Borde, Arvind y Alexander Vilenkin, «Eternal Inflation and the Initial
Singularity», Physical Review Letters 72: 21, 1994, pp. 3305–3308.
[10]Magueijo (2003).
[11]Barrow, John D., «Einstein and the Universe», Conferencia ofrecida en
Gresham College, Londres, 18 de octubre de 2005.
[12]El efecto acumulativo de pequeños cambios genéticos que se producen en
generaciones sucesivas de los miembros de una especie que conduce al dominio de aquellos
miembros cuyas mutaciones los hacen más adaptados para competir y sobrevivir; las
mutaciones acaban produciendo una nueva especie cuyos miembros no se reproducen con
los de la especie original.
[13]Smolin (1998), pp. 112–132.
[14]Véase página 95 para el argumento de Guth sobre la energía neta cero del
universo.
[15]Ashtekar, Abhay, et al., «Quantum Nature of the Big Bang: An Analytical and
Numerical Investigation», Physical Review D (Particles, Fields, Gravitation, and
Cosmology), 73: 12, 2006, 124038.
[16] Véase Masa de Planck en el glosario para una explicación más completa.
[17]Narlikar y Burbidge (2008), capítulo 15.
[18]Véase página 75.
[19] Véase página 146.
[20]Ned Wright, tutorial sobre Cosmología, 2004,
http://www.astro.ucla.edu/~wright/stdystat.htm.
[21]Lerner (1992), actualizado en
http://www.bigbangneverhappened.org/index.htm.
[22]Scarpa, Riccardo, et al., «UV Surface Brightness of Galaxies from the Local
Universe to Z ~ 5», International Journal of Modern Physics, D 23: 6, 2014,1450058.
[23] Partículas subatómicas pesadas, como los protones y los neutrones.
[24] Partículas elementales ligeras o prácticamente carentes de masa que no
interactúan a través de la fuerza nuclear fuerte, como los electrones.
[25] Cuantos de energía electromagnética carentes de masa.
[26] La forma o formas desconocidas de materia no radiante invocadas para que la
teoría sea consistente con la observación.
[27]Steinhardt, comunicación personal, 24 de junio de 2007.
[28] Steinhardt lo denomina universo cíclico, pero yo utilizo el término universo
ecpirótico cíclico para diferenciarlo de otros modelos cíclicos, como el universo oscilante
cíclico de Tolman y los ciclos de la cosmología de estado cuasi-estacionario.
[29]Steinhardt, Paul J. y Neil Turok, «The Cyclic Model Simplified», Departamento
de Física, Princeton University, 2004. http://www.phy.princeton.edu/~steinh/dm2004.pdf.
Consultado el 11 de marzo de 2007.
[30] Véase página 68.
[31]Leake, Jonathan, «Exploding the Big Bang», The Sunday Times, Londres, 20 de
Agosto de 2006, p. 14.
[32]Steinhardt, comunicación personal, 9 de marzo de 2007.
[33] Véase página 95.
[34]Steinhardt y Turok (2004), (2007).
[35]Steinhardt, comunicación personal, 12 de marzo de 2007.
[36]Ibid.
[37]Steinhardt, comunicación personal, 30 de abril y 7 de mayo de 2007.
[38]Steinhardt, comunicación personal, 20 de agosto de 2014.
[39]Susskind (2005).
[40] Susskind lo denominó «megaverso», pero como he utilizado este término para
describir el universo de diez dimensiones espaciales de la teoría de las súper-cuerdas,
etiquetaré la versión de Susskind como una especulación sobre el cosmos, pues invoca una
miríada de megaversos.
[41]Smolin (2007), p. 105.
[42] Una partícula punto se considera una brana de cero dimensiones, una cuerda
como una brana de una dimensión, una membrana es una brana bidimensional, y así
sucesivamente.
[43]Magueijo (2003), p. 239.
[44]Gross, David «Viewpoints on String Theory», WGBH, 2003,
http://www.pbs.org/wgbh/nova/elegant/view-gross.html. Consultado el 15 de Agosto de
2006.
[45]Véase página 90.
[46]Citado en Smolin (2007), p. 154.
[47]Citado en ibíd., p. 197.
[48]Friedan, D., «A Tentative Theory of Large Distance Physics», Journal of High
Energy Physics, 2003, 10, pp. 1–98.
[49]Smolin (2007), p. 198.
[50]Woit (2006)
[51]Las dudas de la física en el siglo xxi: ¿es la teoría de cuerdas un callejón sin
salida?, Crítica, Barcelona, 2007.
[52]Smolin (2007), p. 176.
CAPÍTULO 6. LOS PROBLEMAS DE LA COSMOLOGÍA COMO MEDIO
EXPLICATIVO

Cuando los científicos generamos ideas teóricas deberíamos ser temerariamente


radicales, pero a la hora de interpretar las evidencias, todos deberíamos ser
tremendamente conservadores.

Peter Coles, 2007

La fe en la teoría suele triunfar sobre las evidencias.

George Ellis, 2005

Para que una explicación sea científica, debe ser verificable. Y de un modo más
concreto, los criterios científicos generalmente aceptados decretan que la validez de la
explicación de una cosa depende de nuestra capacidad de detectar y compilar, y a ser
posible medir, datos al respecto de dicha cosa, interpretar correctamente esos datos y
extraer una conclusión provisional, o hipótesis, a partir de los datos a modo de base a partir
de la cual realizar predicciones o retrodicciones que puedan ser verificadas mediante
observación o experimentación y que verificadores independientes puedan confirmar o
rechazar.
La cosmología es distinta de otras ramas de la ciencia, como la química o la
biología, en tres aspectos: solo tenemos un universo; formamos parte de él; y es
incomparablemente grande. No podemos experimentar con él cambiando su temperatura, su
presión o sus condiciones iniciales, por ejemplo, ni tampoco podemos compararlo con otros
universos porque, por definición, el universo es todo lo que nuestros sentidos pueden
percibir; no podemos observarlo desde el exterior; y su tamaño presenta retos colosales.
Estos factores juegan un papel muy importante en cuatro problemas interrelacionados a los
que se enfrenta la cosmología en su intento de explicar el origen y la evolución de la
materia: dificultades prácticas, interpretación de los datos, teoría inadecuada y limitaciones
intrínsecas.
Dificultades prácticas

Las dificultades prácticas se dividen en dos categorías: límites de detección y


problemas de medición.
Límites de detección

Si la teoría de la relatividad es válida, no existe nada capaz de viajar más rápido que
la velocidad de la luz. Y esto crea el horizonte de partículas.
Horizonte de partículas: es imposible estar causalmente influidos, obtener
información e interactuar con toda partícula, independientemente de que tenga masa
positiva o masa cero, que esté más alejada de nosotros que la distancia que pueda recorrerse
a la velocidad de la luz desde que empezó el tiempo.
Si el relato de la cosmología ortodoxa actual es válido, nos enfrentamos a un
segundo límite de detección.
Horizonte visual: según el modelo del Big Bang, solo podemos retroceder hasta el
momento de la escisión entre materia y radiación electromagnética (estimado actualmente
380.000 años después del Big Bang) porque antes de eso los fotones estaban dispersos por
la interacción continua del plasma inicial, lo que hacía que el universo fuera opaco.
Lo que significa que no podemos detectar radiación electromagnética de épocas
anteriores.
Problemas de medición

El desarrollo de la tecnología desde los años 60 del siglo pasado ha permitido la


aparición de un amplio abanico de medios y métodos más precisos para la detección de los
fenómenos cósmicos. En la actualidad, no solo podemos realizar observaciones visuales,
sino que además podemos detectar emisiones en todo el espectro electromagnético de ondas
de radio, microondas, luz infrarroja, luz visible, luz ultravioleta, rayos X y rayos gamma.
Inventos como los dispositivos de carga acoplada y la fibra óptica, junto con la capacidad
de situar detectores en el espacio por encima de la atmósfera terrestre, hacen que las
mediciones sean mucho más precisas. Todo esto ha generado una gran riqueza de datos en
los últimos cincuenta años. Pero, según el cosmólogo George Ellis, «el problema
subyacente de la astronomía es determinar la distancia a la que se encuentran los objetos
observados».[1]
Muchos parámetros cosmológicos fundamentales, como la edad de los objetos
celestes y la edad y el ritmo de expansión del universo, dependen de la determinación de las
distancias. Pero los astrónomos no pueden realizar mediciones directas de esas distancias
tal y como lo hacemos con los objetos en la Tierra, del mismo modo que tampoco pueden
utilizar el brillo como medida de distancia porque, a pesar de que el brillo de las estrellas y
las galaxias es más débil cuanto más alejadas de nosotros están, estos objetos estelares tiene
distintos brillos intrínsecos, lo que técnicamente se conoce como luminosidades. En
consecuencia, los astrónomos calculan la distancia a la que se encuentran las estrellas
cercanas mediante paralaje, trigonometría local con la que calculan los ángulos delimitados
por una estrella desde distintas posiciones de la Tierra a medida que esta traza su órbita
alrededor del sol. Calculan la distancia de objetos más remotos a partir de una serie de
indicadores de distancia, lo que se conoce comúnmente como «candelas estándar», que son
objetos cuya luminosidad consideran conocer con precisión los astrónomos. Comparan la
luminosidad observada de una candela estándar con su luminosidad conocida para así
calcular la distancia que la separa de nosotros y, posteriormente, la distancia de un objeto
más grande (una galaxia, por ejemplo) de la que forma parte. Las candelas estándar más
utilizadas son las variables cefeidas, estrellas amarillas gigantes que se iluminan y se
oscurecen de manera muy regular y cuyo periodo de variación depende de su luminosidad
intrínseca. Para los objetos más remotos, los cosmólogos ortodoxos utilizan el
desplazamiento al rojo del objeto, el desplazamiento en la longitud de onda de su radiación
hacia el extremo rojo del espectro.
Las candelas estándar, sin embargo, son menos estándar de lo que algunos anuncios
de distancias podrían llevar a pensar. Por ejemplo, en 1956, un grupo de astrónomos
descubrió que las variables cefeidas eran de dos tipos y que, además, eran más variables de
lo que se suponía. No sería muy científico asumir que, a medida que los métodos de
observación mejoren y el volumen de datos aumente, no habrá más supuestos o
interpretaciones que acaben resultando falsos.
Además, la luminosidad observada de una candela estándar lejana podría quedar
oscurecida por el gas y el polvo interestelar, o escondida por el brillo de estrellas o galaxias
que se interpongan en el campo visual. Ajustar estos factores es complicado y exige
supuestos que, en el mejor de los casos, sean menos que indiscutibles.
Los astrónomos han descubierto también que la Tierra no solo orbita alrededor del
sol a 30 kilómetros por segundo mientras el sol traza su órbita al centro de la Vía Láctea a
220 kilómetros por segundo, sino que además nuestra galaxia viaja a 200 kilómetros por
segundo hacia el centro de un cúmulo local de galaxias, que a su vez se cree que se mueve
más o menos la misma velocidad, pero en distinta dirección, hacia el centro del
supercúmulo local.[2] Cada uno de estos descubrimientos ha exigido realizar ajustes a la
supuesta velocidad de un cuerpo celestial alejado de la tierra calculada a partir de su
desplazamiento al rojo. Los cosmólogos ortodoxos utilizan el desplazamiento al rojo para
calcular no solo la distancia de objetos cósmicos muy remotos —y, por lo tanto, muy
jóvenes—, sino también el ritmo de expansión del universo y, en consecuencia, la edad del
universo.
Estimaciones de la edad del universo
Una de las consecuencias de estos problemas de medición ha sido la variabilidad de
las estimaciones de la edad del universo. La primera estimación de Hubble fue de menos de
quinientos millones de años.[3] Incluso en un momento tan tardío como los años 50 del
siglo pasado, los astrónomos calculaban que la edad del universo era de dos mil millones de
años, mientras que la datación de las rocas mediante radiactividad ha demostrado que la
edad de la Tierra era como mínimo de tres mil millones de años. Allan Sandage, el sucesor
de Hubble en Mount Wilson, estimó una edad de veinte mil millones de años, mientras que
Gérard de Vaucouleurs, de la Universidad de Texas, defendió diez mil millones de años.
En 1994, un equipo internacional de astrónomos utilizó el telescopio espacial
Hubble para realizar la medición de distancia más precisa hasta aquella fecha de la galaxia
M100 y llegó a la conclusión de que el universo tenía entre ocho y diez mil millones de
años de antigüedad.[4]
En 2003, después de la observación de toda la orbe celeste mediante el satélite
espacial Wilkinson Microwave Anisotropy Probe (WMAP), el investigador jefe de la
operación, Charles L. Bennett, declaró que la edad del universo era de 13,7 miles de
millones de años, con un margen de error del uno por ciento.[5] Esta datación fue revisada
en 2013, con los datos aportados por el telescopio Planck, y se estableció en 13,82 miles de
millones de años.[6]
Viendo las dificultades prácticas que conlleva la detección y medición de los datos
que sustentan estas estimaciones, cualquier científico caería en un error si no anticipara que
futuros descubrimientos acabarán alterando las estimaciones actuales. Sobre todo teniendo
además en cuenta que los datos están siempre sujetos a interpretaciones distintas.
La interpretación de los datos

Antes de que, en 1610, Galileo utilizara un telescopio para estudiar los planetas, las
observaciones podían interpretarse como que los planetas, incluyendo la Tierra, giraban
alrededor del sol o que el sol y los planetas giraban alrededor de la Tierra; ambas teorías
eran consistentes con los datos disponibles. Prácticamente todos los observadores
adoptaron la segunda interpretación. Se equivocaban, claro está, pero sus creencias
religiosas determinaban su interpretación.
Gran parte de la literatura cosmológica evoca interpretaciones guiadas por las
creencias. Los defensores de las distintas hipótesis cosmológicas suelen aprovechar o
interpretar las evidencias para que respalden sus creencias. Y esto aplica tanto a quienes
sostienen interpretaciones ortodoxas como a aquellos que las desafían.
Por otro lado, tendemos a prestar más atención a las conclusiones extraídas de la
observación que a los supuestos —normalmente no explícitos— que sustentan dichas
conclusiones. En el caso de la cosmología, estos supuestos son con frecuencia
cuestionables.
Edad del universo

La conclusión aceptada en 2003 por Bennett y el equipo de la NASA de que los


datos del WMAP mostraban que la edad del universo es de 13,7 miles de millones de años
± 1 por ciento depende de diversos supuestos. Uno de ellos es el valor de la constante de
Hubble. Según Rowan-Robinson, las estimaciones de esta constante han «seguido siendo
un tema de intensa controversia durante los últimos treinta años».[7] Tres años después del
anuncio de Bennett, un equipo de investigación liderado por Alceste Bonanos, de la
Carnagie Institution de Washington, utilizó lo que afirma que es un sistema de medición
más preciso de la distancia hasta la galaxia M33 para proponer una reducción de un 15 por
ciento en la constante de Hubble, lo que situaría la edad del universo en 15,8 miles de
millones de años,[8] confirmando la conclusión de Rowan-Robinson de que todavía
necesitamos una estimación más precisa de la edad del universo.[9]
Y mientras que, por un lado, los cosmólogos ortodoxos cuestionan la edad
generalmente aceptada del universo, la interpretación ortodoxa de los datos y los supuestos
que sustentan las estimaciones de la edad del universo también se ve desafiada. Por
ejemplo, el físico del plasma Eric Lerner afirma que las estructuras que vemos en el
universo —como los súpercúmulos de galaxias como la Gran Muralla y los enormes vacíos
que hay entre ellos— deben de haber necesitado más de cien mil millones de años para
formarse.[10] Su interpretación de los datos se ha visto desafiada a su vez por el firme
defensor de la ortodoxia actual de la cosmología, Ned Wright.11
Desplazamiento al rojo de las supernovas Tipo 1a

Como vimos en el capítulo 4, el descubrimiento de que las supernovas Tipo 1a con


gran desplazamiento al rojo —objetos muy brillantes pero de vida corta que se considera
que son el resultado de la explosión de estrellas enanas blancas— eran más oscuras de lo
esperado, fue interpretado por los cosmólogos ortodoxos como que el ritmo decreciente de
expansión del universo después del Big Bang había cambiado para volverse creciente.
Mientras que otros estudios afirman apoyar esta interpretación, dependen de interpretar
todos los desplazamientos al rojo como método de medición de la distancia (véase abajo).
Además, el brillo de las supernovas Tipo 1a puede verse oscurecido por el polvo
interestelar, como defiende la cosmología del estado cuasi-estacionario,[11] o, como sucede
con las variables cefeidas, su luminosidad podría no ser tan estándar como los astrónomos
suponen actualmente.
Aceleración aparente del ritmo de expansión del universo

En el capítulo 4 vimos también que los cosmólogos ortodoxos atribuían su


interpretación de esta oscuridad a una aceleración del ritmo de expansión del universo
provocada por una misteriosa energía oscura. Lo representaban matemáticamente
reintroduciendo la constante cosmológica arbitraria Lambda con un valor muy distinto del
que Einstein había descartado o del que los inflacionistas habían utilizado; lo interpretaban
como el punto cero del campo cuántico de energía del universo, a pesar de que su valor
calculado es un gigantesco 10120 veces mayor que el que sería consistente con su
interpretación del ritmo de expansión del universo.
Kunz y sus colegas, Rasanen y Lieu, ofrecieron distintas interpretaciones a los datos
que dejan de lado la energía oscura, mientras que Ellis ofreció otras interpretaciones,
añadiendo que «La cosmología ortodoxa actual considera estas propuestas poco atractivas,
lo cual no demuestra que sean incorrectas».[12]
Como se comentó en el capítulo 5, Steinhardt y Turok defienden que la energía
oscura no es una constante arbitraria sino un ingrediente básico del universo que cambia de
forma dinámica, la quintaesencia mientras que los defensores de la cosmología de estado
cuasi-estacionario defienden que esta cosmología explica igualmente los datos de las
supernovas sin necesidad de recurrir a ninguna energía oscura misteriosa.[13]
Desplazamiento al rojo

Una de las interpretaciones más críticas de los datos es la que argumenta que el
desplazamiento al rojo siempre es una medida de la distancia y, combinada con la constante
de Hubble, es también una medida de la velocidad de recesión y, por lo tanto, de la edad de
los objetos celestes. En el capítulo 3 se expuso que Halton Arp. Geoffrey Burbidge y otros
desafiaban esta interpretación.[14]
La clave de este conflicto de interpretación es la naturaleza de los cuásares,
conocidos también como objetos cuasi-estelares. Estas potentes fuentes de emisiones
variables de ondas de radio fueron detectadas en 1961 e identificadas al principio con
minúsculos objetos visibles que se creía que eran estrellas de nuestra galaxia. Sin embargo,
cuando se analizó el espectro de su luz, se vio que eran desplazamientos al rojo muy
elevados. Se detectaron entonces otros objetos diminutos también con un elevado
desplazamiento al rojo; pero estos objetos no emitían ondas de radio sino luz visible,
principalmente azul, que variaba en periodos de días, y muchos de ellos emitían además
potentes rayos X que variaban en periodos de horas en comparación con los años o meses
de los que emitían ondas de radio.
Los cosmólogos ortodoxos interpretaron los elevadísimos desplazamientos al rojo
como que estos cuásares eran extremadamente remotos y se alejaban de nosotros a
velocidades de hasta el 95 por ciento la velocidad de la luz. Argumentaban que debido al
tiempo que tardaba su luz en llegar hasta nosotros, lo que veíamos ahora eran esos cuásares
cuando tanto ellos como el universo eran muy jóvenes. El problema estaba en explicar por
qué esas distancias tan enormes daban a entender que sus emisiones electromagnéticas eran
el equivalente a las de mil galaxias combinadas, mientras que su pequeño periodo de
variación en emisión daba a entender que esas fuentes eran muy pequeñas; además, solo
una veinteava parte de ellos emitía ondas de radio, mientras que la mayoría emitía luz
visible y rayos X, y algunos también rayos gamma.
En los años 80, los cosmólogos ortodoxos llegaron a una interpretación consensuada
razonable. La causa de esas emisiones ópticas y de rayos X tan enormes era un disco de gas
y polvo muy caliente que giraba y había sido absorbido por un gigantesco agujero negro
situado en el centro de una galaxia muy joven, mientras que las emisiones de radio eran
debidas a chorros expulsados a lo largo del eje de rotación, igual que se había observado en
la formación de estrellas. Era simplemente nuestro ángulo de visión lo que diferenciaba las
potentes fuentes de radio de las potentes fuentes ópticas y de rayos X.[15]
Arp, Burgidge y otros reivindicaron, sin embargo, que sus estudios de cuásares con
desplazamiento al rojo elevado muestran a muchos de estos cuásares alineados a lado y
lado de galaxias cercanas activas y, en algunos casos, con un vínculo físico con esas
galaxias; además, los análisis muestran un incremento de brillo y una disminución del
desplazamiento al rojo a medida que aumenta la distancia con respecto a la galaxia madre.
Interpretaron que estos datos sugieren que estos cuásares son pequeñas protogalaxias
expulsadas a una velocidad próxima a la de la luz desde agujeros negros situados en el
núcleo de galaxias activas, y que de ahí evolucionaron a galaxias, volviéndose así más
brillantes a medida que aumentaron su distancia de la galaxia madre a la vez que
desaceleraban.
En 2007, Michael Rowan-Robinson, presidente de la Royal Astronomical Society,
descartó la idea: «La historia de la anomalía del desplazamiento al rojo terminó hace treinta
años. Algunas de estas asociaciones son casuales, otras debidas a la lente gravitacional».
[16] Pero Burbridge mantuvo que lo que refuerza su interpretación es la acumulación de
datos en el transcurso de los últimos treinta años.
A menos que esto pueda explicarse argumentando que la materia oscura próxima a
las galaxias brillantes origina, a través de la lente gravitacional, el brillo de los cuásares
débiles que están lejanos —y no existe ningún modelo gravitacional de este estilo que
resulte satisfactorio—, la mayoría de los cuásares no están muy lejanos. La única salida que
le queda a la gente convencional es llegar a la conclusión de que todas las configuraciones
son accidentales y/o que las estadísticas son erróneas […]. Los datos siguen acumulándose.
En 2005, Margaret Burbridge y sus colegas mostraron un cuásar que emite rayos X y con
un desplazamiento al rojo de 2,1 a solo 8 segundos de arco de la galaxia activa NGC 7619.
La probabilidad de que esto sea casual es de una entre diez mil. Y hay muchos, muchísimos
más casos similares en la literatura.[17]
Pero, según Arp, no hay tantos como debería haber. Asegura que le cuesta mucho
conseguir publicar sus trabajos en revistas científicas. En 1998, reprodujo algunos de los
intercambios que ha mantenido con árbitros anónimos, a quienes calificó de
«manipuladores, taimados, insultantes, arrogantes y, sobre todo, rabiosos».[18] Este punto
de vista fue corroborado por Burbridge, que declaró que los que dominan la cosmología no
son científicos observacionales, sino teóricos matemáticos que solo prestan una atención
secundaria a los datos. «Ignoran por completo nuestros puntos de vista sobre la cosmología
y en el transcurso de los últimos veinte años, ha habido muchos intentos exitosos enfocados
a dejar de darnos invitaciones y hacer otras cosas para impedirnos intervenir en
conferencias cosmológicas. Seguramente lo hacen porque cuando tenemos una plataforma
para poder explicarnos resultamos bastante convincentes».[19]
Se trata de científicos respetables. Arp es tal vez el astrónomo especializado en
observación extragaláctica más experimentado que existe. Trabajó durante veintinueve años
en el observatorio Palomar y luego se incorporó al prestigioso Max Planck Institute, en
Alemania; entre sus galardones destaca el Helen B. Warner Prize de la American
Astronomical Society. Burbridge fue profesora de astrofísica de la Universidad de
California, San Diego y en 2005 recibió la medalla de oro de la Royal Astronomical
Society. Sus quejas por la represión a las alternativas al punto de vista ortodoxo fueron
replicadas por Richard Lieu.[20]
Esta interpretación alternativa de algunos desplazamientos al rojo tiene algo que me
sorprende: si las protogalaxias se expulsan a una velocidad próxima a la de la luz desde el
núcleo de galaxias existentes y activas, ¿por qué no se expulsan aleatoriamente, de modo
que haya la misma cantidad aproximada de protogalaxias expulsadas hacia nosotros que
expulsadas lejos de nosotros, lo que produciría, en consecuencia, tanto desplazamientos al
azul elevados como desplazamientos al rojo elevados?
Arp hizo hincapié en este asunto en el análisis que realizó en 2008 —como parte del
en el Two-degree-Field (2dF) Galaxy Redshift Survey— de un cúmulo integrado por
catorce cuásares con desplazamiento al rojo elevado situado alrededor de la galaxia AM
2330-284.[21] Afirma que sus desplazamientos al rojo se sitúan en un estrecho rango mayor
e inferior que la velocidad de recesión cósmica de la galaxia; esto sería consistente con que
fueran expulsados aleatoriamente de la galaxia madre a velocidades de más y menos 1.800
kilómetros por segundo. Esto es mucho menos que la velocidad de la luz, puesto que la
masa de los objetos expulsados aumenta con el tiempo y, para conservar la inercia, tienen
que reducir la velocidad.[22] Arp basa esta interpretación en la hipótesis de la masa
variable de Hoyle Narlikar, que forma parte de su teoría de la gravitación que defiende que
la materia de nueva creación empieza con masa cero y va aumentando con el tiempo a
través de la interacción con el resto de materia del universo.[23]
Arp tal vez esté equivocado, igual que podrían estar equivocados Burbridge y todos
los que han desafiado la interpretación ortodoxa del desplazamiento al rojo. Sin embargo,
hasta que los cosmólogos ortodoxos no entablen un debate razonado con Arp y otros
científicos reconocidos que plantean interpretaciones distintas de los datos y dejen de
ignorarlos o denigrarlos, seguirá colgando un interrogante sobre la interpretación ortodoxa
de todos los desplazamientos al rojo y, por ende, sobre el modelo del Big Bang.
Ondulaciones en el fondo cósmico de microondas

La actitud de creer, en vez de razonar, queda reflejada en el lenguaje que se utiliza a


menudo para anunciar resultados. Por ejemplo, cuando el director de investigación, George
Smoot, anunció en 1992 que el satélite Cosmic Background Explorer (COBE) había
descubierto extensas ondulaciones con densidad del 0,001 por ciento en el fondo cósmico
de microondas (FCM), afirmó que aquello era como «ver la cara de Dios». Stephen
Hawking dijo que el COBE había hecho «el descubrimiento del siglo, sino de todos los
tiempos».[24] «Han encontrado el Santo Grial de la cosmología», declaró el astrónomo de
Chicago, Michael Turner, cuando se realizó el anuncio en la American Physical Society,
Washintgon.[25]
La razón para tanta euforia fue que la mayoría de cosmólogos interpretaron los
datos del COBE como la prueba del modelo ortodoxo del Big Bang inflacionario,
basándose en que las ondulaciones eran un reflejo de las heterogeneidades del plasma en el
momento en que los fotones se escindían del plasma. Supusieron que estas
heterogeneidades eran consecuencia de la expansión inflacionaria de fluctuaciones
cuánticas que tuvieron lugar en el Big Bang y que eran las semillas de la estructura de las
galaxias, los cúmulos de galaxias y los supercúmulos separados entre sí por inmensos
vacíos. Sommot y su colega, John Mather, del Goddard Flight Center, compartieron el
Premio Nobel de Física en 2006 por su trabajo en la detección de las ondulaciones.
Un editorial publicado en la revista Nature a la semana siguiente de la euforia
adoptó una postura más sobria:
La sencilla conclusión, que los datos autentificados hasta el momento son
consistentes con la doctrina del Big Bang, se ha amplificado en los periódicos y en los
informativos hasta transformarla en la prueba de que «sabemos cómo» empezó el universo.
Lo cual no deja de ser motivo de alarma.
El artículo continuaba mencionando los problemas que planteaba que esas
ondulaciones pudieran ser responsables tanto de las estructuras que vemos hoy en día en el
universo como de las explicaciones de la cosmología ortodoxa, y comentaba que «no existe
una base verdaderamente independiente ni para la materia oscura ni para la inflación».[26]
La literatura cosmológica, además, rara vez menciona que estas ondulaciones en el
fondo cósmico de microondas son también consistente con otros modelos. Ellis sostiene
que los modelos del universo heterogéneos y esféricamente simétricos podrían producir
probablemente ondulaciones similares. La cosmología del estado cuasi-estacionario afirma
que la radiación de fondo cósmico de microondas tiene su origen en la termalización de la
energía generada por la producción de helio de las estrellas e interpreta las ondulaciones
como efectos localizados.[27] El modelo de universo eterno de la cosmología del plasma
ofrece una explicación similar de la energía de la radiación de fondo e interpreta las
ondulaciones como consecuencia de la conversión isotrópica imperfecta de esta energía
debido a la densa maraña de filamentos de plasma confinados magnéticamente que
impregna el medio intergaláctico.[28] El modelo del universo ecpirótico cíclico las
interpreta como impresas en una liberación de energía Big Bang debido a la ondulación
previa que se produce cuando dos branas-universo casi vacías se acercan entre sí.[29]
Un profesor de cosmología me aseguró que las ondulaciones del FCM hacen que
sea «casi seguro» que el actual modelo ortodoxo desde el segundo uno después del Big
Bang Caliente es el correcto. Viendo que descartaba las demás interpretaciones de las
ondulaciones del FCM, le pregunté sus motivos. Reconoció que no había leído ninguno de
los documentos más relevantes al respecto; argumentó que no tenía tiempo para leer todo lo
que se publicaba y que ese era también el caso de la mayoría de los cosmólogos. De ser así,
le dije, ¿cómo era posible que descartaran interpretaciones alternativas si ni siquiera las
habían leído? Me explicó que hay poco más de media docena de cosmólogos que son los
que marcan la agenda y establecen la interpretación de los datos más adecuada.
Se trata de un hombre sincero y honesto al que simplemente no se le ha ocurrido
preguntarse si esta media docena de cosmólogos tienen depositado algún interés particular
—consciente o inconscientemente— en que la interpretación de los datos cuadre
únicamente con el modelo en el que han trabajado durante casi toda su vida y en el que
creen profundamente. Me quedé con la impresión de que existe un obispo de la ortodoxia
que gobierna felizmente su colegio de cardenales de la cosmología.
Declaraciones exageradas

Sustituir la fe por la razón da como resultado declaraciones exageradas. «El satélite


de la NASA observa la primera billonésima de segundo del universo», fue el titular de una
nota de prensa publicada por la NASA el 16 de marzo de 2006 para informar sobre los
descubrimientos realizados a lo largo de tres años por el satélite espacial Wilkinson
Microwave Anisotropy Probe (WMAP), lanzado una década después del COBE y equipado
con instrumentos mucho más sensibles. Citaba en la nota las siguientes declaraciones del
director de la investigación, Charles Bennett: «Ahora podemos distinguir entre distintas
versiones de lo que sucedió durante la primera billonésima de segundo del universo».[30]
Por desgracia, no son solo los políticos los que trabajan con la propaganda. Bennett
es un cosmólogo ortodoxo y presumiblemente cree que no podemos mirar más atrás en el
tiempo de lo que nos permite el horizonte visual, cuando la radiación se escindió de la
materia unos 380.000 años después del Big Bang.[31]
Un examen más detallado de los datos muestra que los instrumentos del WMAP
registraron variaciones de temperatura y polarización de la radiación del fondo cósmico de
microondas, lo que los investigadores asumen que se originó 380.000 años después del Big
Bang. Basándose en un montón de supuestos más, los científicos del proyecto WMAP
deducen que esta polarización fue causada por sucesos que se supone que se produjeron
durante la primera billonésima parte de un segundo. Realizar afirmaciones gratuitas no
tiene mucho que ver con las mejores prácticas científicas.
Los datos del WMAP

Los científicos del proyecto WMAP interpretaron sus datos como una validación
más del modelo ortodoxo del Big Bang inflacionario, diciendo que el patrón de puntos
calientes y fríos era consistente con las predicciones más simples de la conjetura de la
inflación.
En 2005, sin embargo, los análisis de los datos del WMAP realizados por otros
cosmólogos empezaron a sembrar dudas importantes. Richard Lieu y Jonathan Mittaz, de la
Universidad de Alabama, Huntsville, descubrieron que los datos del WMAP indican un
universo ligeramente «súper crítico» en el que hay más materia —y, en consecuencia, un
campo gravitatorio más potente— de lo que interpretan los científicos del proyecto WMAP,
lo cual presentaría graves problemas para la conjetura inflacionaria.[32] Descubrieron
asimismo una carencia de lo que se conoce como efectos de lente gravitacional en el fondo
cósmico de microondas que el modelo estándar del Big Bang predice. Según ellos, los
puntos fríos del fondo de microondas poseen un tamaño demasiado uniforme para haber
viajado durante casi catorce miles de millones de años luz desde los confines del universo
hasta la Tierra. Las consecuencias sugieren diversas explicaciones alternativas. La más
conservadora es que los parámetros cosmológicos del modelo ortodoxo, incluyendo la
constante de Hubble, son erróneos. La posibilidad más contenciosa es que la radiación de
fondo cósmico de microondas no sea un remanente del Big Bang sino que esté creada por
un proceso distinto, un proceso local tan próximo a la Tierra que la radiación no se
acercaría a ninguna lente gravitacional antes de alcanzar nuestros telescopios.
David Larson y Benjamin Wandelt, de la Universidad de Illinois, descubrieron una
desviación estadísticamente significativa de la distribución gaussiana de puntos calientes y
fríos predicha por la inflacion.[33] Kate Land y Joao Magueijo, del Imperial College de
Londres, analizaron la radiación de fondo cósmico de microondas a través de sus tres
componentes y descubrieron que dos de ellos —el cuadropolo y el octopolo— presentaban
una orientación de puntos calientes y fríos que estaba alineada a lo largo de lo que
Magueijo apodó como «el eje del mal», lo que contradeciría la predicción de orientación
aleatoria que defiende la inflación. Magueijo sugiere que podría deberse a que el universo
tuviera forma de losa, o de rosquilla, o a que el universo estuviera rotando, todo lo cual
entraría en conflicto con los supuestos de isotropía y omnicentrismo en que se basa el
modelo ortodoxo.[34]
La mayoría de cosmólogos, sin embargo, interpreta estas orientaciones no aleatorias
como desviaciones estadísticas con respecto a la media de más de cien medidas.[35]
Independientemente de que estos y otros científicos que han encontrado problemas
con los datos del WMAP tengan o no razón —y los últimos datos de Planck sugieren con
fuerza que la tienen (véase sección siguiente)—, su voluntad de examinar los datos con una
mentalidad abierta y plantearse interpretaciones alternativas contrasta con los científicos del
proyecto que parecen extraer únicamente aquellas conclusiones que apoyan la hipótesis que
están investigando.
La confirmación de evidencias contradictorias del telescopio Planck

Cuando en marzo de 2013 se anunciaron los datos de los quince primeros meses del
telescopio Planck, de la Agencia Espacial Europea, el científico líder del proyecto,
siguiendo el ejemplo de su colega del WMAP, dijo «observamos un encaje casi perfecto
con el modelo estándar de la cosmología», aunque se contradijo a continuación al añadir
«pero con características intrigantes que nos obligan a replantearnos algunos de nuestros
supuestos básicos».[36]
El telescopio Planck observó el fondo cósmico de microondas (FCM) con más
resolución y sensibilidad que nunca. Reveló muchas características que desafiaban el
modelo ortodoxo del Big Bang inflacionario. Entre ellas destacan no solo revisiones de la
edad del universo y de las conjeturas sobre las proporciones de la materia oscura y la
energía oscura, sino también un punto frío que se extiende sobre un espacio de cielo más
grande de lo esperado y fluctuaciones en la temperatura del FCM que no cuadran con las
predichas. Los datos confirmaron que la orientación de los puntos fríos y calientes no podía
descartarse como una desviación estadística, sino que, efectivamente, estaban alineados a lo
largo de un eje, lo que rebatiría la predicción del modelo ortodoxo de que tendrían que ser
isotrópicos, es decir, similares en cualquier dirección que mirásemos.
Selectividad de datos

La selectividad, no solo de la interpretación sino también de los datos, se produce


cuando los científicos intentan justificar una hipótesis en vez de examinar las evidencias
con objetividad.
Ya he mencionado la idea del paisaje de posibilidades, defendida por el teórico de
cuerdas Leonard Susskind, que da lugar a un multiverso.[37] En su revisión del libro de
Susskind, El paisaje cósmico: teoría de cuerdas y el mito del diseño inteligente, Ellis señala
que, hipotéticamente, este multiverso se habría originado a partir de un túnel cuántico,
dando como resultado un universo espacialmente homogéneo e isotrópico con curvatura
espacial negativa y, por lo tanto, con un valor de Omega (Ω) inferior a 1.[38] El mejor valor
determinado por observación es Ω = 1,02 ± 0,02. Dadas las incertidumbres estadísticas, este
resultado no entra en absoluto en conflicto con la conjetura de Susskind, aunque no la
respalda. Pero Susskind ni siquiera discute estos datos no favorables. Ellis llega a la
conclusión de que esto es «un síntoma de parte de la cosmología actual, donde la fe en la
teoría tiende a falsear las evidencias».[39]
Ley de interpretación de datos

He concedido un espacio a las interpretaciones alternativas de los datos


astronómicos que han llevado a cabo científicos respetables porque son explicaciones que
rara vez se escuchan fuera de la comunidad cosmológica y, en muchos casos, ni siquiera
dentro de ella. Esta comunidad es una institución humana en la que aprenden los nuevos
cosmólogos y donde los defensores de la actual ortodoxia deciden la publicación de
artículos, la concesión de becas y el futuro de las carreras profesionales. En cualquier
institución humana, las presiones para adecuarse a ella son considerables.
Además de todo esto, la cosmología exige una inversión de tiempo durante los
muchos años que pueden transcurrir entre que se propone una investigación, se presenta la
solicitud de subvención, se convence a los organismos de que apoyen la propuesta y, por
ejemplo, se consigue que la NASA lance un satélite al espacio y se analicen e interpreten
los datos (18 años en el caso del satélite COBE). De un modo similar, los físicos de
partículas pueden invertir décadas de su carrera en llevar a cabo una investigación que exija
la cooperación de varios gobiernos para subvencionar un acelerador de partículas. Los
científicos son humanos y, naturalmente, quieren ver que una inversión personal de tal
calibre valga la pena.
La comparación de los resultados anunciados con los puntos de vista equilibrados
de cosmólogos como Ellis y Rowan-Robinon sugiere que tiene que haber algún tipo de ley
de por medio.
La ley de interpretación de los datos. El grado en el cual un científico se distancia
de una interpretación objetiva de los datos de su investigación es función de cuatro factores:
su determinación por validar una hipótesis o confirmar una teoría; el tiempo que la
investigación ha ocupado en su vida; su grado de inversión emocional en el proyecto; y su
necesidad profesional de publicar un documento importante o salvaguardar su reputación.
Teoría inadecuada

En los capítulos 3 y 4 hemos hablado sobre los graves problemas del modelo del
Big Bang Inflacionario, mientras que en el capítulo 5 hemos llegado a la conclusión de que
las conjeturas que compiten contra el modelo ortodoxo, modificándolo o sustituyéndolo, no
proporcionan hasta el momento un relato científico sobre el origen del universo: sus
principales reivindicaciones siguen sin ser verificables y, en su mayoría, no son
verificables.
Consideraré a continuación los profundos problemas teóricos que subyacen en el
modelo cosmológico ortodoxo y en sus alternativas.
La inconclusión de la teoría de la relatividad y de la teoría cuántica

La teoría cuántica y la teoría de la relatividad forman la base tanto del modelo del
Big Bang como de las ideas que compiten con él. Ambas han alcanzado un éxito tremendo
en cuanto a realizar predicciones que han sido verificadas mediante observación y
experimentación dentro de su propio ámbito: las masas estelares extremadamente pequeñas
—subatómicas— para la teoría cuántica y las masas estelares extremadamente grandes y
con velocidades próximas a la de la luz para la de la relatividad. Pero ambas son
necesariamente incompletas porque son incapaces de explicar fenómenos que suceden fuera
de su propio ámbito.[40] Lo que sugiere que ambas son un caso limitador de una teoría más
completa y profunda.
Se han llevado a cabo numerosos intentos de unificar la teoría cuántica y la teoría de
la relatividad —la «teoría» de cuerdas y la gravedad cuántica de bucles, por ejemplo—
pero, como hemos visto, no están todavía probadas científicamente. Además, también ellas
presentan sus propios problemas: la idoneidad de la relatividad general para predecir o
incluso describir el universo como un todo, y la naturaleza de la realidad en la teoría
cuántica.
La idoneidad de la relatividad general

Los astrónomos y los físicos adoptaron la teoría general de la relatividad de Einstein


porque incorporaba la gravedad a la teoría especial de la relatividad, describiendo de este
modo todas las fuerzas conocidas, y porque explicaba la precesión anómala del
acercamiento máximo del planeta Mercurio al sol, que la mecánica newtoniana no había
logrado explicar. ¿Pero es la teoría idónea para el objetivo de predecir, o incluso describir,
el universo como un todo?
La teoría general no es una ecuación que predice un resultado único para
condiciones iniciales específicas; sino que integra un conjunto de diez ecuaciones de campo
en las que pueden insertarse de manera arbitraria campos escalares, parámetros y valores
para estos parámetros. Esto permitió a Einstein elegir un parámetro, y un valor para ese
parámetro, que produjera un universo estático; a varios cosmólogos elegir un campo escalar
conceptual con diversos valores para producir diversos universos inflacionarios; a Hoyle y
a sus colegas elegir un campo escalar idéntico pero con distintos parámetros y valores para
producir un universo de estado cuasi-estacionario; y a Steinhardt y Turok elegir un campo
escalar, unos parámetros y unos valores distintos para producir un universo cíclico en el que
la energía oscura no es una constante, sino que evoluciona dinámicamente.
Todos declaran que su versión del universo es consistente con los datos observados,
aunque no hay evidencia de la existencia de un campo escalar inflacionario o de energía
oscura, a diferencia, por ejemplo, de las evidencias que sustentan un potencial campo
eléctrico escalar. De hecho, tal y como señala Ellis,[41] es perfectamente posible realizar el
proceso matemático hacia atrás para elegir de este modo los parámetros que produzcan el
resultado deseado. Parafraseando a Humpty Dumpty en Alicia a través del espejo, de Lewis
Carroll, cuando elijo campos escalares, parámetros y sus valores, las ecuaciones de la
relatividad general significan justo lo que quiero que signifiquen, ni más ni menos. (Carroll,
por supuesto, era matemático.)
El conjunto de ecuaciones permite también a los defensores de la inflación, el
universo cíclico, el estado cuasi-estacionario y otros modelos, ofrecer sus versiones del
universo con una fuente de energía ilimitada para crear materia y potenciar su expansión
contra la inmensa atracción gravitacional de la materia súper densa creada.[42] Mientras
que en el mundo conceptual, del que las matemáticas forman parte, pueden existir fuentes
ilimitadas de energía —y también unicornios y dioses—, hay bastantes dudas por lo que
respecta a si los unicornios, los dioses y las fuentes ilimitadas de energía existen en el
mundo físico.
La realidad del mundo cuántico

La cuestión de hasta qué punto las fórmulas matemáticas lógicamente consistentes


representan el mundo real reaparece cuando consideramos la teoría cuántica, uno de los
conceptos más complicados y técnicos de la ciencia.
Las ecuaciones y los principios que forman la teoría cuántica han demostrado un
éxito excepcional en cuanto a realizar predicciones que se han verificado
experimentalmente, la más importante de ellas la del número y la estructura atómica de los
elementos, y el modo en que sus átomos se unen para formar moléculas, lo que ha
proporcionado la base teórica de la química. Pero, con todo y con eso, la teoría cuántica
incomodó a aquellos de sus fundadores —como Einstein, Erwin Schrodinger y Louis de
Broglie— que abogaban por el punto de vista filosófico de realismo, según el cual la
ciencia explica la realidad tal y como ésta es en nuestra ausencia. La razón es que el mundo
que la teoría cuántica describe es paradójico, intrínsecamente incierto, dependiente de la
medición y no determinista, es decir, que permite efectos sin causa.
La teoría ha generado muchas interpretaciones de lo que sus ecuaciones significan
realmente. Por ejemplo, la teoría cuántica afirma que un electrón se comporta tanto como
una partícula como como una onda o una ola. Lo mismo sucede con la luz. La onda no es
una onda de materia física, como podría ser una ola del mar, sino una onda de información.
Una analogía podría ser la de una ola de crímenes, que nos informa de dónde hay mayor
probabilidad de que se cometa un crimen. Una onda cuántica nos informa de la
probabilidad de dónde podemos esperar que esté una partícula y de la probabilidad de que
esta posea propiedades como la rotación o la energía. Es no-localizada: es infinita y
contiene todos los estados posibles de existencia de esa entidad cuántica. En consecuencia,
un electrón puede estar potencialmente en cualquier parte.
Según la interpretación estándar (conocida también como de Bohr o de
Copenhague), todo aquello que no puede ser sometido a un proceso de medición carece de
existencia física. Solo cuando puede ser medida, la onda colapsa en la probabilidad de una
partícula física que tiene una posición, una inercia y una energía concretas. Sin embargo, no
podemos medir al mismo tiempo la posición exacta de una partícula, su inercia exacta o su
energía exacta.
La interpretación estándar defiende que no existe realidad independiente, en el
sentido físico ordinario, capaz de adscribirse al fenómeno cuántico o a la acción de su
medición. Muchos de los defensores de la interpretación estándar, como el Premio Nobel
Eugene Wigner, adoptan la postura de que la medición exige la presencia de un observador
consciente. Lo cual no presenta un problema fundamental a la hora de medir el patrón de
dispersión de un rayo de luz cuando impacta contra una placa con doble rendija, por
ejemplo. Pero sí presenta problemas cuando se considera la realidad del universo o de los
electrones, fotones y bariones que se materializaron a partir de un Big Bang.
El distinguido físico teórico John Wheeler, colaborador de Einstein en sus últimos
años, llevó el punto de vista de la realidad física dependiente de la conciencia a su
conclusión lógica. Defendió que la existencia del universo depende de observadores
conscientes que lo hacen real, no solo hoy sino también retrospectivamente, hasta llegar al
Big Bang. El universo existía en una especie de estado fantasma indeterminado y
probabilístico hasta que seres conscientes lo observaron, colapsando entonces la función de
onda del universo y otorgándole de este modo existencia física. Otras interpretaciones,
como la del multiverso cuántico de Everett (que comentaré en el próximo capítulo),
pretendían evitar este tipo de problema, pero han generado otros.
Infinidades en un cosmos físico

La teoría cuántica presenta también problemas con las infinidades. Según la


mecánica cuántica, un campo, como por ejemplo un campo electromagnético, tiene valores
en todos los puntos del espacio. Lo que produce un número infinito de variables, incluso en
un volumen finito; cada una de estas variables tiene un valor que, según la teoría cuántica,
puede fluctuar de un modo incontrolable. Según Smolin, esto conduce a la predicción de
números infinitos para la probabilidad de que un suceso se produzca o para la potencia que
puede alcanzar de cualquier fuerza.
Además de permitir una fuente ilimitada de energía, la teoría general de la
relatividad presenta otros problemas con las infinidades. Como vimos en el capítulo 4,[43]
en el interior de un agujero negro, la densidad de la materia y la fuerza del campo
gravitatorio son infinitos, y se cree que esto sucede también cuando se retrocede en la
expansión del universo hasta llegar al Big Bang. Pero cuando la densidad se vuelve infinita,
las ecuaciones de la relatividad general se desmoronan.
Como consecuencia de los supuestos simplificadores realizados para solucionar las
ecuaciones de la relatividad general, tanto el modelo de universo plano (el modelo
ortodoxo) como el de universo hiperbólico, son necesariamente infinitos en cuanto a su
extensión: si cualquiera de los dos llegara a un límite, contradeciría el supuesto de que el
universo es igual desde cualquier punto desde el que se observe.[44] La mayoría de
cosmólogos no lo considera un problema. Tal y como lo expresa Max Tegmark: «¿Cómo es
posible que el espacio no sea infinito?».[45]
Algunas propuestas afirman que, en un multiverso que incluya todos los universos
posibles, se entiende que necesariamente hay un número infinito de universos.
La infinitud, sin embargo, no es lo mismo que un número muy grande. David
Hilbert, que sentó gran parte de las bases de las matemáticas del siglo xx, declara:
Nuestro principal resultado es que el infinito no existe en la realidad. Tampoco
existe en la naturaleza ni ofrece una base legítima para el pensamiento racional.[46]
Si Hilbert tuviera razón, las hipótesis que utilizan infinidades para describir el
mundo físico quedarían invalidadas. Si Hilbert se equivocara hasta el punto de que el
concepto matemático de la infinidad tuviera una correspondencia en el mundo físico y que,
como seres finitos que somos, no alcanzáramos a percibirla, nunca podríamos validar o
desaprobar dicha hipótesis mediante un método científico.
Si Hilbert estuviera totalmente equivocado, y lo único que nos limitara fuese nuestra
incapacidad de concebir test empíricos para aplicar a hipótesis con infinidades, dichas
hipótesis seguirían siendo problemáticas. Por ejemplo, varias de las conjeturas
cosmológicas alternativas consideradas en el capítulo 5 declaran que el universo es eterno.
En este caso, Ellis señala que si se produjera un suceso en cualquier momento del tiempo,
cualquiera de esas conjeturas debería explicar por qué no ocurrió antes de ese momento,
puesto que previamente había tiempo infinito para que sucediese.[47]
Consideraré el Principio de entropía creciente cuando examine la evolución de la
materia. Por el momento basta con decir aquí que esta ley física sostiene que, durante
cualquier proceso que se produzca en un sistema aislado, el desorden aumenta hasta que se
alcanza un estado de equilibrio. Por definición, el universo es el sistema aislado definitivo,
pues o contiene toda la materia y energía que existe o está desconectado de otros universos
en un hipotético multiverso. Por lo tanto, si este principio físico es válido en el universo, y
si el universo tiene una existencia infinita, habría alcanzado su estado de equilibrio hace un
tiempo infinito y nosotros no estaríamos vivos para reflexionar sobre esta cuestión.[48]
La falta de idoneidad de las matemáticas

Newton desarrolló una nueva forma de matemáticas —el cálculo— que jugó un
papel esencial cuando desarrolló sus leyes físicas. A partir de Einstein, los físicos teóricos y
los cosmólogos han tomado prestadas o han adaptado las matemáticas existentes —la
geometría diferencial del espacio de cuatro dimensiones, las teorías de campos de gauge,
los campos escalares, etc.— para expresar y cuantificar sus ideas sobre el origen y la
evolución del universo. Como hemos visto, la matemática de algunas de estas ideas se
desmorona cuando retrocedemos hasta el origen del universo o no se corresponden con la
realidad tal y como la percibimos. Para expresar y cuantificar una teoría completa del
origen y la evolución del universo tal vez sería necesario desarrollar unas nuevas
matemáticas. Dicha teoría explicaría todo lo que la teoría de la relatividad explica a gran
escala y todo lo que la teoría cuántica explica a escala subatómica.
Limitaciones intrínsecas de la ciencia

Como hemos visto, muchas de las conjeturas que se han planteado para explicar el
origen del universo no solo no están verificadas, sino que además es imposible verificarlas:
si no podemos detectar un fenómeno, o su supuesto efecto sobre algo que podemos
detectar, entonces no podemos verificarlo. Cualquier conjetura no verificable queda
necesariamente fuera del ámbito de una disciplina empírica como la ciencia.
Conclusiones

A pesar de los anuncios optimistas, y a veces triunfalistas, que suelen realizar los
científicos responsables de los proyectos después de analizar los datos obtenidos a partir de
observaciones caras y prolongadas, la cosmología se enfrenta a muchas dificultades
prácticas. Se enfrenta también a problemas de interpretación de los datos obtenidos, lo que
incluye la puesta en duda de supuestos subyacentes a menudo sobreentendidos. Por lo
tanto, es imposible conocer con seguridad el valor de muchos parámetros clave —como la
constante de Hubble y la densidad del universo— y, en consecuencia, la edad del universo
y su ritmo de expansión. Ni el modelo ortodoxo del Big Bang ni las conjeturas que
compiten con él, ofrecen teorías científicamente robustas que expliquen el origen y la forma
del universo. Además, las dos teorías que sustentan todos los modelos cosmológicos —la
teoría de la relatividad y la teoría cuántica— son incompletas y presentan sus propios
problemas.
A medida que mejoren las técnicas de detección, y se desarrollen interpretaciones y
teorías como respuesta a nuevos datos y nuevos puntos de vista, las limitaciones prácticas,
de interpretación y de teoría quedarán relegadas y la cosmología nos ofrecerá una mejor
comprensión del origen del universo y, en consecuencia, del origen de la materia de la que
estamos compuestos.
Sin embargo, hasta que los cosmólogos presenten una nueva definición del concepto
de ciencia y un método científico que resulte aceptable tanto para la comunidad científica
como para la comunidad intelectual, muchas «teorías» cosmológicas deben quedar
clasificadas como conjeturas no verificables y, por lo tanto, quedar fuera del ámbito de la
ciencia.
Puede argumentarse, claro está, que la cosmología es distinta de las demás ramas de
la ciencia en los tres sentidos que enumeré al principio del capítulo y que, en consecuencia,
si la cosmología está limitada por la metodología científica convencional, siempre tendrá
escaso poder explicativo. Este argumento puede utilizarse para justificar que los
cosmólogos vayan más allá de los convencionalismos de la ciencia para explicar el
universo. De ahí que en el siguiente capítulo plantee si las conjeturas de la cosmología
producen razonamientos convincentes aun sin superar los test más estrictos de la ciencia.
[1]Ellis (2007), S.2.3.2.
[2]Maddox (1998), p. 36.
[3]Ibíd, p. 27.
[4]http://hubblesite.org/newscenter/archive/releases/1994/49/text/, 26 de octubre
de 1994.

[5]http://www.nasa.gov/centers/goddard/news/topstory/2003/0206mapresults.html#bctop,
11 de febrero de 2003.

[6]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_per
fect_Universe, 21 de marzo de 2013.
[7]Rowan-Robinson (2004), p. 163.
[8]Bonanos, Alceste, et al., «The First Direct Distance Determination to a Detached
Eclipsing Binary in M33», The Astrophysical Journal, 652, 2006, pp. 313–322.
[9]Rowan-Robinson (2004), p. 164.
[10]Lerner (1992), con datos más completos, actualizado en
http://www.bigbangneverhappened.org/, consultado el 16 de febrero de 2014.
[11]Ned Wright, Tutorial de Cosmología, UCLA, 2003,
http://www.astro.ucla.edu/~wright/lerner_errors.html#SC.
[12]Ellis (2007), S.4.2.2 y S.2.3.5.
[13]Véase página 115.
[14]Véase página 75.
[15]«Quasar», McGraw-Hill Encyclopedia of Science and Technology; «Quasar»,
The Columbia Electronic Encyclopedia, 6ª ed. Consultado el 29 de enero de 2008.
[16]Rowan-Robinson, comunicación personal, 21 de noviembre de 2007.
[17]Burbidge, comunicación personal, 14 de enero de 2008.
[18]Arp (1998).
[19]Burbidge, comunicación personal, 14 de enero de 2008.
[20] Véase página 94.
[21]Arp, Halton y C. Fulton, «A Cluster of High Redshift Quasars with Apparent
Diameter 2.3 Degrees», http://arxiv.org/pdf/0802.1587v1, 2008. Consultado el 28 de
febrero de 2008.
[22]Arp, comunicaciones personales, 18 y 25 de febrero de 2008.
[23]Das, P. K., «Quasars in Variable Mass Hypothesis», Journal of Astrophysics
and Astronomy, 18: 4, 2008, pp. 435–450.
[24]Singh (2005), pp. 462 y 463, respectivamente.
[25]McKie, Robin, «Has Man Mastered the Universe?», The Observer, Londres, 26
de abril de 1992, News, pp. 8–9.
[26]Editorial, «Big Bang Brouhaha», Nature 356: 6372, 1992, p. 731.
[27]Narlikar, J. V., et al., «Inhomogeneities in the Microwave Background
Radiation Interpreted within the Framework of the Quasi–Steady State Cosmology», The
Astrophysical Journal, 585: 1, 2003, pp. 1–11.
[28] Véase página 118.
[29]Véase página 120.

[30]http://www.nasa.gov/home/hqnews/2006/mar/HQ_06097_first_trillionth_WMAP.html,
16 de marzo de 2006.
[31]Véase página 140.
[32]Lieu, Richard y Jonathan P. D. Mittaz, «On the Absence of Gravitational
Lensing of the Cosmic Microwave Background», The Astrophysical Journal, 628, 2005, pp.
583-593; Lieu, Richard y Jonathan P. D. Mittaz, «Are the WMAP Angular Magnification
Measurements Consistent with an Inhomogeneous Critical Density Universe?», The
Astrophysical Journal Letters 623, 2005, pp. L1–L4.
[33]Larson, David L. y Benjamin D. Wandelt, «A Statistically Robust 3-Sigma
Detection of Non-Gaussianity in the WMAP Data Using Hot and Cold Spots», Physical
Review, 2005, http://arxiv.org/abs/astro-ph/0505046. Consultado el 25 de mayo de 2007.
[34]Land, Kate y Joao Magueijo, «Examination of Evidence for a Preferred Axis in
the Cosmic Radiation Anisotropy», Physical Review Letters, 95, 2005, 071301.
[35]Paul Steinhardt, comunicación personal, 20 de marzo de 2007.

[36]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_p
erfect_Universe, 21 de marzo de 2013.
[37] Véase página 130.
[38]Véase página 63 para una explicación de Omega y su relación con la geometría
del universo.
[39]Ellis, George, «Physics Ain’t What It Used to Be», Nature, 438: 7069, 2005, pp.
739–740.
[40] Por ejemplo, Wolfgang Tittel y sus colegas informaron de que dos fotones
entrelazados cuánticamente con más de diez kilómetros de distancia entre sí se
comportaban al instante de la misma manera si se enfrentaban a dos caminos alternativos e
igualmente posibles, violando claramente la Teoría especial de la relatividad de Einstein,
que prohíbe que la informacion viaje a velocidad más rápida que la de la luz. (Tittel, W. et
al., «Violation of Bell Inequalities by Photons More Than 10km Apart», Physical Review
Letters, 81, 17, 1998, pp. 3563-3566). Pero no es solo en el ámbito subatómico que la teoría
de la relatividad deja de aplicar. Rainer Blatt y sus colegas (Riebe, M. et al., «Deterministic
Quantum Teleportation with Atoms», Nature, 429: 6993, 2004, pp. 734-737) y D. J.
Wineland y sus colegas («Deterministic Quantum Teleportation of Atomic Qubits», Nature,
429: 6993, 2004, pp. 737-739), informaron de la transmisión cuasi instantánea de iones de
calcio e iones de berilio, respectivamente, en estado cuántico.
[41]Véase página 83.
[42] La ecuación gravitacional de Newton también permite esto siempre y cuando la
separación entre masas puntuales sea ilimitada.
[43]Véase página 85.
[44] Esto no aplicaría para el universo esférico: una esfera perfecta es igual desde
todos los puntos de su superficie.
[45]Tegmark, Max, «Parallel Universes», Scientific American. 1 de mayo de 2003.
http://www.sciam.com/article.cfm?articleID=000F1EDD-B48A-1E90-
8EA5809EC5880000. Consultado el 8 de agosto de 2006.
[46]Citado en Ellis (2007), S.9.3.2.
[47]Íbid, S.9.3.2.
[48]Davies (1990), p. 10.
CAPÍTULO 7. LA RACIONALIDAD DE LAS CONJETURAS
COSMOLÓGICAS

El universo me captura a través del espacio y me engulle como una mota de polvo;
yo lo capturo a través del pensamiento.

Blaise Pascal, 1670

La razón es una revelación natural.

John Locke, 1690

Hay dos preguntas que deberíamos formularnos para evaluar la racionalidad de las
explicaciones cosmológicas que quedan fuera del ámbito de la ciencia. La primera es: ¿cuál
tendría que ser el alcance de estas conjeturas? Y la segunda: ¿cómo someter a prueba su
racionalidad? Según las respuestas a estas preguntas, examinaré conjeturas cosmológicas en
dos aspectos: el origen del universo y la forma del universo, puesto que ambos son básicos
para comprender la emergencia de la materia de la que estamos hechos.
El alcance de las conjeturas cosmológicas[1]

¿Tendrían que limitarse las conjeturas cosmológicas solo al elemento material del
cosmos?
Muchos científicos son materialistas, y para ellos se trata de una pregunta trivial
porque creen que el cosmos material es todo lo que existe y que, con el tiempo, la ciencia
acabará explicando en términos de materia y de sus interacciones cosas como la conciencia
y la mente. Pero según el criterio de Popper, este punto de vista no es científico porque
nunca podrá falsarse.
Creo que es razonable extender el alcance examinando cosas no materiales que
tienen una relación directa con el origen y la evolución del universo material. Lo cual
suscita una serie de preguntas metafísicas interrelacionadas que tal vez podrían
considerarse como aspectos distintos de la misma pregunta, pero que resulta útil separarlas
en tres categorías, independientemente de que esta división sea arbitraria y permeable.
La causa de las leyes de la física

La mayoría de explicaciones cosmológicas defienden o asumen que la materia se


comporta y evoluciona según las leyes de la física. De ahí que la pregunta fundamental sea
qué provocó la existencia de estas leyes.
Como veremos en el capítulo 28, cuando examine la evolución del pensamiento
filosófico, no existe una respuesta clara. Incluso Aristóteles, el arquetipo del racionalista,
llegó a la conclusión, siguiendo la cadena de causalidad, de que la primera causa tiene que
causarse a sí misma, ser eterna, inalterable, sin atributos físicos, es decir, divina.
La naturaleza de las leyes de la física

Y un nivel más allá de esta pregunta fundamental, está comprender cuál es la


naturaleza de las leyes de la física, un asunto que podríamos dividir en tres sub-preguntas:
1. ¿Son descriptivas o prescriptivas?
Si simplemente describen cómo son las cosas, ¿por qué, entonces, toda la materia y
las interacciones (fuerzas) que se producen entre ellas poseen las mismas propiedades en
cualquier lugar del universo observable? ¿Por qué son idénticos todos los electrones? ¿Por
qué la fuerza electromagnética se calcula del mismo modo en todas partes? Si, por otro
lado, las leyes físicas determinan la forma de ser de las cosas, y se asume que dichas leyes
son invariables, la materia será necesariamente la misma en todas partes. En cuyo caso,
¿cómo pueden las leyes teóricas imponerse sobre la materia del universo?
2. ¿Existían las leyes físicas antes de la existencia del universo y controlaron su
origen, empezaron a existir con el universo, o coexisten con un universo eterno?
Si el Big Bang es el comienzo de todo, ¿cómo es posible que estas leyes se crearan
en un suceso de creación carente de leyes? Si no lo es, ¿cómo es posible que existieran
antes que el universo? Si el universo es eterno, ¿son inalterables las leyes físicas y
eternamente coexistentes con el universo, o cambian en el transcurso del tiempo infinito?
3. ¿Por qué se expresan mediante relaciones matemáticas que, en la mayoría de los
casos, son muy sencillas? Con destacadas excepciones, como la de la relatividad general, la
mayoría de leyes físicas se expresan mediante ecuaciones muy sencillas, como la ley de la
inversa del cuadrado de la fuerza electromagnética. ¿Por qué tendría que ser así? Las
matemáticas, ¿describen o determinan las leyes físicas? ¿Cuál es la naturaleza de las
matemáticas?
La naturaleza de las matemáticas

El cosmólogo Max Tegmark, del Massachusetts Institute of Technology, propone


que una estructura matemática es «una entidad abstracta e inmutable que existe fuera del
espacio y el tiempo».[2] (Esta conjetura niega implícitamente el materialismo.)
Roger Penrose sigue a Platón y argumenta que existen «evidencias poderosas
(aunque incompletas)» de que las fórmulas matemáticas tienen una realidad objetiva fuera
del mundo físico. Además, mientras que solo una pequeña parte de este mundo matemático
tiene relevancia para el mundo físico del que formamos parte, todo el mundo físico está
gobernado según leyes matemáticas. De ser así, «incluso nuestros actos físicos estarían
completamente sujetos a este control matemático, un “control” que permitiría algún tipo de
comportamiento aleatorio gobernado por principios probabilísticos estrictos».[3]
La conjetura de que las fórmulas matemáticas existen como una realidad
trascendente fuera del universo físico y de que causan y/o gobiernan el universo, debería
explicar cómo una fórmula matemática puede generar y/o controlar un universo material.
La iglesia cristiana asimiló este concepto platónico hace ya tiempo y le dio una
explicación muy sencilla: la realidad trascendente es Dios. En consecuencia, la inmensa
mayoría de científicos occidentales, desde la primera revolución científica de mediados del
siglo xvi hasta principios del siglo xx —desde Copérnico, Kepler, Newton, Descartes hasta
Einstein—, trataron de descubrir las leyes matemáticas que gobiernan nuestro universo
como una forma de descubrir, en palabras de Stephen Hawking, la mente de Dios.
Keith Ward, pastor anglicano y profesor Regius de teología de la Universidad de
Oxford, intenta ofrecer una explicación racional a todo esto diciendo que las necesidades
matemáticas solo existen cuando están concebidas por alguna conciencia. Para una teoría
matemática de todas las cosas, esa conciencia tiene necesariamente los atributos de Dios, la
mente omnipresente suprema.[4]
Duane Elgin, místico y ecologista, ha llevado a una conclusión lógica el concepto
no religioso de que el universo físico está gobernado por fórmulas matemáticas
trascendentes. Propone una «evolución dimensional» en la que el universo es un sistema
vivo que se mantiene unido mediante la influencia cohesiva de una «geometría sagrada de
exquisita sutileza, diseño profundo y objetivo elegante». Esto impregna el cosmos y
proporciona el marco de trabajo organizativo tanto para la manifestación ordenada de
nuestro universo material, como para el contexto organizativo a través del cual evoluciona
la vida. Esta geometría sagrada es la creación del «meta-universo», que es «una fuerza vital
inimaginablemente inmensa, increíblemente inteligente e infinitamente creativa que elige
dar existencia manifiesta a nuestro cosmos».[5] Si este meta-universo no es similar al Dios
personalmente intervencionista de las creencias judeo-cristiana-islámicas, sí guarda un
notable parecido con los antiguas creencias de los brahmanes y los taoístas.[6]
Lee Smolin, por otro lado, cree que la segunda revolución científica está liberando a
la ciencia de esta visión del mundo esencialmente espiritual. «Lo que une la teoría general
de la relatividad, la teoría cuántica, la selección natural y las nuevas ciencias de sistemas
complejos y auto-organizados es que describen, de distintas maneras, un mundo que es
completo en sí mismo, sin necesidad de que una inteligencia externa haga las veces de
inventor, organizador u observador externo».6 Aquí, los nuevos ingredientes son la
selección natural, la complejidad y las teorías de sistemas capaces de organizarse a sí
mismos. Como que son conceptos que suelen utilizarse para explicar la aparición de la vida,
postergo su explicación hasta la Segunda Parte.
Las conjeturas cosmológicas sometidas a test

Si no existe una forma predecible, ni siquiera posible, de someter las conjeturas


cosmológicas a test, bien sea experimental bien sea observacional, ¿qué test deberíamos
utilizar para evaluarlas y determinar su racionalidad en comparación, por ejemplo, con el
mito de que el cosmos salió de un huevo?
Solemos utilizar los test siguientes:
Belleza

Los físicos teóricos suelen buscar la estética en sus teorías y ecuaciones. Según lo
expresa el teórico cuántico, Paul Dirac, «Es más importante tener belleza en las ecuaciones
que conseguir que cuadren con la experimentación». Steven Weinberg, físico teórico de
partículas galardonado con el Premio Nobel, observa que «Una y otra vez, los físicos se han
guiado por su sentido de la belleza no solo para desarrollar nuevas teorías, sino incluso para
juzgar la validez de teorías físicas una vez están desarrolladas».[7]
Pero la belleza es subjetiva. ¿Es bello el número π, que aparece como constante en
muchas ecuaciones y equivale a 3,141592653… (es imposible calcular su valor exacto)?
¿Es mi hipótesis o ecuación más bella que la tuya? ¿Es bello el relato de la creación que
ofrece el Génesis y que se mencionaba en el capítulo 1?
Sería muy distinto si los teóricos que dicen esto se refieren a que tienen un punto de
vista que explica bellamente un conjunto de fenómenos; por lo demás, examinaré formas de
saberlos distintas al racionamiento. Pero no creo que la belleza sea un test adecuado para
evaluar la racionalidad de una conjetura.
Parsimonia

Es lo que conocemos como economía, o navaja de Ockham o simplicidad.


Esencialmente significa que la explicación de los datos que resulte menos compleja será
siempre la preferible.
Lo considero útil como regla general, pero debe utilizarse con prudencia y solo
junto otros test, puesto que siempre cabe la posibilidad de que otras explicaciones superen
mejor la prueba. Por ejemplo, podría argumentarse que la explicación más sencilla para las
leyes de la física es que Dios o un dios las concibió de esta manera.
Consistencia interna

La conjetura debería ser coherente, es decir, debería tener una consistencia lógica
interna para que sus distintas partes encajen y formen un todo armonioso. Si sufre
contradicciones internas, la conjetura será irracional, lo que lo convierte en un test esencial.
Consistencia externa con las evidencias

Una conjetura debe demostrar que es consistente con las evidencias que se conocen,
aunque no pueda realizar predicciones o retrodicciones susceptibles a ser verificadas
independientemente. Se trata de un test útil, aunque no alcanza el nivel de una validación
científica.
Consistencia externa con otros dogmas científicos

Es lo que Edward O. Wilson, inspirándose en el filósofo del siglo xix, William


Wheewell, denomina consiliencia: la conjetura se amolda a los conocimientos sólidamente
verificados de otras disciplinas científicas para formar una base común para su explicación.
Cuando no es posible mostrar consistencia con las evidencias del campo de estudio de la
conjetura, la consistencia con los principales dogmas de la ciencia contemporánea resulta
un test muy útil.
Origen del universo

Las principales conjeturas cosmológicas sobre el origen del universo se dividen


entre las que postulan un inicio del universo y las que sostienen que el universo es eterno.
Modelo ortodoxo: el Big Bang

El principal ejemplo dentro de la primera categoría es el actual modelo ortodoxo,


pero como ya vimos en el capítulo 4, el modelo no explica cómo se creó la materia a partir
de la nada. Los intentos de explicación han dado como resultado la conjetura de la energía
neta cero del universo, en la que la energía gravitatoria negativa cancela la energía positiva
representada por el resto de masa y la energía cinética de la materia más la radiación.[8] Es
lo que llevó a Guth a calificar el universo de «comida gratis».
Pero si el Big Bang es el comienzo de todo, incluyendo el espacio y el tiempo, no
existe un universo con energía neta cero capaz de proporcionar la energía para todo lo que
sigue y no existe un vacío preexistente que obedezca las leyes de la teoría cuántica. Esta
conjetura no alcanza a superar el test esencial de la consistencia interna.
Si, tal y como defienden ahora los teóricos inflacionarios, el Big Bang se produjo al
final de un periodo de inflación, no se trataría de un añadido al modelo básico sino de una
contradicción de su principio fundamental. Ni siquiera los cosmólogos pueden disfrutar de
una comida gratis: o el Big Bang fue el inicio de todo, o no lo fue.
A pesar de que los cosmólogos conocen el actual modelo ortodoxo como el Modelo
cosmológico estándar o el Modelo de concordancia, tal vez sería más preciso describirlo
como «Modelo de fluctuación cuántica que agrupa conjeturas inflacionarias de antes o
después del Big Bang caliente con un 27 por ciento de materia oscura desconocida y un 68
por ciento de energía oscura desconocida».
Las versiones con inflación previa a un Big Bang presentan más consistencia interna
que aquellas en las que el Big Bang es el inicio de todo o que los mitos internamente
inconsistentes de la creación divina que defienden las creencias judeo-cristianas e
islámicas.[9] Sin embargo, al no ofrecer un relato convincente sobre lo qué son la materia y
la energía oscuras, no pueden reivindicar parsimonia ni siquiera un gran poder explicativo,
puesto que dejan sin explicar el 95 por ciento de la supuesta parte observable del universo.
Además, como que estas versiones no explican de dónde provienen el vacío cuántico, las
leyes de la mecánica cuántica y el campo de inflación, es difícil defender que sean más
razonables que la visión de brahmanes o taoístas, que defienden que todo emana y todo
consiste en una realidad definitiva que existe más allá del espacio y del tiempo.
Conjeturas multiverso

Motivadas básicamente por la insatisfacción con la explicación del origen del


universo que ofrece la cosmología ortodoxa, surgieron otras ideas —como el modelo de la
inflación caótica de Linde, la selección natural de universos agujeros negros de Smolin y la
conjetura del paisaje de posibilidades de la teoría de cuerdas— que sugieren que nuestro
universo no es más que uno de muchos universos, o de infinitos universos, que existen
dentro de un multiverso.
Por mucho que estas sugerencias pudieran explicar de dónde y cómo surgió nuestro
universo, siguen posponiendo la cuestión del origen: no logran explicar de dónde, cómo y
por qué inició su existencia el multiverso, o el universo progenitor de Smolin. Si el
multiverso fuera eterno, tampoco se explicaría cómo o por qué nuestro universo inició su
existencia en un momento particular del tiempo y no en otro momento entre las infinitas
posibilidades que tendría la eternidad.
Consideraré la racionalidad de otras reivindicaciones del multiverso en la siguiente
sección: «Forma del universo».
Modelos «eternos»

En el capítulo 5 se examinaron varios modelos que se autoproclaman como


«eternos», como la inflación caótica eterna, el universo oscilante cíclico y el universo
ecpirótico cíclico. Vimos que, pese a que las matemáticas les permiten continuar
indefinidamente en el futuro, todos tienen necesariamente un principio. No puede existir un
universo «semi-eterno» que tenga un principio pero no tenga fin, razón por la cual estos
modelos no superan el test de consistencia interna.
En el capítulo 5 se habló también de que Hoyle y sus colegas modificaron el modelo
original de estado estacionario para producir la cosmología de estado cuasi-estacionario. Su
idea básica es que el universo es eterno y sigue expandiéndose indefinidamente: tanto el
tiempo como el espacio son infinitos.
Que el espacio infinito siga expandiéndose no presenta ninguna contradicción lógica
y, por lo tanto, la conjetura es internamente consistente.
Pero la cosmología de estado cuasi-estacionario busca la consistencia externa con
los datos obtenidos mediante observación defendiendo que continuamente se producen
mini-bangs no singulares que crean regiones de nueva materia en ciclos que producen una
expansión del universo de estado estacionario a largo plazo. La creación a partir de la nada
mediante una serie interminable de mini-bangs no es más razonable que la creación de la
nada a partir de un único Big Bang. Además. Mientras que la cosmología de estado cuasi-
estacionario evita el problema de la singularidad en cada ciclo, extrapolarlo hacia atrás
hasta la expansión general del universo conduce a un universo infinitamente pequeño que
apenas se distingue de una singularidad. Podría decirse que esto constituiría un inicio del
universo, que por lo tanto no sería eterno.
Forma del universo

¿Cómo es que el universo inició su existencia con una forma determinada y no otra,
siendo todas las formas lógicamente posibles? Entre todas esas formas hay universos con
distintas constantes físicas, con distintas leyes físicas, con distinto número de dimensiones,
etc. Esta pregunta forma parte esencial de una pregunta antrópica más amplia: ¿por qué
nuestro universo está ajustado para permitir la evolución del ser humano?
Ajuste de los parámetros cosmológicos

En el capítulo 4 vimos que Martin Rees sostenía que si uno de entre seis parámetros
cosmológicos se diferenciaba de su valor medido por una cantidad minúscula, el universo
no habría evolucionado para permitir la emergencia de seres humanos pensantes con base
de carbono como nosotros. Las leyes de la física no predicen los valores de estos
parámetros y el actual modelo ortodoxo de la cosmología no logra explicar cómo o por qué
estos parámetros están tan ajustados.
Estos seis parámetros son:
1. Omega (Ω): una medida de la atracción gravitatoria de la materia en el universo
en comparación con su energía de expansión.
Si se produjo un Big Bang, el valor de Omega cuando el universo tenía un segundo
de antigüedad debió de situarse entre 0,99999999999999999 y 1,00000000000000001; de
lo contrario, el universo habría colapsado rápidamente en un Big Crunch o se habría
expandido rápidamente hacia el vacío.[10]
2. Lambda (Λ): la constante cosmológica.
Como vimos en el capítulo 4, esta hipotética constante que representa una energía
oscura desconocida anti-gravedad es cuestionable, igual que gran parte de los supuestos en
los que se basa su estimación. Pero, de todos modos, forma parte importante de la
cosmología ortodoxa actual y el valor que le han estimado los astrónomos es
increíblemente pequeño, unos 10-29 gramos por centímetro cubico. Si no fuera tan
pequeña, argumenta Rees, su efecto había impedido la formación de galaxias y estrellas y la
evolución cósmica se habría detenido antes incluso de empezar.
3. Nu (N): la razón entre la potencia de la fuerza electromagnética y la potencia de
la fuerza gravitatoria.
Tiene un valor aproximado de 1036 (1.000.000.000.000.000.
000.000.000.000.000.000.000).
La fuerza electromagnética proporciona estabilidad a los átomos y las moléculas al
equilibrar las fuerzas atractivas y repulsivas de núcleos y electrones con cargas opuestas. A
esta escala, la relativamente minúscula fuerza gravitatoria es insignificante. Pero con el
tamaño de planetas casi neutros eléctricamente y más grandes, la fuerza gravitatoria pasa a
ser dominante. Si Nu tuviese unos cuantos ceros menos, esta fuerza gravitatoria
relativamente potente produciría un universo en miniatura de vida corta, no se formarían
estructuras complejas y no habría tiempo para la evolución biológica.
4. Q: una medida que muestra la fuerza que mantiene cohesionadas estructuras
como estrellas, galaxias, cúmulos de galaxias y súper-cúmulos.
Es el cociente entre dos energías: la energía necesaria para romper y dispersar estas
estructuras cósmicas en relación con la energía de la masa en reposo calculada mediante E
= mc2. Se estima que su valor aproximado es 10-5, o 0,00001. Si Q fuese aún más pequeña,
el universo sería inerte y desestructurado. Si Q fuese mucho mayor, no sobreviran ni las
estrellas ni los sistemas solares: el universo estaría dominado por agujeros negros.
5. Épsilon (ε): una medida de la cohesión de los núcleos de helio.
La reacción nuclear en cadena esencial para crear todos los elementos y
proporcionar energía a las estrellas es la fusión de dos protones (núcleos de hidrógeno) y
dos neutrones para crear el núcleo de helio.[11] La masa de un núcleo de helio es un 0,7 por
ciento inferior que la masa de las partes que lo integran. Esta conversión en energía —
principalmente calorífica— del 0,007 de su masa, según la ecuación E = mc2, mide la
fuerza que cohesiona las partes integrantes del núcleo de helio, superando la fuerza
mutuamente repulsiva de los dos protones con carga positiva.
Si este factor de conversión fuera inferior (0,006, por ejemplo), no se produciría la
primera fase de la reacción en cadena, la unión de un protón con un neutrón, y, en
consecuencia, no habría producción de helio y el universo estaría hecho solo de hidrógeno.
Si fuese mayor (0,008, por ejemplo), los dos protones se unirían directamente para crear
helio y no quedaría hidrógeno para proporcionar el combustible necesario a las estrellas o
para permitir la posible producción de las moléculas esenciales para la vida humana, como
el agua.
6. D: el número de dimensiones espaciales del universo.
En el universo este número es tres (más una dimensión de tiempo). Una
consecuencia de ello, según Rees, es que fuerzas como la gravedad y la electricidad
obedecen una ley cuadrática inversa: si duplicáramos la distancia entre masas o partículas
cargadas, la fuerza entre ellas sería cuatro veces más débil; si triplicáramos la distancia, la
fuerza sería nueve veces más débil; y así sucesivamente. Esto permite una relación
equilibrada entre, por ejemplo, el movimiento centrífugo de un planeta y la fuerza
centrípeta de la gravedad de su sol, lo que permite una órbita estable. Si hubiera cuatro
dimensiones espaciales, las fuerzas seguirían una ley cúbica inversa y las estructuras serían
inestables: si un planeta en órbita ralentizara su movimiento, aunque fuera solo
mínimamente, se precipitaría contra su sol; si aumentara la velocidad, empezaría a girar en
espiral hacia la oscuridad. Si hubiera menos de tres dimensiones espaciales no podrían
existir estructuras complejas.8
John Barrow y Frank Tipler afirman que existen parámetros adicionales a los seis
propuestos por Rees que son necesarios para la evolución humana. Examinaré la cuestión
del «universo antrópico» cuando salga a relucir a lo largo de este viaje. Pero, por el
momento, estoy examinando solo la racionalidad de las conjeturas cosmológicas para
responder a la pregunta concreta de cómo y por qué el universo adoptó la forma que adoptó
en contraste con las creencias de que Dios, o un dios, lo diseñaron de esta manera.
La explicación multiverso

La conjetura preferida por Rees y muchos cosmólogos es la explicación multiverso.


A primera vista parece eminentemente razonable. Un hipotético multiverso niega la
unicidad del universo en el que vivimos porque aplica la probabilidad al cosmos. Su
reivindicación básica es que todo es posible y por lo tanto, en un cosmos integrado por un
número inimaginablemente grande de universos, o incluso por una infinidad de universos,
cada uno de ellos con propiedades distintas, es tremendamente probable que exista un
universo con las mismas propiedades que el nuestro. Y solo es casualidad que nosotros
existamos en el universo que existimos.
Pero si examinamos el asunto con más detalle empiezan a surgir preguntas. La
primera de ellas es cuál es la naturaleza del multiverso. Existen prácticamente tantos tipos
distintos de hipotéticos multiversos como universos hipotéticos hay en cualquier
multiverso. Podemos agruparlos en cuatro categorías principales:
1. Multiverso cuántico.
Esta interpretación de la teoría cuántica, que entra en conflicto con la interpretación
estándar o de Copenhagen,[12] fue propuesta en 1957 por Hugh Everett. Aquí, todos los
resultados posibles de todos y cada uno de los sucesos que se producen a nivel cuántico dan
lugar a universos alternativos que existen en paralelo como versiones alternativas
desconectadas de la realidad en otra rama cuántica de un espacio con infinitas dimensiones.
La versión inicial de esta conjetura propone que estos universos existen con el mismo
número de dimensiones de espacio y tiempo que el nuestro y están descritos mediante las
mismas leyes de la física y las mismas constantes; lo que los diferencia son los resultados
de cada suceso. Por ejemplo, una serie de resultados de sucesos a nivel subatómico cuántico
de una mujer produce resultados distintos a nivel macro a la pregunta formulada por un
hombre: «¿quieres casarte conmigo?». Esto produce, entre otros, un universo en el que ella
se casa con él y otro en el que no lo hace. Versiones posteriores sugieren que en estas ramas
cuánticas alternativas de la realidad las leyes de la física serían distintas.
Que la hipótesis del multiverso cuántico sea consistente internamente es más que
cuestionable. Lógicamente, produce un universo en el que Everett cree en la conjetura y
otro universo en el que no. Por otro lado, recurrir a un número inimaginablemente grande
de universos para explicar el universo que nosotros percibimos se aleja mucho de la
parsimonia;[13] y esto aplica a todas las conjeturas del multiverso. Defender una
consistencia externa aludiendo al excepcional éxito empírico que ha cosechado la teoría
cuántica para explicar las bases subatómicas de la química resulta seductor, pero lo que en
realidad significan las ecuaciones y los principios de la teoría cuántica, y si es posible
extrapolarlos del ámbito subatómico a la enorme escala del universo, son preguntas que las
mejores mentes de la física y de la filosofía no han conseguido todavía responder.
2. Multiverso cosmológico débil.
Estos multiversos fueron introducidos por los cosmólogos ortodoxos para el ajuste
de los parámetros físicos clave necesarios para la creación del entorno fisicoquímico donde
la vida humana pueda evolucionar, el llamado «universo antrópico». La mayoría de estas
conjeturas proponen que los demás universos tienen una vida corta o existen en el mismo
espacio tridimensional que el nuestro pero a una distancia remota, mucho más allá de
nuestro horizonte de contacto. (Un multiverso cuántico, por otro lado, no presenta una
distancia física que separe universos existentes en ramas cuánticas paralelas.)
Los he etiquetado como «débiles» porque solo asumen que varían los valores de las
constantes o parámetros físicos, como la carga de un electrón o el valor de la constante
gravitatoria. Sus defensores no ofrecen buenos motivos para explicar por qué, en un
multiverso donde cualquier cosa es posible, solo varían las constantes físicas mientras que
las leyes de la física permanecen iguales. Suponer que las leyes de la física observadas en
una parte minúscula de un universo son las mismas que las de los demás universos que
desconocemos es irracional.
A diferencia de otras versiones, la conjetura del multiverso de Smolin, que
evoluciona mediante la selección natural cosmológica de universos con agujeros negros,
proclama su consistencia externa con otros dogmas científicos porque el mecanismo de la
selección natural funciona en la biología. En la Segunda Parte examinaré si la selección
natural en la evolución biológica está demostrada en términos científicos, pero parece que
sí. Sin embargo, esta conjetura depende también de una serie de supuestos cuestionables,
tres de los cuales son a todas luces irracionales, como se comentó en el capítulo 5.[14]
3. Multiverso cosmológico moderado.
Estas ideas permiten la variación de factores distintos a las constantes físicas. Un
ejemplo sería un universo con dimensiones distintas. Las conjeturas de cuerdas especulan
que el universo de tres dimensiones espaciales que percibimos forma parte de un
megaverso de once dimensiones (este número ha variado en el pasado y podría cambiar en
el futuro).[15]
Otro ejemplo surge a partir de las conjeturas de paisaje de posibilidades de la teoría
de cuerdas, en las que todos los posibles megaversos tienen constantes y leyes de física
distintas, además de dimensiones distintas.[16]
A pesar de que permiten más variaciones que la version debil, estas conjeturas no
permiten universos que no estén gobernados por la «teoría» de cuerdas y no explican por
qué debería ser así.
Además, como vimos en la sección titulada «Problemas de la teoría de
cuerdas»[17], por mucho que cada teoría de cuerdas sea internamente consistente, Smolin
presenta un caso potente contra la consistencia externa con las evidencias y llega a la
conclusión de que «todas las versiones que podemos estudiar en detalle no están conformes
con la observación».9 Sostiene además que es externamente inconsistente con los
principios científicos de la teoría de la relatividad: «El descubrimiento de Einstein de que la
geometría del espacio y el tiempo es dinámica no se ha incorporado a la teoría de cuerdas».
[18]
Sin más resultados positivos de los test de racionalidad para las conjeturas
científicas (que no es lo mismo que las matemáticas), resulta complicado ver cómo la
hipotética existencia de otras dimensiones es más sostenible que la creencia de muchas
escuelas budistas de que existen treinta y un ámbitos de existencia distintos.[19] Además, la
hasta ahora no verificable idea de que la materia del universo no se reduce a partículas
fundamentales sino a cuerdas de energía no parece ni más ni menos razonable que la visión
de las Upanishad de que el prana (la energía vital) es el sustrato esencial de todas las
formas de energía y, en muchas interpretaciones, de toda la materia.[20]
4. Multiverso cosmológico fuerte.
Esto lleva la conjetura a su conclusión lógica: universos en los que todo es posible.
Tegmark propone con entusiasmo este punto de vista, etiquetándolo como un
universo de Nivel IV, lo que «elimina la necesidad de especificar nada».[21]
Adopta una postura platónica y asegura que una estructura matemática satisface un
criterio básico de existencia objetiva porque es siempre igual, sea quien sea quien la
estudie: «un teorema es cierto independientemente de si lo pone a prueba un ser humano,
un ordenador o un delfín inteligente».
Propone asimismo que «todas las estructuras matemáticas existen también
físicamente. Toda estructura matemática se corresponde con un universo paralelo. Los
elementos de este multiverso no residen en el mismo espacio sino que existen fuera del
espacio y el tiempo». Sin embargo, no consigue explicar ni sugerir cómo se originaron estas
estructuras matemáticas.
Reconoce que no existe ninguna estructura matemática conocida que encaje
exactamente con nuestro universo y llega a la conclusión de que o encontramos una o
«chocaremos contra el límite de la efectividad irracional de las matemáticas» y tendremos
que abandonar este nivel.
Afirma que el concepto de multiverso supera el test de la parsimonia. Defiende que
es posible dar la vuelta al argumento de que la naturaleza no es tan despilfarradora como
para permitirse una infinidad de mundos distintos que nunca podremos observar y defender
un multiverso, porque el conjunto completo siempre suele ser más sencillo que uno solo de
sus integrantes. Por ejemplo, el conjunto de soluciones a las ecuaciones de campo de
Einstein es más sencillo que una solución concreta. «En este sentido, los multiversos del
nivel más superior son los más sencillos». Puesto que «el multiverso de Nivel IV elimina la
necesidad de especificar cualquier cosa […] el multiverso no podría ser más sencillo».
Creo que podría discutirse que si no se especifica nada en absoluto, el multiverso no
tiene ningún sentido.
De un modo similar, esa misma falta de especificidad significa que es imposible
demostrar cualquier consistencia externa, bien con las evidencias, bien con otros dogmas
científicos.
Además, Tegmark no ofrece razones para detenerse en las estructuras matemáticas.
Si todo es posible, la consecuencia es que uno de los universos posibles posee propiedades
que están determinadas, no por una estructura matemática sino por Dios y de tal manera,
además, que la evolución de seres humanos como nosotros es un resultado inapelable. Y
este es precisamente el universo antrópico por diseño divino que el multiverso pretende
contratacar.
Conclusiones

Ni la ciencia ni la razón ofrecen una explicación convincente sobre el origen y la


forma del universo y, en consecuencia, tampoco la ofrecen sobre el origen de la materia y la
energía de las que estamos hechos. Creo que probablemente es algo que queda lejos de su
alcance. Según Ellis, la ciencia tiene una capacidad tremendamente limitada para dar
respuesta a preguntas tan fundamentales como estas. Las evidencias obtenidas hasta el
momento en nuestro periplo apoyan su «profunda conclusión de que obtener la certidumbre
en el conocimiento de los fundamentos de todas las áreas de la vida, incluyendo tanto la
física fundamental, como la cosmología, la filosofía e incluso, el bastión aparentemente
inexpugnable de las matemáticas, es una cuestión inalcanzable».[22] No pretendo con esto
que nos aboquemos a la desesperación y al pesimismo. Si aceptamos las limitaciones de la
ciencia y el razonamiento, «podemos conseguir una comprensión satisfactoria, profunda
incluso, del universo y de su funcionamiento, y, por mucho que debamos tener siempre
presente que es provisional, podrá aportarnos una visión del mundo satisfactoria y una base
de actuación».
Por suerte, la ciencia aumentará su poder explicativo cuando pasemos del origen de
la materia a su evolución.
[1]Para estas divisiones he recurrido a Ellis (2007), S.9.3.3.
[2]Tegmark, Max, «Parallel Universes» Scientific American, 1 de mayo de 2003,
http://www.sciam.com/article.cfm?articleID=000F1EDD-B48A-1E90-
8EA5809EC5880000. Consultado el 8 de agosto de 2006.
[3]Penrose (2004), pp. 17–19 y 1027–1029.
[4]Ward, Keith, «Cosmology and Creation», Gresham College lecture, Londres, 17
de noviembre de 2004.
[5]Elgin (1993), capítulo 13.
[6]Smolin (1998), p. 242.
[7]Weinberg (1994), p. 94.
[8]Rees (2000).
[9]Smolin (1998), p. 198.
[10]Véase página 68.
[11]Véase capítulo 9 para una explicación más detallada.
[12] Véase página 160.
[13] Ya que el número de resultados alternativos de todos los sucesos cuánticos
desde el Big Bang es inimaginablemente grande, Paul Davies describió esta conjetura como
«barata en supuestos pero cara en universos».
[14] Véase página 108.
[15] Véase página 121 y página 130.
[16] Véase página 130.
[17] Véase página 130.
[18]Íbid, p. 184,
[19]http://www.accesstoinsight.org/ptf/dhamma/sagga/loka.html. Consultado el 9 de
junio de 2014.
[20] Véase glosario para una interpretación completa.
[21]Tegmark (2003).
[22]Ellis (2002), S.6.6.
CAPÍTULO 8. LA EVOLUCIÓN DE LA MATERIA A GRAN ESCALA

Tenemos que explicar por qué el universo es tan uniforme a grandes escalas y
sugerir, además, el mecanismo que produce las galaxias.

Andrei Linde, 2001

Por muy impresionante que sea una teoría cosmológica, tiene que cuadrar con lo
que nosotros vemos en el cielo.

Michael Rowan-Robinson, 1991

Como hemos visto, la ortodoxia cosmológica actual y las explicaciones sobre el


origen del universo que compiten con ella son más conjeturas que teorías científicas
respaldadas con evidencias. Examinaré a continuación la explicación que da la ciencia a
cómo evolucionó la materia desde su estado primordial hasta formas más complejas,
culminando con el ser humano.
Evolución: proceso de cambio que afecta a alguna cosa, especialmente de un estado
sencillo a otro más complejo.
Utilizo este significado porque quiero dejar claro que la evolución no está limitada a
la evolución biológica, sino que es un fenómeno que percibimos en todo el universo.
Como que la evolución de la materia depende críticamente de cómo interactúan los
distintos elementos de la materia, comentaré en primer lugar lo que conoce hoy en día la
ciencia sobre las cuatro interacciones fundamentales a las que sabemos que se reducen las
fuerzas naturales. A continuación resumiré el relato que la ortodoxia cosmológica actual
hace de la evolución de la materia a gran escala, distinguiendo entre conjetura e hipótesis,
por un lado, y teoría sustentadas por evidencias firmes, por el otro, y consideraré los
desafíos razonables y las explicaciones científicas alternativas cuando sea necesario. En el
capítulo siguiente examinaré la evolución de la materia a pequeña escala.
Las fuerzas fundamentales de la naturaleza

Subhash Kak, profesor Regents y director del departamento de Ciencias de la


computación de la Oklahoma State University, afirma que en la India antigua ya se conocía
la gravedad.[1] Muchos filósofos, desde Aristóteles en el siglo iv a. C., especularon sobre la
fuerza que provoca el movimiento de los planetas y también sobre la fuerza que provoca la
caída de los objetos hacia la Tierra. Pero es a Isaac Newton a quien se atribuye la
formulación de una ley de la gravitación universal que aplica tanto a la fuerza que retiene a
los objetos en la Tierra como a la fuerza que mantiene a la luna y los planetas en sus
órbitas. La ley se publicó en 1687 como parte de la obra Principia Mathematica.
La fuerza magnética se conoce al menos desde el siglo v a. C., la electricidad
estática fue mencionada por Tales hacia 600 a. C., mientras que las corrientes eléctricas
fueron descubiertas en 1747 por William Watson. El reconocimiento de que la fuerza
eléctrica y la fuerza magnética eran lo mismo se inició en 1820, cuando Hans Orsted
descubrió que las corrientes eléctricas producían campos magnéticos, mientras que Michael
Faraday demostró en 1831 que un campo magnético cambiante induce una corriente
eléctrica. Entre 1856 y 1873, James Clerk Maxwell desarrolló la teoría del campo
electromagnético dotándola de una base matemática, derivó de ella las leyes del
electromagnetismo y descubrió el carácter electromagnético de la luz.
Después del descubrimiento del neutrón en 1932, Hideki Yukawa propuso en 1935
la existencia de una fuerza entre nucleones[2] que adoptaba la forma de un intercambio de
partículas masivas, a las que denominó bosones. La idea fue desarrollada a finales de los
70, cuando físicos de partículas llegaron a la conclusión de que los quarks, y no los
nucleones, eran las partículas fundamentales y que su interacción —la fuerza fuerte—
constituía una fuerza fundamental de la naturaleza, lo que relegó la fuerza nuclear a algo
«residual» de la fuerza fuerte.
Henri Becquerel descubrió los «rayos uránicos» en 1896, aunque eso fue décadas
antes de que los científicos comprendieran los diversos procesos de desintegración
radiactiva por las que un núcleo atómico inestable pierde energía emitiendo radiación en
forma de partículas o de ondas electromagnéticas. La fuerza débil, responsable de un tipo
de desintegración radiactiva, fue definida como tal en 1956 por Chen Ning y Tsung Dao
Lee, cuando predijeron que la ley de conservación de paridad[3] —considerada hasta
entonces universal— no se mantenía con interacciones débiles. Chien-Shiung Wu confirmó
experimentalmente la hipótesis un año más tarde.
Las cuatro fuerzas fundamentales que actúan entre las partículas elementales de las
que se supone es que está compuesta toda la materia, se conocen hoy en día como las cuatro
interacciones fundamentales. Los conocimientos que sobre ellas tiene la ciencia actual
podrían resumirse como sigue.
Interacción gravitatoria

En la física newtoniana, la fuerza gravitatoria es una fuerza instantánea de


interacción entre todas las partículas de masa. Es la única universal de las cuatro
interacciones fundamentales. Su alcance es infinito, su efecto siempre es atractivo y se
obtiene multiplicando las masas y dividiendo el producto obtenido por el cuadrado de la
distancia entre los centros de masa de las partículas y multiplicando el resultado por la
constante universal, G, lo que se conoce como la constante gravitatoria de Newton. Se
expresa matemáticamente como sigue:

Donde F es la fuerza gravitatoria, m1 y m2 son las masas, r es la distancia entre los


centros de masa y la constante, G, es un número increíblemente pequeño: 6,67 x 10-11
metros3 (kg-seg2)-1.
Físicos e ingenieros siguen utilizando hoy en día esta ecuación porque la mayoría de
masas y velocidades que experimentamos coinciden a la perfección con los datos. Se
utiliza, por ejemplo, para calcular las trayectorias de los vuelos espaciales. La teoría
científica actual, sin embargo, la considera tan solo una buena aproximación. La teoría de la
relatividad general de Einstein cambió el concepto de la gravedad: no es una fuerza de
interacción entre masas sino una deformación del tejido espacio-tiempo provocada por la
masa; no es instantánea[4].
Según la teoría del campo cuántico, el campo gravitatorio creado por una masa
debería ser «cuantizable», es decir, su energía debería aparecer en cuantos discretos, lo que
se conoce como gravitones, del mismo modo que la energía de la luz aparece en cuantos
discretos llamados fotones; la teoría, sin embargo, se desmorona cuando se aplica a
energías muy elevadas (y, en consecuencia, a longitudes de onda muy cortas). Las masas
aceleradas deberían emitir ondas gravitacionales —que son campos gravitatorios en
propagación—, del mismo modo que las cargas aceleradas emiten ondas electromagnéticas.
En 2014, científicos de los observatorios gemelos Laser Interferometer Gravitational-wave
Observatory (LIGO) [Observatorio de ondas gravitacionales con interferómetro láser],
localizados en Livingston (Louisiana) y Hanford (Washington), anunciaron la detección de
ondas gravitacionales generadas durante la última fracción de segundo de la fusión de dos
agujeros negros, para producir un único agujero negro más masivo en rotación. No existen
actualmente evidencias que soporten la existencia de los gravitones.
Interacción electromagnética

La interacción electromagnética se asocia con los campos eléctricos y magnéticos,


que son manifestaciones de un único campo electromagnético. Gobierna la interacción
entre dos partículas cargadas eléctricamente, como un protón y un electrón, y es
responsable de las interacciones químicas y de la propagación de la luz.
Igual que sucede con la interacción gravitatoria, su alcance es infinito y su fuerza es
inversamente proporcional al cuadrado de la distancia entre partículas; pero a diferencia de
la interacción gravitatoria, puede ser tanto atractiva, cuando las dos cargas son distintas
(positiva y negativa) como repulsiva, cuando las dos cargas son iguales (ambas positivas o
ambas negativas). La interacción electromagnética entre átomos es 1036 veces más fuerte
que su interacción gravitatoria.
Según el modelo estándar de la física de partículas, opera por el intercambio de un
mensajero o partícula portadora, el fotón sin masa, entre partículas con carga. El fotón es un
cuanto de energía electromagnética que posee propiedades tanto de partícula como de onda
y tiene un tiempo de vida indeterminado. Su existencia queda demostrada por el efecto
fotoeléctrico, por el cual los metales emiten los electrones cuando son irradiados por la luz,
un fenómeno que la física clásica no alcanza a explicar pero que sí explica la teoría de los
fotones de Einstein.
La interacción electromagnética domina a escala de átomos y moléculas: los átomos
se mantienen unidos gracias a ella. Un átomo de hidrógeno consiste en un protón con carga
positiva alrededor del cual, y gracias a la fuerza electromagnética de atracción, se mantiene
en órbita un electrón con carga negativa. Cuando dos átomos de hidrógeno se unen en una
molécula, la fuerza eléctrica repulsiva de los dos protones se equilibra mediante la fuerza
de atracción de los dos electrones en órbita, haciendo que la molécula sea electrónicamente
neutra y estable.
Según la teoría cuántica, los electrones muestran cualidades tanto de partículas
como de ondas y por lo tanto, no orbitan alrededor del núcleo cargado positivamente en un
plano, como orbitaría la Tierra alrededor del sol, sino que lo hacen en una órbita en forma
de cubierta o capa. Esto significa que la carga negativa se extiende por el exterior del átomo
o molécula. En consecuencia, cuando dos moléculas en movimiento chocan, la fuerza de
repulsión entre las dos capas con carga negativa hace que las moléculas reboten. Y como
que esta interacción electromagnética es 1036 veces más fuerte que la interacción
gravitatoria entre las moléculas, la interacción gravitatoria puede ignorarse a nivel atómico
y molecular.
A modo de ilustración, si usted saltara desde lo más alto del Empire State Building,
la interacción gravitacional entre usted y el centro de la Tierra le haría acelerar hacia el
centro de la Tierra. Pero no conseguiría llegar allí porque la capa de electrones con carga
negativa que rodea sus moléculas exteriores se vería repelida por la capa de electrones con
carga negativa de las moléculas exteriores del pavimento: la colisión lo destrozaría.
La gravedad, sin embargo, domina las masas grandes de tamaño planetario. Y es así
porque la gravedad siempre es atractiva: si duplicamos la masa, duplicamos la fuerza
gravitatoria que ejerce. Pero dos cargas solo pueden ejercer el doble de fuerza de una sola si
ambas son positivas o ambas son negativas. Un cuerpo grande, como la Tierra, está
integrado por prácticamente la misma cantidad de carga positiva que negativa. En
consecuencia, la interacción atractiva y repulsiva entre las partículas a nivel individual
queda cancelada y la interacción electromagnética neta es mínima. En la escala de un
planeta pequeño o similares (incluyendo nuestra luna, que es excepcionalmente grande), la
gravedad reemplaza el electromagnetismo y es la responsable de su forma esférica.
Interacción fuerte

Se cree que la interacción fuerte es la fuerza que mantiene unidos a los quarks para
que forman protones, neutrones y otros hadrones, y que une a protones y neutrones para
que formen el núcleo del átomo, superando con ello la repulsión eléctrica de los protones
con carga positiva. Por lo tanto, es la responsable de la estabilidad de la materia.
Su alcance es aproximadamente el de un núcleo atómico y a estas distancias su
fuerza es unas cien veces superior a la de la interacción electromagnética. Si fuera más
fuerte, sería difícil romper los núcleos, no habría reacciones nucleares en cadena en el
interior de las estrellas y no podría producirse ningún elemento más allá del litio. Si fuera
más débil, los núcleos atómicos que poseyeran más de un protón no serían estables y no
habría elementos más allá del hidrógeno. Si actuara sobre los electrones, los empujaría
hacia el núcleo y tanto las moléculas como las reacciones químicas serían imposibles. Si
tuviera un alcance infinito, como la gravedad y el electromagnetismo, uniría a todos los
protones y neutrones del universo en un único núcleo gigantesco.
Según el modelo estándar de la física de partículas, opera por el intercambio de un
gluon sin masa —una partícula mensajera o intermediaria— entre quarks, de los que se
supone que están compuestos protones y neutrones. No se han observado gluones libres, de
los que se supone que existen ocho tipos. Su existencia fue deducida en 1979 a partir de
colisiones entre electrones y positrones en el acelerador de partículas DESY de Hamburgo.
Interacción débil

La interacción débil es la fuerza fundamental entre partículas elementales de


materia que juega un papel trascendental en la transformación de unas partículas en
partículas distintas, a través, por ejemplo, de una desintegración radiactiva. Es la
responsable de transformar un electrón y un protón en un neutrón y un neutrino, una fase
fundamental de las reacciones nucleares que se producen en el interior de las estrellas.
Es la interacción entre partículas fundamentales de espín ½, como los neutrinos,
pero no entre partículas de espín 0, 1 o 2, como los fotones. Es varios órdenes de magnitud
más débil que la interacción electromagnética y mucho más débil que la interacción nuclear
fuerte, mientras que su alcance es de una milésima parte el diámetro del núcleo atómico.
Según el modelo estándar de la física de partículas, opera por el intercambio de
partículas mensajeras —las potentemente cargadas W+ y W-— y los bosones Z neutros;
estas partículas fueron detectadas en 1983 con el acelerador de partículas CERN instalado
en Ginebra.
Puesto que dos de estas interacciones han sido descubiertas y confirmadas en los
últimos ochenta años, sería poco inteligente asumir que en el futuro no se descubrirán otras
fuerzas o interacciones de carácter distinto. De hecho, hay quien afirma haber identificado,
a través de estudios de la conciencia humana, una o más fuerzas adicionales. Examinaré las
propuestas más razonables cuando llegue su momento, pero por el momento adelantaré que
no mantienen ningún tipo de relación aparente con el relato cosmológico de la evolución de
la materia.
La evolución de la materia según la cosmología ortodoxa actual

Si agrupamos los resúmenes de las hipótesis y conjeturas discutidas en los


anteriores capítulos y les incorporamos información obtenida a partir de otras fuentes
obtenemos lo que podría definirse como un calendario de la evolución de la materia según
la cosmología ortodoxa actual.
El Big Bang caliente

Tiempo: 0; Temperatura: ¿infinita?; Radio del universo: 0

El universo, incluyendo espacio, tiempo y una única fuerza de la naturaleza, cobra


existencia a partir de la nada en forma de minúscula bola de fuego de radiación con el Big
Bang caliente. Sin embargo, si utilizamos la teoría general de la relatividad para realizar
una extrapolación hacia atrás del universo, se produce una singularidad, un punto de
densidad infinita y temperatura infinita en el que la teoría de la relatividad se desmorona; el
principio de incertidumbre de la teoría cuántica insinúa que nada tiene sentido antes de los
10-43 segundos después del principio del tiempo.[5] Esta extrapolación de la física
conocida al tiempo, t = 0, no es fiable,[6] por lo que esta explicación del origen de la
materia es una conjetura.
Tiempo: 10-43 segundos; Temperatura: 1032 K;

Radio del universo: 10-33 centímetros

El radio del universo es la distancia más corta recorrida a la velocidad de la luz en la


que es aplicable la teoría cuántica (longitud de Planck[7]). La fuerza gravitatoria se separa
de la fuerza universal dejando una gran fuerza unificada.
El universo se expande rápidamente, pero su ritmo de expansión está
ralentizándose. A medida que se expande y se enfría, la radiación generada por el Big Bang
produce partículas y antipartículas fundamentales que se aniquilan mutuamente y se
convierten de nuevo en radiación. El universo en expansión es, pues, una sopa en ebullición
de energía de radiación en forma de fotones, junto con una proporción mucho más pequeña
de electrones, cuarks, gluones y otras partículas fundamentales, más sus correspondientes
antipartículas, cuya existencia queda predicha por el modelo estándar de la física de
partículas.
Los quarks nunca se han detectado a nivel individual (ni tampoco los
correspondientes gluones que hipotéticamente actúan como las partículas que transportan la
fuerza fuerte). Su existencia fue deducida a finales de los años 60 a partir de los patrones de
dispersión detectados en experimentos de disparo de electrones contra núcleos atómicos
llevados a cabo en el Stanford Linear Accelerator Center. Para explicar por qué nunca se
han detectado quarks a nivel individual, los físicos de partículas conjeturan que están
confinados en el interior de bariones (tres quarks) y mesones (un quark y un antiquark); si
la energía se destina a extraer un quark de un barión, se transforma en una pareja quark-
antiquark.[8]
La especulación de que la gravedad surge a partir de una única fuerza universal se
basa en las conjeturas de una Teoría del Todo, que extrapola hacia atrás en el tiempo cien
millones de veces a partir de las ideas de las teorías de gran unificación (TGU) de la física
de partículas (véase abajo), que son problemáticas en sí mismas. No existen todavía
evidencias que lo sustenten y, por lo tanto, sigue siendo una conjetura.
Tiempo: 10-35 segundos; Temperatura: 1027 K; Radio del universo: 10-17
centímetros

Según las teorías de gran unificación (TGU), cuando el universo en expansión se


enfría por debajo de 1027 K (mil millones de millones de millones de grados), la radiación
deja de producir las hipotéticas partículas portadoras o mensajeras que perciben tanto las
fuerzas fuertes como las débiles. Estas partículas se desintegran y la fuerza fuerte —que
mantiene los quarks unidos y, en consecuencia, los protones y los neutrones— y la fuerza
electro-débil se separan de la gran fuerza unificada. Esta fase de transición separa
relativamente las partículas fundamentales grandes (quarks con carga positiva y antiquarks
con carga negativa) de los leptones relativamente pequeños (partículas que incluyen
electrones con carga negativa y neutrinos neutros). La conjetura defiende que esta ruptura
de la simetría explica la aparente ausencia de antimateria en el universo.[9] El modelo
estándar de la física de partículas plantea la hipótesis de que a temperaturas superiores a
1015 K, todas estas partículas fundamentales de materia (quarks, leptones y sus
correspondientes partículas de antimateria) carecen de masa.
La TGU más simple y sencilla, propuesta por Howard Georgi y Sheldon Glashow
en 1974 y conocida como SU(5), es matemáticamente elegante, lógica y ofrece una
predicción precisa sobre la desintegración de los protones. Sin embargo, más de veinticinco
años de experimentos no han conseguido detectar evidencias de desintegración de protones
cuando, estadísticamente, tendría que haberse producido. La SU(5) quedó así desaprobada.
Se desarrollaron otras TGU, incorporando más simetrías y más partículas y, por lo tanto,
más constantes que ajustar, permitiendo que el ritmo de desintegración de los protones
cambiara para que los teóricos pudieran, en palabras del físico teórico Lee Smolin,
«conseguir fácilmente que la teoría quedara a salvo del fallo experimental». Estas TGU han
«dejado de ser explicativas».[10] Son conjeturas.
En varios modelos, la inflación empieza o termina en esta hipotética fase de
transición hacia el universo. Las preferidas actualmente especulan con que la inflación
empieza y luego termina en un Big Bang caliente antes de que el universo se enfríe a 1027
K, cuando las fuerzas fuertes y débiles se separan.[11] Seguimos estando en el terreno de la
conjetura.
Tiempo: algún momento entre 0 y 10-35 segundos; Temperatura: ?;

Radio del universo: inflado hasta alguna cantidad situada entre 1010 y (1010)12
centímetros

Dependiendo de cuál de entre el centenar aproximado de versiones de la conjetura


de la inflación elijamos, en algún momento indeterminado del pasado, entre 0 y 10-11
segundos después del comienzo del espacio-tiempo, el universo sufre una inflación
exponencial durante un periodo de tiempo indeterminado, aunque increíblemente breve,
que aumenta el radio del universo hasta un tamaño situado entre 1010 y 101000000000000
centímetros.[12] (Se cree que el radio actual del universo observable es de 1028
centímetros.) Esta enorme discrepancia en el hipotético tamaño tiene su origen no solo en
las diferencias del periodo de inflación asumido, sino también en las diferencias del radio
inicial asumido, puesto que algunas versiones suponen que era considerablemente inferior a
la longitud de Planck y que la inflación se inició en un momento considerablemente inferior
al tiempo de Planck, 10-43 segundos después del comienzo de los tiempos. Estas versiones
presentan problemas teóricos, puesto que la teoría cuántica se desmorona con un tiempo
inferior a 10-43 segundos.
En la actualidad, los cosmólogos tienden a apoyar versiones en las que la creación
del universo va seguida por una inflación exponencial extremadamente rápida de un falso
estado de vacío y termina con el recalentamiento de una burbuja vacía que produce un Big
Bang caliente, a partir del cual se produce la lenta expansión del universo tal y como ha
quedado expuesta previamente.
Si todo esto parece confuso es porque la mayoría de cosmólogos presenta el modelo
del Big Bang inflacionario como la única explicación de la evolución del universo, pero no
se muestran de acuerdo en cuanto a cuándo y cómo empezó y terminó la inflación; hasta la
fecha, las evidencias no confirman la validez de ninguna versión ni sustentan ninguna por
encima de otra.[13]
Tiempo: 10-10 segundos; Temperatura: 1015 K; Radio de nuestra parte del
universo: 3 centímetros

Cuando el universo se expande, la partícula de energía cae hasta la escala de energía


típica de la fuerza débil, que se corresponde con una temperatura de 1015 K, momento en el
cual se separa de la fuerza electromagnética.
La teoría de que por encima de esta temperatura ambas fuerzas son la misma —la
fuerza electrodébil—, fue desarrollada en los años 60 del siglo pasado por Sheldon
Glashow, Steven Weinberg y Abdus Salam, y compartieron por ella el Premio Nobel. La
teoría ganó apoyos con el descubrimiento de tres de las varias partículas elementales que
predecía y se convirtió en la base del modelo estándar de la física de partículas.
Muchas de las predicciones del modelo electrodébil se han verificado con gran
precisión. Una de sus predicciones clave es la existencia del bosón de Higgs, la partícula
mensajera cuya interacción con quarks y leptones proporciona masa a estas partículas
fundamentales y, en consecuencia, a todas las partículas de masa del universo. En 2012, dos
experimentos llevados a cabo en el Gran colisionador de hadrones de Ginebra identificaron
la brevísima existencia del bosón de Higgs, o posiblemente de una familia de bosones de
Higgs, en cuyo caso el modelo estándar tendrá que revisitarse.[14]
Tiempo: 10-4 segundos; Temperatura: 1011 K; Radio de nuestra parte del universo:
106 centímetros

El universo se expande y se enfría hasta el punto en que quarks «trillizos» quedan


confinados en el interior de un rango de partículas llamadas hadrones, en las que los
protones y los neutrones estables constituyen los bloques constructivos básicos de la
materia que conocemos. El protón tiene una carga eléctrica equivalente en fuerza a la de un
electrón, pero es positivo en comparación con la carga negativa del electrón; posee una
masa 1836 veces superior a la del electrón. El protón recibe también el nombre de ion
hidrógeno.[15] Inicialmente, el número de protones y neutrones es idéntico; sin embargo, la
masa de un neutrón es ligeramente superior a la masa de un protón, de ahí que para crear un
neutrón se necesite más energía.
Tiempo: 1 segundo; Temperatura: 1010 K; Radio de nuestra parte del universo:
1010 centímetros

Se producen menos neutrones porque su masa superior exige más energía. Los
protones y los neutrones se separan a una razón de 7:1.
Tiempo: 100-210 segundos; Temperatura: 109 K → 108 K; Radio de nuestra parte
del universo: ~1012 centímetros

Llegado este punto, los neutrones y los protones que colisionan se fusionan, se
enlazan gracias a la interacción fuerte, con lo que se libera un fotón de energía; la energía
de los fotones que colisionan con las partículas fusionadas ya no es superior a la energía
nuclear que los enlaza, razón por la cual los fotones no pueden separarlos.
Una pareja protón-neutrón recibe el nombre de núcleo de deuterio, que es un
isótopo[16] del hidrógeno. Los núcleos de deuterio se fusionan entre sí y con otros
productos de la fusión para producir núcleos de helio-3, helio-4, tritio y litio-7 (véase figura
8.1). Este proceso de fusión nuclear, increíblemente rápido y con diversas fases, se conoce
como nucleosíntesis.
En los núcleos del litio-7 se producen colisiones en cantidades minúsculas. Aparte
de esto, y debido a que no existe ningún núcleo estable con cinco partículas, el modelo de
nucleosíntesis del Big Bang no produce ningún núcleo mayor que el del helio-4, que
consiste en dos protones y dos neutrones. Presenta, con diferencia, la energía de enlace más
elevada de todos los núcleos, con un número de masa (número de nucleones) inferior a
cinco, y es el principal producto de la nucleosíntesis del Big Bang.[17]
Cuando el universo se expande y se enfría por debajo de cien millones de grados
(108 K), la temperatura no es lo suficientemente elevada como para provocar la fusión y la
nucleosíntesis se acaba, dejando en torno al 95 por ciento de los núcleos como protones
estables (hidrógeno-1), el 5 por ciento como núcleos estables de helio-4, y trazas de núcleos
de deuterio, helio-3 y litio-7.[18]
La relativa abundancia de estos elementos[19] que encontramos hoy en día en el
universo se presenta como una prueba poderosa del modelo del Big Bang, pero también
esto se ha puesto en duda.[20] Seguimos en el terreno de las hipótesis.
En este momento, la densidad media de la materia es equivalente a la actual
densidad del agua.
Los isótopos de hidrógeno reciben nombres especiales: el hidrógeno-2 se conoce
como deuterio, mientras que el hidrógeno-3 se conoce como tritio.
Tiempo: 3 ½ minutos hasta 380.000 años; Temperatura: 108 K → 104 K;

Radio de nuestra parte del universo: 1013 → 1023 centímetros

Durante los 380.000 años siguientes, el universo en expansión y enfriamiento


consiste en un plasma integrado por estos núcleos con carga positiva más electrones con
carga negativa emparejados con fotones de radiación de carga neutra. Al inicio, la radiación
domina porque la densidad de energía de los fotones es mucho mayor que la densidad de
energía de la materia. Pero a medida que el universo se expande y se enfría, la densidad de
energía de la materia disminuye menos que la de la radiación: la densidad de los fotones y
de las partículas de materia disminuye en proporción al volumen pero, mientras que las
partículas de materia retienen su energía-masa (calculada mediante E = mc2), cada fotón va
perdiendo energía al extenderse hacia longitudes de onda más extensas.
Tiempo: 380.000 años; Temperatura: 3.000 K; Radio de nuestra parte del universo:
1023 centímetros

El universo se enfría hasta el punto en que los electrones con carga negativa acaban
siendo capturados por núcleos con carga positiva para formar moléculas de hidrógeno (H2)
diatómicas estables con carga eléctricamente neutra, más trazas de deuterio (D2 y HD)
junto con átomos de helio (He) y trazas de litio (Li). La radiación electromagnética se
escinde de la materia y se expande por el universo en proceso de expansión y enfriamiento
para formar el fondo cósmico de microondas que detectamos hoy en día.[21]
Tiempo: 200-500 millones de años; Temperatura: variable; Radio del universo
observable: 1026 (1 por ciento del radio actual) a 1027 centímetros (10 por ciento del radio
actual)

Las diferencias de densidad de la nube de moléculas —principalmente gas


hidrógeno— crea campos gravitatorios que ralentizan las regiones más densas, que acaban
separándose y formando nubes de años luz de anchura que siguen contrayéndose bajo su
propia gravedad. La conversión de la energía gravitatoria potencial en la energía cinética de
las moléculas incrementa la temperatura en el centro, o núcleo, de las nubes; el espacio
entre las nubes sigue expandiéndose.
Entre 200 y 500 millones de años después del Big Bang, algunas nubes se han
contraído tanto, y su núcleo se ha calentado hasta tal punto —15 millones de grados Kelvin
—, que se encienden como consecuencia de la fusión del hidrógeno y su núcleo emite una
radiación caliente y luminosa que contrarresta cualquier colapso gravitatorio. Se forma así
la primera generación de estrellas y las galaxias empiezan a tomar forma bajo la influencia
gravitatoria de materia oscura desconocida.
Los únicos elementos del universo son el hidrógeno, el helio y trazas de litio.
Tiempo: 500-13,8 miles de millones de años; Temperatura: variable; Radio del
universo observable: se expande hasta 13,8 miles de millones de años luz

La primera generación de estrellas grandes consume su hidrógeno y sufre un


colapso gravitatorio hasta el punto en que el aumento de temperatura hace que la fusión del
helio produzca carbono. El proceso continúa y produce, a través del colapso y la fusión
nuclear, elementos cada vez más pesados. Cuando agotan su combustible nuclear y la
liberación de radiación no basta para contrarrestar la gravedad, implosionan y luego
explotan para transformarse en supernovas, proyectando los elementos más pesados hacia
el espacio interestelar. De las nubes de gas de hidrógeno interestelar mezclado con el polvo
y el gas de las supernovas surgen las estrellas de segunda y tercera generación, mientras
que las galaxias evolucionan, creando las estructuras que vemos hoy en día.
Esta historia ortodoxa del universo queda ilustrada en la figura 4.1 (página 92).
La estructura del universo

Como vimos en el capítulo 3, los supuestos simplificadores que se aplicaron para


resolver las soluciones de campo de la teoría de la relatividad general de Einstein dan como
resultado un universo homogéneo, pero las observaciones demuestran que no es así: el
universo está integrado por muchas estructuras distintas. A continuación, examinaré estas
estructuras con mayor detalle y explicaré luego su evolución.
Una galaxia es un conjunto de estrellas que orbita alrededor de un centro. Un
ejemplo es nuestra Vía Láctea, que comprende unos cien mil millones de millones de
estrellas y tiene una anchura aproximada de cien mil años luz. Vista de perfil, parece un
huevo frito rodeado por más de un centenar de puntos brillantes, que son cúmulos
globulares, nudos formados por cientos de miles de estrellas antiguas (véase figura 8.2); la
protuberancia central contiene estrellas viejas y, visto desde arriba, el disco se ve como una
espiral integrada por estrellas más jóvenes, gas y polvo (véase figura 8.3). Además de
galaxias en espiral, como la Vía Láctea, se han observado otras formas de galaxias, como
las galaxias elípticas —que se cree que son esferoides— y las irregulares. Las evidencias
indican que algunas de estas galaxias son el resultado de la colisión de galaxias que en su
día eran independientes.[22]
En el siguiente nivel, las galaxias forman grupos locales, como nuestro Grupo
Local, que tiene una anchura de varios millones de años luz e integra nuestra Vía Láctea,
una galaxia en espiral de tamaño mayor llamada Andrómeda hacia la que estamos
desplazándonos, más una treintena más de galaxias de menor tamaño. Nuestro Grupo Local
se sitúa cerca del extremo del Cúmulo de Virgo, integrado por más de mil galaxias y cuyo
centro está a cincuenta millones de años luz de nosotros.
Como vimos en el capítulo 3, en 1989 un grupo de astrónomos descubrió otro nivel
de estructura: gigantescos supercúmulos en forma de sábana separados entre sí por grandes
vacíos similares a burbujas. Observaciones posteriores de secciones más grandes y más
remotas del universo, llevadas a cabo con instrumentos más sensibles, revelaron
supercúmulos mayores si cabe —de hasta diez mil millones de años luz de longitud—,
cuyo tamaño quedaba solo limitado por el alcance la investigación.[23] Todo esto
contradice el supuesto ortodoxo de que, a gran escala, el universo es isotrópico y
homogéneo.
Causas de la estructura del universo

Los cosmólogos explican que lo que provocó la estructura del universo fue la
inestabilidad gravitatoria. Según esta explicación, las pequeñas heterogeneidades de la
materia (principalmente de las moléculas de hidrógeno) del universo primitivo crearon
regiones ligeramente más densas que el resto. El campo gravitatorio de estas regiones más
densas atrajo otra materia, que las hizo más densas si cabe, creando de este modo un campo
gravitatorio mayor que siguió atrayendo materia, y así sucesivamente.
Todo esto parece razonable, aunque plantea dos preguntas: (a) ¿cómo surgieron las
heterogeneidades iniciales? y (b) ¿cómo produjeron estas heterogeneidades las estructuras
que observamos actualmente?
Causas de las heterogeneidades iniciales

La explicación ortodoxa era que la inflación elongó las fluctuaciones cuánticas


subatómicas de la materia creada por el Big Bang hasta el tamaño de las galaxias o incluso
mayor. Los patrones precisos de las ondulaciones del fondo cósmico de microondas
revelados en 1992 por el satélite COBE[24] eran las evidencias que soportaban dicha
explicación.
Pero si examinamos esta explicación con más detalle, resulta menos convincente de
lo que parece de entrada.
En la primera versión propuesta por Guth, la inflación terminaba con lo que se
conoce como una fase de transición de primer orden, en la que burbujas de vacío formadas
al azar colisionaban entre sí. Guth asumía que esto produciría las heterogeneidades
requeridas, pero cuando se realizaron todos los cálculos, el resultado ofreció
heterogeneidades excesivamente grandes.
En la segunda versión, se asumió que todo el universo observado estaba en el
interior de una única burbuja, de modo que cualquier colisión de burbujas quedaba
demasiado lejos como para tener efectos observables. La inflación produciría un universo
liso, aun en el caso de que la materia fuera extremadamente grumosa antes de que se
iniciara la inflación. Pero esto seguía sin explicar cómo se produjeron las heterogeneidades.
El trabajo en colaboración de Guth, Steinhardt, Hawking y otros científicos
encontró una solución basada en las teorías de gran unificación. Según este escenario, la
inflación termina con la ruptura de simetría espontánea del campo de Higgs, el hipotético
campo escalar de energía donde el mediador es el bosón de Higgs, que proporciona masa a
las partículas fundamentales. Guth y sus colaboradores asumieron que el espectro de las
perturbaciones de densidad —heterogeneidades fluctuantes— adoptaba una escala
invariable, es decir, que todas las longitudes de onda tienen la misma fuerza. Esto es lo que
se había descubierto en el fondo cósmico de microondas, interpretado como la reliquia de la
escisión de la radiación de la materia que, según las estimaciones de entonces, se produjo
300.000 años después del Big Bang. Pero el resultado del cálculo de la magnitud de las
perturbaciones en el momento de la escisión era demasiado grande para producir la
estructura que observamos hoy en día.
Estaban convencidos de que el concepto era el correcto pero, viendo que el campo
de energía de Higgs daba un resultado erróneo, buscaron la solución en conjeturar la
existencia de otro campo escalar de energía, un campo de inflación donde el mediador fuera
una hipotética partícula inflatón, que sí dio el resultado correcto. Tal y como Guth
reconoce, «una teoría de este tipo se ve forzada por el objetivo de conseguir que las
perturbaciones de la densidad salgan correctas».[25]
Versiones posteriores propusieron que las fluctuaciones cuánticas se produjeron en
un vacío preexistente y que el campo de la inflación las infló antes de transformarlas en
materia ligeramente heterogénea en un Big Bang caliente.
En 2014, Steinhardt llegó a la conclusión de que el modelo inflacionario es tan
flexible que «fundamentalmente no puede someterse a pruebas de laboratorio y, por lo
tanto, carece de sentido científico».[26] Además, como vimos en el capítulo 6, varios
cosmólogos afirman que el análisis de las ondulaciones obtenido mediante el WMAP, el
detector espacial cuarenta y cinco veces más sensible que el COBE y lanzado una década
después, muestra inconsistencias importantes con el modelo de la inflación, afirmación que
ha sido confirmada por datos obtenidos en 2013 por el telescopio Planck[27], todavía más
sensible. Otras conjeturas cosmológicas recurren también a la densidad de las ondulaciones
del fondo cósmico de microondas.[28]
La única conclusión razonable a la que podemos llegar es que no sabemos de dónde
surgen las heterogeneidades iniciales y que la actual explicación ortodoxa no es más que un
modelo matemático forzado que sigue produciendo inconsistencias con la observación.
Causas de las grandes estructuras

Y por lo que se refiere a cómo estas heterogeneidades iniciales produjeron las


grandes estructuras que observamos hoy en día, la mayoría de los trabajos se han llevado a
cabo a nivel de galaxias, utilizando como evidencias tanto nuestra galaxia como de galaxias
cercanas puesto que, hasta muy recientemente, eran las principales estructuras que
alcanzaba a mostrar la observación.
Hay dos conjuntos de modelos en competencia. Los modelos de descendentes —
como el que avanzaron Eggen, Linden-Bell y Sandage en 1962—, proponen que las
estructuras de nivel superior, como podría ser una nube galáctica, son las primeras en
formarse y a lo largo de cien millones de años colapsan en nuevas estelares que producen
estrellas.[29] Los modelos ascendentes —como el que Searle y Zinn propusieron en 1978
—, plantean que las estrellas se forman primero y la atracción gravitatoria las une para
formar cúmulos globulares que, a su vez, se unen para formar una galaxia.[30]
Los datos aportados por el COBE en 1992 demostraron que ambos modelos son
erróneos. Según la interpretación ortodoxa del momento, indican un grado de
heterogeneidad en cuestión de 300.000 años después del Big Bang de uno entre 100.000,
una variación de densidad extremadamente pequeña para que la inestabilidad gravitatoria
pueda provocar la formación de cualquier tipo de estructura.
Se plantearon entonces diversas conjeturas para explicar la formación de
estructuras, incluyendo entre ellas las cuerdas cósmicas (largos filamentos en forma de
espagueti sobre los que conjeturan algunas teorías de gran unificación que se habrían
formado en un universo muy primitivo como defectos topológicos del tejido espacio-
tiempo) y las ondas de choque provocadas por cuásares, que crearían regiones con densidad
de materia mucho más alta. Pero esto no explica cómo se formaron los cuásares emisores
de elevada energía ni los gigantescos agujeros negros que supuestamente los causaron.
La mayoría de cosmólogos resucitó la idea de la materia oscura que había propuesto
Fritz Zwicky en 1933.[31] Para generar las estructuras observadas, esta materia oscura
tendría que constituir más del 90 por ciento de toda la materia del universo.
Se desarrollaron dos conjeturas. El modelo de materia oscura descendente
especulaba que la materia oscura está integrada por partículas que se mueven prácticamente
a la velocidad de la luz. Una de las partículas candidatas fue la de los neutrinos. Los físicos
siempre habían pensado que estas partículas carecían de masa y se movían exactamente a la
velocidad de la luz, pero decidieron no descartar la posibilidad de que los neutrinos
tuvieran una pequeña masa y se movieran a algo menos que la velocidad de la luz. De ser
así, los neutrinos formarían estructuras a escalas muy grandes que colapsarían para crear
unos colectivos con una forma similar a la de una tortita a partir de los cuales surgirían las
galaxias. Pero cuadrar esta imagen de arriba hacia abajo con la distribución de las galaxias
en cúmulos resultaba complicado.
La versión favorita fue el modelo de materia oscura ascendente, según el cual la
materia oscura estaría integrada por WIMP (partículas masivas de interacción débil) de
movimiento lento y, por lo tanto, frías, dejadas por el Big Bang. No existen partículas
conocidas que posean las propiedades necesarias para encajar con el modelo, pero los
físicos de partículas conjeturaron con diversas candidatas, como el fotino, una versión súper
pesada del fotón sin masa. Estas súper partículas de interacción débil se habrían escindido
de la radiación mucho antes que los bariones (protones y neutrones que constituyen la
materia que observamos). Al ser de movimiento lento, se habrían ido amontonando bajo la
influencia de la gravedad hasta formar grandes masas galácticas. Cuando los bariones se
escindieron de la radiación, habrían sido atraídos por su campo gravitatorio hacia el centro
de una masa galáctica oscura donde habrían formado una galaxia visible rodeada por un
gran halo de materia oscura invisible y fría. La atracción de la gravedad habría unido estas
galaxias súper masivas —con un tamaño diez veces superior a lo que hoy observamos—
para formar cúmulos y supercúmulos. El modelo, sin embargo, estaba obligado a asumir
que la formación de galaxias estaba «sesgada», puesto que las galaxias solo se formarían
allí donde la densidad de la materia oscura fría sufriera fluctuaciones excepcionalmente
grandes.
Pero incluso así, cuando se realizaron los cálculos para obtener una estimación de la
masa de todas las galaxias, incluyendo sus halos oscuros, y conocer la densidad media de la
masa del universo, el resultado no alcanzó el 10 por ciento necesario para la densidad
crítica asumida por el modelo ortodoxo, en el que la energía cinética de expansión queda
compensada por la atracción gravitatoria de la materia.[32]
Por lo tanto, conjeturaron los cosmólogos, para poder alcanzar esta densidad crítica,
en el universo tiene que haber muchísima más materia oscura. Con este supuesto, la
conjetura de la materia oscura fría o CDM (del inglés «Cold Dark Matter») de creación
ascendente pasó a formar parte del modelo ortodoxo.
Sin embargo, las estructuras grandes y los grandes vacíos identificados por Geller y
Huchra en 1989 arrojan serias dudas sobre el modelo CDM. Según Michael Rowan-
Robinson, el documento publicado por Nature en 1991 sirvió para darle el golpe de gracia.
[33] Will Saunders y nueve colaboradores, Rowan-Robinson entre ellos, habían llevado a
cabo una investigación de las galaxias con desplazamiento al rojo detectadas por el Infrared
Astronomical Satellite y demostraron que a grandes escalas hay mucha más estructura que
la vaticinada por el modelo CDM.[34] Lo cual generó un artículo de opinión, «Cold Dark
Matter Makes an Exit» [La materia oscura fría se va], escrito por David Lindley, editor de
Nature, que destacaba que la desaprobación del modelo CDM estaba protagonizada por un
grupo que incluía algunos de los que habían sido sus máximos defensores. Alertaba en
contra de salvar el modelo introduciendo otros parámetros hipotéticos, como una constante
cosmológica, y comparaba intentos de este tipo con las soluciones de Ptolomeo para
explicar un sistema solar centrado en la Tierra.[35]
Pero esto fue justo lo que sucedió. Tal y como declararon Volker Springel y sus
colegas en 2005: «Durante las últimas dos décadas, el modelo de la materia oscura fría
(CDM) aumentado mediante un campo de energía oscura (que podría adoptar la forma de
una constante cosmológica, Λ) se ha desarrollado hasta convertirse en el modelo teórico
estándar de la formación de galaxias».[36]
Evidencias a favor del modelo ortodoxo
Las evidencias a favor de este modelo provienen principalmente de dos fuentes. En
primer lugar, los cosmólogos defienden que el Millennium Run de 2005, una detallada
simulación por ordenador, encaja bien con el modelo ortodoxo. Sin embargo, igual que
sucede con otras simulaciones por ordenador, está basada en muchos supuestos, incluyendo
la densidad de la materia oscura, la materia visible y la energía oscura, que son necesarias
para que el universo plano de la ortodoxia sea consistente con las conjeturas de la inflación.
Depende asimismo de «un modelo post-hoc de la física de formación de galaxias».[37]
De nuevo, cuando el modelo se ajusta a las observaciones obtenidas, el resultado
coincide con la observación y, en consecuencia, no es predictivo.
En segundo lugar, se afirma que la existencia de materia oscura —aunque no de qué
está hecha— ha quedado demostrada mediante la lente gravitacional, con la cual, según la
relatividad general, el campo gravitatorio de la materia oscura inferida desvía la luz de los
objetos más remotos provocando múltiples imágenes de estos objetos.[38] Sin embargo,
hay modelos matemáticos alternativos (como los de un universo pequeño o un universo
esféricamente simétrico no homogéneo) que también podrían explicar estos efectos.[39]
Evidencias contra el modelo ortodoxo
Según Riccardo Scarpa, como que la materia oscura no puede emitir luz ni ninguna
otra forma de radiación electromagnética, no puede irradiar su calor interno, un proceso
vital para llevar a cabo una contracción gravitatoria hasta la escala relativamente pequeña
de un cúmulo globular. De ahí que no debería haber materia oscura en los pequeños nudos
de estrellas que orbitan la Vía Láctea y muchas otras galaxias. Con todo y con eso, Scarpa y
sus colegas del Observatorio Europeo Austral, localizado en Chile, encontraron evidencias
en 2003 de que las estrellas de tres cúmulos globulares se mueven a mayor velocidad que la
que la gravedad de la materia visible es capaz de explicar.
Scarpa llega a la conclusión de que no hay necesidad de conjeturar acerca de la
existencia de la materia oscura en el universo. La explicación, propuesta más de veinte años
antes por Mordehai Milgrom, es que la ley de la gravedad de Newton solo es válida por
encima de una aceleración crítica. Jacob Bekenstein desarrolló una versión relativista de la
dinámica newtoniana modificada de Milgrom que Constantinos Skordis, de la Universidad
de Oxford, afirmó en 2005 haber utilizado para explicar tanto las ondulaciones del fondo
cósmico de microondas como la distribución de galaxias en el universo.[40]
Más aún, el Sloan Digital Sky Survey descubrió cuásares muy brillantes con
desplazamientos al rojo muy elevados. La interpretación ortodoxa de estos desplazamientos
al rojo los sitúa a unas distancias tan enormes que existirían cuando el universo tenía menos
de una décima parte de su edad actual.[41] La mayoría de cosmólogos piensa que estas
emisiones de radiación tan gigantescas están producidas por una gran cantidad de gas muy
caliente justo antes de su absorción por un gigantesco agujero negro situado en el centro de
una galaxia. Se ha realizado, por ejemplo, un cálculo con un cuásar que emite la luz de diez
millones de millones de soles, lo que correspondería a un agujero negro de casi mil
millones de masas solares, y que se estima que se formó solo 850 millones de años después
del Big Bang. Este descubrimiento sembró dudas sobre si una estructura tan enorme podría
haberse formado tan pronto si el modelo ascendente fuera el válido.
Pero Springel y sus colegas sostienen que la simulación del ordenador Millennium
Run muestra la formación de agujeros negros en fases muy tempranas del universo.[42] De
todos modos, creo que deberíamos ir con cuidado y no equiparar las simulaciones de
ordenador con la realidad, sobre todo cuando estas simulaciones dependen de todos los
supuestos y modelos post-hoc que se han mencionado en la sección anterior. Esta
advertencia queda reforzada por la identificación, en 2013, de un gran grupo cuásar que
parece ser la estructura más grande del universo primitivo. Según sus descubridores, su
tamaño desafía los supuestos de la cosmología ortodoxa.[43]
Además Spitzer, el telescopio espacial infrarrojo de la NASA lanzado en 2003, ha
detectado galaxias con elevado desplazamiento al rojo que se estima que se formaron entre
600 y mil millones de años después del Big Bang. Estas galaxias jóvenes deberían estar
integradas únicamente por estrellas jóvenes, pero incluyen gigantes rojas, como las de
nuestra propia galaxia, que según los astrofísicos habrían necesitado miles de millones de
años para consumir el hidrógeno de su centro, después de lo cual habrían sufrido un colapso
gravitacional que calentaría sus capas externas hasta el punto de fusión que las llevaría a
inflarse y emitir luz roja. La interpretación de los datos aportados por el Spitzer es
controvertida, y algunos astrofísicos sostienen que estas gigantes rojas son jóvenes.
Pero estas galaxias jóvenes contienen además hierro y otros metales. Según el
modelo ortodoxo, un universo joven como este debería contener solo hidrógeno, helio y
trazas de litio;[44] el hierro se produce después de que grandes estrellas de primera
generación hayan consumido no solo su hidrógeno, sino también, y sucesivamente, su
helio, carbono, neón, oxígeno y silicio antes de colapsar y explotar en una supernova que
dispersaría el hierro y los demás metales.
Causas de la formación de estrellas

Las evidencias de la formación de las estrellas provienen de la observación de


nuestro sistema solar, de la observación de estrellas jóvenes —muchas de las cuales están
rodeadas por discos de polvo y gas—, de la observación de nubes moleculares gigantes de
nuestra propia galaxia y de modelos obtenidos mediante ordenador.
Estos estudios desembocaron en la hipótesis estelar nebular, según la cual las
explosiones de las supernovas proyectan el núcleo y electrones en diversas direcciones
hacia el espacio interestelar, donde se mezclan con el gas interestelar existente,
principalmente hidrógeno. Al enfriarse, forman átomos y moléculas simples de gas y polvo
con distintas velocidades y distintos momentos angulares. Los campos gravitatorios separan
esta mezcla turbulenta de desechos de supernova y gas interestelar, produciendo nubes más
o menos esféricas.
Estas nebulosas dinámicas se contraen bajo su propio campo gravitatorio. Y se
producen entonces tres procesos: su centro se calienta porque la energía gravitatoria
potencial del material proyectado se transforma en energía cinética (calor); al disminuir su
radio, rotan más rápido para conservar su momento angular neto; y luego se aplanan
cuando las colisiones del gas y las partículas de polvo se igualan al movimiento a favor de
la dirección del momento angular neto.
La inmensa mayoría de estas nubes, en proceso de contracción y aplanamiento, gira
en espiral hacia su centro de gravedad, que es cada vez más denso y masivo, hasta que el
núcleo se calienta lo suficiente como para iniciar la fusión nuclear: ha nacido una estrella
de segunda generación. El gas restante se proyecta de nuevo hacia el medio interestelar en
forma de chorros gigantes situados a lo largo del eje de rotación. El disco plano en rotación
está integrado, en la parte relativamente más cercana a la estrella, por polvo pesado —
principalmente silicatos y cristales de hielo— y por gases, mientras que en la parte exterior
del disco encontramos gases de hidrógeno y helio, más ligeros, propulsados hacia allí por el
viento estelar. El disco tiene una densidad irregular, lo que crea una diversidad de campos
gravitatorios que producen violentas colisiones y agregaciones que acaban formando
planetesimales que, en el transcurso de varios cientos de millones de años, se fusionan
formando planetas que absorben el gas y el polvo restantes cuando orbitan la estrella en el
plano del disco.[45] Véase figura 8.4.

Pero un examen más detallado de esta explicación ortodoxa plantea dos problemas.
En primer lugar, los estudios muestran que cuando la parte más densa de una nube
molecular —lo que se conoce como el núcleo— está a punto de colapsar para formar una
estrella, contiene entre diez mil y un millón de moléculas de hidrógeno por centímetro
cubico.[46] En comparación, la densidad del aire que respiramos es de más de un trillón de
moléculas por centímetro cubico. ¿Cómo es posible que algo que es, como máximo, diez
mil miles de millones de veces menos denso que el aire, se contraiga bajo su propio campo
gravitatorio para formar una estrella? A pesar de que las observaciones de las nubes
moleculares gigantes de nuestra galaxia muestran núcleos de alta densidad o proto-estrellas
—o estrellas recién nacidas— más densas, no nos indican qué fue lo que inició el colapso
gravitatorio del núcleo y mucho menos, qué fue lo que creó esos núcleos. De ninguna
manera puede achacarse su creación a un halo masivo de materia oscura, puesto que la
escala es excesivamente pequeña.
En segundo lugar, estas observaciones muestran fuerzas que actúan contra el
colapso gravitatorio de la nube, concretamente:
1. Grandes turbulencias.
2. Campos magnéticos no uniformes en nubes que contienen iones (principalmente
protones o iones de hidrógeno) y electrones que hacen que la materia ionizada se extienda a
lo largo de líneas de campo magnético.
Los astrofísicos concibieron modelos virtuales, muchos de ellos basados en la
hidrostática, para intentar demostrar cómo se superan estas contrafuerzas, pero con tantas
variables con valores desconocidos, la tarea resulta tremendamente complicada y, además,
para que los modelos funcionen hay que realizar demasiados supuestos simplificadores.
Una conjetura razonable de la causa de las regiones de alta densidad y su posterior
colapso gravitatorio es que son debidas a la compresión creada por las ondas producidas
por la explosión de las supernovas, en parte responsables de las turbulencias en el seno de
una nube molecular gigante. Sin embargo, no puede decirse que esta sea la causa de la
formación de la primera generación de estrellas cuya vida terminó como supernovas de
primera generación.
Según declararon Kashlinsky y sus colegas en 2005: «Las mediciones obtenidas
recientemente de la polarización del fondo cósmico de microondas indican que las estrellas
empezaron a formarse temprano, cuando el universo tenía doscientos millones de años».
[47] La formación de las estrellas de primera generación plantea una vez más la pregunta
de cuáles fueron las primeras estructuras del universo en el supuesto de que el modelo
ortodoxo del Big Bang caliente sea correcto. En el transcurso de los últimos cincuenta años,
distintos cosmólogos han propuesto que fueron cúmulos globulares, agujeros negros
supermasivos o estrellas con poca masa.
A pesar de que las notas de prensa actuales, los libros científicos más populares y
los programas de televisión presentan la formación de las estrellas como algo bien definido,
me resulta difícil no estar de acuerdo con Derek Ward-Thompson, astrofísico de la
Universidad de Cardiff. Después de revisar toda la literatura actual, concluye: «Las estrellas
forman parte de los bloques constructivos más fundamentales del universo, pero seguimos
sin comprender por completo los procesos que llevaron a su formación».[48] En 2002,
Martin Rees, Astrónomo Real, llegó a la conclusión similar de que «la formación de las
estrellas es algo que seguimos sin comprender muy bien».[49]
Esto no significa que la ciencia no sea capaz de averiguar cómo se forman
actualmente las estrellas o cómo se formaron las primeras estrellas. Pero en el caso de las
primeras estrellas, será difícil obtener evidencias empíricas que distingan si el modelo del
Big Bang caliente, entre los diversos modelos que se manejan, es el correcto. Según este
modelo, medio millón de años después de que se produjera el Big Bang, la temperatura
cayó por debajo de los 3.000 K. Después de eso, la radiación primordial de cuerpo negro
pasó a infrarroja y el universo permaneció oscuro durante mil millones de años.[50]
Durante este periodo, conocido como la edad oscura cósmica, las estrellas serían demasiado
débiles para que cualquier tecnología pudiera detectarlas.
Explicación alternativa

Burbidge señaló que el actual modelo ortodoxo de la estructura del universo


depende de muchos supuestos, destacando entre ellos que:
1. El universo estaba comprimido en un punto de densidad infinita o casi infinita.
2. El universo se infló exponencialmente antes de antes de seguir su expansión
desacelerada.
3. La materia primitiva presenta fluctuaciones de densidad.
4. La mayor parte de la materia del universo es materia oscura desconocida.
5. El desplazamiento al rojo del espectro de los cuásares es únicamente
consecuencia de la expansión cósmica, y la absorción del espectro se debe al gas que se
interpone.
Defendió que la cosmología de estado cuasi-estacionario (CECE) ofrece una
explicación más convincente sin necesidad de tales supuestos.[51]
Una evaluación imparcial debería concluir diciendo que no solo la explicación que
ofrece la cosmología ortodoxa actual sobre cómo surgieron las heterogeneidades en la
materia primitiva es más una conjetura que una teoría con base empírica, sino que además,
la cosmología ortodoxa no ofrece todavía una explicación científica a cómo estas
heterogeneidades produjeron las estrellas, las galaxias, los grupos locales, los cúmulos y los
supercúmulos separados por vacíos parecidos a burbujas que observamos hoy en día. La
explicación alternativa de la CECE presenta el beneficio de una parsimonia mayor, pero
tampoco ofrece una teoría científica robusta.
¿Evolución continua?

Según la cosmología ortodoxa actual, la materia ha evolucionado a partir de una


sopa primigenia desordenada compuesta de partículas fundamentales que se formaron y
aniquilaron provocando una radiación muy caliente hasta dar lugar la compleja jerarquía de
estructuras que hoy en día observamos. ¿Pero sigue evolucionando de esta manera anti-
entrópica?[52]
Cinco especulaciones sobre el futuro del universo ofrecen puntos de vista muy
distintos sobre la evolución de la materia a gran escala.
Galaxias perpetuamente autosuficientes

Tomando prestados de la biología los sistemas auto-organizados, Lee Smolin


conjetura que galaxias como la nuestra son ecosistemas perpetuamente autosuficientes.
Ondas entrecruzadas de distintas supernovas interactúan para barrer el gas y el polvo
interestelares hacia nubes en colapso que generan nuevas estrellas que, después de miles de
millones de años de fusión nuclear, sufren su muerte explosiva en supernovas que
proyectan gas y polvo hacia el espacio interestelar, de modo que el ciclo continúa.
Mecanismos de retroalimentación regulan las nubes para que estén en condiciones óptimas
para producir estrellas en la secuencia principal y mantener el equilibrio entre la densidad
de las nubes y el número de estrellas y supernovas producidas en cada generación. Los
flujos de energía de la luz de las estrellas y las explosiones de las supernovas mantienen
este sistema auto-organizado en un estado alejado del equilibrio termodinámico. «Parece
ser que en una galaxia en espiral como la nuestra, este proceso se produce a perpetuidad,
provocando oleadas de formación de estrellas que se propagan continuamente a través del
medio de la galaxia en espiral»,[53] lo que mantendría el actual nivel de complejidad.
En las teorías de sistemas auto-organizados, sin embargo, lo que mantiene a los
sistemas en un estado dinámico alejado del equilibrio es una producción de energía y
materia exterior al sistema, no procedente de su interior.[54]
Universo fractal

Otra especulación es que el universo es fractal, es decir, que la compleja forma de


cada nivel de la estructura jerárquica se repite a una escala mayor en cada nivel superior, y
así ad infinitum. Según Rees, sin embargo, no hay evidencias que indiquen que en los
supercúmulos identificados por Geller y Huchra exista un nivel superior de estructura.[55]
Además, las formas complejas en los niveles de sistema solar, galaxia, cúmulo y
supercúmulo no son idénticas.
Big Crunch

La conjetura de que existe diez veces más cantidad de materia oscura (aún sin
determinar) que de materia visible suscitó la idea de que la atracción gravitatoria de toda la
materia del universo podría ser suficiente para ralentizar, y luego cambiar el sentido, de la
expansión del universo. Este universo en contracción invertiría también el sentido del
incremento de complejidad y acabaría en un Big Crunch, recreando la elevada entropía, o
desorden, del Big Bang.
Muerte térmica a largo plazo

Por otro lado, el profesor de Física de la Universidad de Michigan, Fred Adams, y el


científico de la NASA, Greg Laughlin, propusieron en 1999 que la materia a gran escala del
universo alcanza su entropía máxima a través de un proceso que conduce a la muerte
térmica
Defienden que la formación de estrellas en las galaxias continúa solo mientras
tengan densas nubes moleculares de hidrógeno interestelar en los brazos de su espiral. El
suministro de material para la formación de estrellas es finito, y cuando las estrellas han
transformado todo el suministro de hidrógeno disponible en elementos más pesados, dejan
de formarse estrellas, un hecho que evidencian las galaxias de forma elíptica, que son en su
mayor parte debidas al gas hidrógeno interestelar y ya no producen estrellas nuevas (lo que
entra en contradicción con la conjetura de Smolin).
Estiman que la era actual de formación de estrellas se prolongará cien mil millones
de años más, momento aproximado en cual terminará la Era Estelar del universo después de
entre diez y cien billones de años (entre 1012 y 1014 años), las estrellas más pequeñas y de
vida más larga, enanas rojas, se apagarán y no habrá más brillo de estrellas.
En la Era de Degeneración del universo, que se prolongará 1025 años más, las
galaxias estarán integradas de entrada por objetos compactos: enanas marrones, enanas
blancas en proceso de enfriamiento o ya frías («enanas negras»), estrellas de neutrones y
agujeros negros. Las enanas blancas absorberán la mayoría de la materia oscura y las
galaxias degenerarán evaporándolas en vacíos intergalácticos. Finalmente, las enanas
blancas y las estrellas de neutrones degenerarán por la desintegración de los protones y los
neutrones.[56]
A esto le seguirá la Era del Agujero Negro, en la cual los únicos objetos estelares
serán los agujeros negros. Se evaporarán a través de un proceso cuántico conocido como
radiación de Hawking hasta que el universo alcance 10100 años de antigüedad.
Más allá de este momento tremendamente inimaginable está la desolación final de
la Era Oscura, en la que solo quedaran los productos de desecho de los procesos astrofísicos
anteriores: fotones con longitudes de onda colosales, neutrinos, electrones y positrones más,
quizás, partículas de materia oscura con interacción débil y otros residuos exóticos. Tendrán
lugar eventos de aniquilación de bajo nivel y al final el universo sufrirá una muerte térmica
cuando la entropía (desorden) alcance su máximo: el universo habrá alcanzado un estado de
equilibrio en el que no habrá energía disponible para ser utilizada.[57]
Muerte térmica a corto plazo

Desde mediados de los 90, la mayoría de cosmólogos pasó a apoyar la


interpretación ortodoxa de los datos del desplazamiento al rojo de las supernovas Tipo 1a;
sostenían la idea de que el universo cesó su expansión desacelerada después de nueve mil
millones de años e inició una expansión acelerada que produciría su muerte térmica, aunque
más rápidamente que lo estimado por Adams y Laughlin. Como vimos en el capítulo 4,
para explicar este misterioso comportamiento, invocaron una también misteriosa energía
oscura anti-gravedad y la tuvieron en cuenta en sus modelos matemáticos reintroduciendo
la constante cosmológica Λ con otro valor arbitrario.[58]
Según John Barrow, esta expansión acelerada es lo que impide que la materia se
fusione bajo la influencia de la gravedad y detuvo la formación de galaxias y cúmulos.
Afirma asimismo que si esta energía oscura desconocida se hubiera puesto en marcha un
poco antes, no se habrían formado galaxias y estrellas y nosotros no estaríamos aquí para
especular sobre el futuro del universo.[59]
Lawrence Krauss y Michael Turner, sin embargo, advierten contra la utilización de
estos datos para realizar predicciones. Después de reevaluar los conceptos estándar sobre la
conexión entre geometría y el destino del universo, llegan a la conclusión de que «no existe
ningún conjunto de observaciones cosmológicas que podamos llevar a cabo que nos
permita determinar sin ambigüedades cuál será el destino final del Universo».[60]
Conclusiones

1. Ni el modelo cosmológico ortodoxo del Big Bang caliente inflacionario


ascendente a partir de la materia oscura fría ni ningún modelo alternativo proporcionan hoy
en día una explicación científicamente robusta de la evolución de la materia a gran escala.
2. Si la materia primitiva consistiera en un plasma extremadamente denso, caliente y
desordenado de partículas fundamentales formándose espontáneamente a partir de energía
de radiación, tal y como sostiene el actual modelo ortodoxo, habría evolucionado para
formar estructuras complejas a gran escala en una jerarquía que iría desde sistemas
estelares, a galaxias, grupos locales de galaxias y cúmulos de galaxias, hasta supercúmulos
separados mediante grandes vacíos similares a burbujas.
3. Se conjetura que los campos gravitatorios que interactúan con la materia y la
energía cinética son la causa de este proceso antientrópico, pero se desconoce qué fue lo
que provocó la energía cinética y los campos gravitatorios. Además, y a pesar de que se han
propuestos distintas conjeturas, no disponemos de una explicación científica satisfactoria de
cómo se formaron estas estructuras complejas —desde las estrellas hasta los supercúmulos
— ni sabemos tampoco qué fue lo que se formó en primer lugar a partir del plasma
primitivo.
4. Ninguna estructura (una galaxia, por ejemplo) es idéntica a otra estructura de su
mismo nivel (en el sentido en que, pongamos el caso, las unidades de cristales de silicio son
idénticas entre ellas); y ningún nivel superior en la jerarquía (un grupo local, por ejemplo)
es una repetición del nivel inferior (una galaxia, en este caso) pero a escala superior. El
universo es un todo complejo.
5. El universo es dinámico: las estrellas agotan su combustible, explotan y se
forman nuevas estrellas; los sistemas solares, las galaxias, los grupos locales, los cúmulos y
probablemente también los supercúmulos, se mueven entre ellos; las galaxias se alejan de y
hacia otras galaxias del grupo local cuando pueden producirse colisiones.
6. El punto de vista de la cosmología ortodoxa actual de que la expansión
desacelerada del universo cambió misteriosamente hacia una expansión acelerada después
de unos nueve mil millones de años, implica que este proceso antientrópico de incremento
de la complejidad de la materia a gran escala ha cesado.
7. Si el universo permanecerá a perpetuidad en este nivel de complejidad dinámica,
si se mantendrá en este nivel mediante ciclos perpetuos tal y como propone la cosmología
de estado cuasi-estacionario, si ha iniciado un proceso que lo conducirá al desorden
máximo y a la muerte térmica, o si se contraerá hasta el desorden máximo de la
singularidad de un Big Crunch, son especulaciones a las que las observaciones
cosmológicas no pueden aportar evidencias claras.
Para conocer lo que la ciencia puede contarnos sobre la materia de la que estamos
hechos, deberemos examinar la evolución paralela e interdependiente de la materia a
pequeña escala. Y este será el tema que ocupará el siguiente capítulo.
[1]Kak, Subhash C., «Indian Physics: Outline of Early History», 2003.
http://arxiv.org/abs/physics/0310001v1. Consultado el 30 de septiembre de 2005.
[2] Nucleones es el término generalista que se utiliza para agrupar protones y
neutrones, las partículas que constituyen un núcleo atómico.
[3] Esta ley sostiene que la simetría se conserva a nivel subatómico: si se produce
una reacción o una desintegración nuclear, su imagen espejo sufre el mismo proceso y con
la misma frecuencia.
[4] Véase ilustración en página 60.
[5] Véase página 71.
[6] Véase página 79.
[7] Véase glosario para definición.
[8]Griffiths (1987), pp. 37–48.
[9] Véase página 86.
[10]Smolin (1998), p. 65.
[11] Véase página 79.
[12] Véase página 78.
[13] Véase páginas de 81 a 84.
[14] Véase página 71.
[15] Los átomos son neutros eléctricamente; los iones son átomos que han perdido o
ganado uno o más electrones y, en consecuencia, poseen una carga eléctrica positiva o
negativa. Un átomo de hidrógeno consiste en un protón y un electrón y, por lo tanto, un
protón es lo mismo que un ion de hidrógeno con carga positiva.
[16] Un elemento se distingue de otro porque tiene un número distinto de protones
en el núcleo de sus átomos; es lo que determina su actividad química. La forma más común
de un elemento es la que presenta el núcleo más estable, que consiste en protones y
neutrones. En este caso, la forma más estable de hidrógeno no tiene neutrones en su núcleo.
Las formas de un elemento que presentan el mismo número de protones pero un número
distinto de neutrones son lo que se conoce como isótopos de dicho elemento. Por lo tanto,
el deuterio es un isótopo del hidrógeno. Véase el glosario para la definición de «átomo»,
«elemento», «isótopo» y «número atómico».
[17]Rowan-Robinson (2004), p. 99.
[18]Lochner, et al. (2005)
[19] Esta relativa abundancia suele citarse por masa, no por cantidad: un 75 por
ciento de hidrógeno, un 25 por ciento de helio-4 (que tiene una masa cuatro veces superior
a la del hidrógeno) y trazas del resto.
[20] Véase página 76.
[21] Véase página 57.
[22]Rowan-Robinson (2004), pp. 26–42.
[23] Véase página 59.
[24] Véase página 150.
[25]Guth (1997), p. 238.
[26]Steinhardt, Paul, «Big Bang Blunder Bursts the Multiverse Bubble», Nature,
510: 7503, 2014, p. 9.
[27] Véase página 153.
[28] Véase página 150.
[29]Eggen, O. J., et al., «Evidence from the Motions of Old Stars That the Galaxy
Collapsed», Reports on Progress in Physics 136, 1962, p. 748.
[30]Searle, L. y Zinn, R., «Compositions of Halo Clusters and the Formation of the
Galactic Halo», Astrophysical Journal 225 (1), 1978, pp. 357–379.
[31] Véase página 88.
[32] Véase página 63.
[33]Rowan-Robinson, Michael, «Dark Doubts for Cosmology», New Scientist,
1759, 1991, p. 30.
[34]Saunders, Will, et al., «The Density Field of the Local Universe», Nature, 349:
6304, 1991, pp. 32–38.
[35]Lindley, David, «Cold Dark Matter Makes an Exit», Nature, 349: 6304, 1991, p.
14.
[36]Springel, Volker, et al., «Simulations of the Formation, Evolution and
Clustering of Galaxies and Quasars», Nature, 435: 7042, 2005, pp. 629–636.
[37]Springel et al., (2005).

[38]http://www.nasa.gov/home/hqnews/2006/aug/HQ_06297_CHANDRA_Dark_Matter.ht
ml, 21 de agosto de 2006.
[39]Ellis (2007), S 2.5.1, S 4.2.2, y S 4.3.1.
[40]Chown, Marcus, «Did the Big Bang Really Happen?», New Scientist, 2506,
2005, p. 30.
[41] Como se comentó en el capítulo 6, esta interpretación del desplazamiento al
rojo de los cuásares es discutible. Véase página 146.
[42]Springel et al. (2005).
[43]Clowes, Roger G, et al., «A Structure in the Early Universe at Z ~ 1.3 That
Exceeds the Homogeneity Scale of the R-W Concordance Cosmology», Monthly Notices of
the Royal Astronomical Society, 2013, enero.
[44] Véase página 196.
[45]Schilling, Govert, «Planetary Systems: From a Swirl of Dust, a Planet Is Born»,
Science, 286: 5437, 1999, pp. 66–68.
[46]Ward-Thompson, Derek, «Isolated Star Formation: From Cloud Formation to
Core Collapse», Science 295: 5552, 2002, pp. 76–81.
[47]Kashlinsky, A., et al., «Tracing the First Stars with Fluctuations of the Cosmic
Infrared Background», Nature 438: 7064, 2005, pp. 45–50.
[48]Ward-Thompson (2002).
[49]Rees, Martin J., «How the Cosmic Dark Age Ended», Science, 295: 5552, 2002,
pp. 51–53.
[50]Rees (2002).
[51] Véase página 113.
[52] La entropía es una medida del grado de desorden de las partes constituyentes
de un sistema. Véase capítulo 10 para una explicación más detallada de este concepto y su
relevancia para la evolución de la materia.
[53]Smolin (1998), pp. 144–172.
[54] Véase página 247.
[55]Rees (2002), pp. 31–32.
[56] Según predicen las teorías de gran unificación, pero no sustentado hasta el
momento por ninguna evidencia.
[57]Adams y Laughlin (1999).
[58] Véase página 90.
[59]Barrow, John D., «The Early History of the Universe», Conferencia en el
Gresham College, Londres, 14 de noviembre de 2006.
[60]Krauss, Lawrence M. y Turner, Michael S., «Geometry and Destiny», General
Relativity and Gravitation, 31: 10, 1999, pp. 1453–1459.
CAPÍTULO 9. LA EVOLUCIÓN DE LA MATERIA A PEQUEÑA ESCALA

Somos polvo de estrellas.

Joni Mitchell, 1970

Un hombre de 70 kilos de peso está constituido por aproximadamente 7 x 1027


átomos, es decir, unos diez mil cuatrillones de átomos. Aproximadamente el 63 por ciento
de ellos son átomos de hidrógeno, el 24 por ciento átomos de oxígeno, el 12 por ciento
átomos de carbono, el 0,6 por ciento átomos de nitrógeno y el 0,4 por ciento restante está
repartido en átomos de 37 elementos más.[1] Cómo se formaron estos átomos y cómo, a su
vez, estos átomos nos formaron a nosotros, constituye una parte esencial de nuestro viaje.
La evolución del núcleo de los elementos[2]

Hemos visto que el modelo del Big Bang no podía explicar cómo, a excepción de
las ínfimas trazas de litio, se formaron los núcleos de los elementos a partir de la minúscula
sopa caliente de quarks, electrones y fotones creada a partir de la liberación de energía del
Big Bang antes de que la expansión y el enfriamiento del universo detuvieran el proceso de
fusión.[3]
El descubrimiento realizado en 1950 por Martin y Barbara Schwarzchild de que las
estrellas más antiguas contenían más elementos pesados que las estrellas más jóvenes
ofreció la primera pista sobre cómo podrían haberse formado los núcleos más grandes.
En 1957, Hoyle y sus colegas publicaron el trascendental documento que estableció
la teoría cosmológica ortodoxa actual que defiende que todos los elementos de origen
natural más pesados que el helio son producto de las estrellas. Llegaron a la conclusión de
que:
La razón básica por la que una teoría de origen estelar ofrece un método prometedor
para sintetizar los elementos es que la estructura cambiante de las estrellas durante su
evolución ofrece una sucesión de condiciones bajo las cuales pueden producirse muchos
tipos distintos de procesos nucleares. Así, la temperatura interna puede oscilar entre los
pocos millones de grados a los que empieza a opera la cadena pp (protón-protón), hasta
temperaturas entre 109 y 1010 grados, en las que se producen las explosiones de la
supernova. La densidad central puede oscilar también en rangos de millones. Por otro lado,
las escalas temporales oscilan entre miles de millones de años, que son periodos de vida
normales para estrellas de masa solar o inferior de la secuencia principal, y plazos de
tiempo de días, minutos y segundos, que son característicos del proceso de explosión.[4]
A pesar de que los detalles se han ido puliendo desde entonces, ningún cosmólogo
ha desafiado con seriedad esta teoría, que está soportada además por evidencias
espectroscópicas. Podríamos, por lo tanto, llegar a la conclusión de que todos los elementos
de origen natural, más allá del helio, se formaron a partir de la siguiente nucleosíntesis
estelar.
Los elementos desde el helio hasta el hierro

El tamaño de las estrellas oscila entre el equivalente a una décima parte la masa de
nuestro sol hasta más de sesenta veces su masa; las proto-estrellas de menor tamaño nunca
llegan a estar lo suficientemente calientes como para iniciar el proceso de fusión nuclear,
mientras que las masas más grandes se consumen con excesiva rapidez y no llegan a
convertirse en estrellas estables. El tamaño de la estrella determina el producto de la
nucleosíntesis.
En las estrellas pequeñas y de tamaño moderado (hasta ocho masas solares), el helio
se produce en el núcleo de la estrella como resultado de una serie de fusiones nucleares, lo
que se conoce como cadena protón-protón, en las que los protones —núcleos de hidrógeno
— se fusionan en una reacción en cadena para producir helio-4 y energía en forma de calor
y luz. Tal y como ilustra la figura 9.1, esta liberación externa de energía equilibra la fuerza
gravitatoria interna de contracción y la estrella se mantiene estable durante miles de
millones de años.

Cuando el hidrógeno del núcleo se consume, la energía de fusión que contrarrestaba


la gravedad deja de liberarse y la estrella inicia su colapso. Su energía gravitatoria potencial
se transforma en energía cinética que calienta la estrella en contracción y, por lo tanto, más
densa. El hidrógeno de las capas medias de la estrella se calienta lo bastante como para
fusionarse en un caparazón de helio que envuelve el núcleo de helio. El calor que provoca
esta reacción se expande hacia las capas superiores de la estrella, inflándola y dándole un
tamaño mayor. La expansión enfría las capas externas e incrementa la longitud de onda de
la luz que emiten. La estrella se convierte así en una gigante roja.
El helio del núcleo de la estrella continúa su colapso hasta que la temperatura
asciende a cien millones de grados Kelvin. La temperatura es entonces lo suficientemente
elevada para que se produzca una reacción de fusión y el helio se transforme en carbono y
libere una energía que detiene el colapso gravitatorio y produce otro periodo de estabilidad.
Dependiendo del tamaño de la estrella —y de ahí su potencial para generar temperaturas en
el núcleo cada vez más elevadas a través de la contracción gravitatoria—, este proceso se
detiene o continúa.
Las temperaturas que se generan en el núcleo y las diversas capas de una estrella
con un tamaño de entre dos y ocho masas solares son distintas, lo que da lugar a distintos
productos de fusión, mientras que las capas exteriores desaparecen en forma de viento
estelar. En una estrella de unas ocho masas solares, las reacciones termonucleares van
transformando progresivamente por fusión el carbono en nitrógeno, el nitrógeno en
oxígeno, y así sucesivamente para todos los elementos de número atómico superior hasta
llegar al hierro.
A diferencia de los elementos anteriores a él, y por ser el elemento más estable de
todos, el hierro-56 no libera energía al fusionarse. En consecuencia, cuando el núcleo es de
hierro ya no hay nada que detenga la contracción gravitatoria. Cuando las estrellas más
grandes alcanzan esta fase, o cuando las estrellas más pequeñas han agotado su combustible
nuclear y no generan la temperatura necesaria para iniciar más fusión a través de la
contracción gravitatoria, la estrella colapsa. En una estrella pequeña, los electrones se
aplastan y forman una estrella enana blanca; en el caso de una estrella mediana, sigue
colapsando, aplastando sus neutrones para formar una estrella de neutrones; la estrella más
grande seguirá colapsando hasta transformarse en un agujero negro.
La enorme energía y las ondas de choque generadas con este colapso gravitatorio
provocan la explosión hacia el espacio de la mayor parte de la masa de la estrella,
generando con ello un incremento de la luminosidad de la estrella de corta duración que
puede alcanzar hasta cien millones de veces su brillo original; es lo que se conoce como
una supernova.
Una estrella de entre ocho y más de sesenta veces la masa de nuestro sol
experimenta nucleosíntesis muy similares, aunque mucho más rápidas, que producen una
supergigante roja con capas superpuestas de productos de fusión, algo similar a lo que
serían las capas de una cebolla, como muestra la figura 9.2.

Cuando el núcleo de una supergigante roja consiste solo en hierro, se convierte


también en una supernova.
La tabla 9.1 resume los elementos principales y secundarios producidos por la
nucleosíntesis en las estrellas, la temperatura a la que se producen las reacciones y el
tiempo que tarda en agotarse el combustible nuclear disponible a estas temperaturas.

Los elementos más pesados que el hierro

A pesar de que un protón no puede fusionarse con hierro-56 para producir el


siguiente elemento, el cobalto, el hierro-56 sí puede capturar tres neutrones en un periodo
de miles de años para crear el isótopo inestable, hierro-59, en el que un neutrón se
desintegra en un protón y un electrón para crear un elemento más estable, el cobalto. Este
proceso de lenta captura de neutrones en el interior de las estrellas crea gran parte de los
elementos estables más pesados que el hierro.
El intenso calor de una supernova genera un gran flujo de neutrones que
rápidamente son capturados por núcleos para crear otros núcleos más pesados e inestables
que se desintegran en otros elementos estables, como el oro, y en la mayoría de los
elementos radiactivos de origen natural, como el torio y el uranio, que la explosión lanza
hacia el frío espacio interestelar.
Producción de elementos por rayo cósmico

Al no ser muy estables los núcleos entre el helio y el carbono —de ahí el lapso de
cinco nucleones—, en las estrellas se produce muy poco litio, berilio y boro. Se piensa que
estos elementos se crean cuando los rayos cósmicos —considerados electrones y núcleos
eyectados desde las supernovas a una velocidad próxima a la de la luz— colisionan con el
gas y el polvo interestelar; la colisión desprende fragmentos, creando núcleos de elementos
más pequeños.
Estrellas de segunda y tercera generación

La cosmología ortodoxa defiende que las nubes de gas y polvo interestelar


producidas por las supernovas y los vientos estelares experimentan colapso gravitatorio,
aunque el mecanismo sigue sin comprenderse.[5] El colapso produce estrellas de segunda
generación con material más complejo que las de primera generación, que al inicio
consistían principalmente de moléculas de hidrógeno; en consecuencia, los procesos de
fusión son más complejos. Estos procesos terminan también en supernovas, que proyectan
parte de sus productos al espacio. Se cree que las estrellas de tercera generación se han
formado de un modo similar.
Elementos producidos

Por lo tanto, a partir del sencillo núcleo de hidrógeno, estos procesos generan
núcleos cada vez más grandes y más complejos, lo que lleva a los aproximadamente 95
elementos naturales que encontramos en el universo.[6] Dos de ellos, el hidrógeno (75 por
ciento) y el helio (23 por ciento), constituyen la mayor parte de la masa del universo.
De los 95 elementos, ocho de ellos constituyen más del 98 por ciento de la masa de
la corteza terrestre, que está formada principalmente por oxígeno (47 por ciento), silicio (28
por ciento), aluminio (8 por ciento) y hierro (5 por ciento); los océanos están formados
principalmente por oxígeno (86 por ciento) e hidrógeno (11 por ciento).[7]
El ser humano está compuesto por 41 elementos, pero el 99 por ciento de la masa de
nuestro cuerpo lo integran solo 6 elementos: oxígeno (65 por ciento de la masa), carbono
(18 por ciento de la masa), hidrógeno (10 por ciento de la masa), nitrógeno (3 por ciento de
la masa), calcio (2 por ciento de la masa) y fosforo (1 por ciento de la masa).[8]
A pesar de estar solo presentes en trazas, los elementos más pesados juegan un
papel importante en nuestra evolución. Por ejemplo, a través de su desintegración
radiactiva, el uranio, el torio y el potasio-40 generan en la corteza terrestre el calor
necesario para producir las placas tectónicas que, como veremos más adelante, son
necesarias para la biosfera, mientras que el molibdeno es imprescindible para la fijación del
hidrógeno, algo esencial para el metabolismo de plantas y animales.
El ajuste de precisión de los parámetros nucleares

Por razones que consideraré más adelante, un elemento esencial para el ser humano
y para todas las formas de vida conocidas es el carbono y más concretamente, el isótopo
estable carbono-12. Pero tal y como Hoyle destacó, para que las estrellas produzcan
suficiente carbono-12, es necesario ajustar con precisión tres parámetros.
En la página 176 vimos como el ajuste de Épsilon, una medida de la cohesión de los
núcleos de helio, era imprescindible para iniciar la serie de reacciones en cadena que lleva a
la producción de elementos y, finalmente, de átomos y moléculas, algo esencial para la
vida. Los tres parámetros de Hoyle muestran qué valores exactos son necesarios en las
reacciones nucleares en cadena para producir carbono. La producción de carbono en el
interior de las estrellas se lleva a cabo a través de un paso intermedio, representado por las
ecuaciones siguientes:
2He4 + 0.099 MeV → Be8

Be8 + He4 → C12 + 2γ

Estas ecuaciones significan que para fusionar dos núcleos de helio-4 y producir el
isótopo inestable berilio-8, son necesarios 0,099 millones de electronvoltios de energía. A
continuación, un núcleo de berilio-8 se fusiona con un núcleo de helio-4 para producir el
núcleo estable de carbono-12 con la liberación de dos rayos gamma, que son fotones con el
rango de energía más elevado que puede observarse. Para que se produzcan estas
reacciones deben cumplirse tres condiciones:
1. La vida del 8Be (~10-17seg) debe ser lo suficientemente larga en comparación
con el tiempo de colisión de 4He + 4He (~10-21seg) como para permitir que se produzca la
primera reacción, pero no debe ser tan estable como para que la reacción en cadena se
detenga aquí.
2. Hoyle propuso que el rendimiento del carbono sería despreciable a menos que la
suma de la energía de un núcleo de berilio y un núcleo de helio fuera casi exacta a la
energía de un determinado estado cuántico del núcleo de carbono-12, una condición que se
conoce como resonancia, y que predijo que sería de cerca de 7,7 MeV. Experimentos
posteriores confirmaron que el nivel de resonancia del núcleo del carbono-12 es de 7,6549
MeV. Este nivel de energía se sitúa justo por encima de la energía de Be8 + He4, que es de
7,3667 MeV, lo que permite que la reacción nuclear se produzca con la máxima eficiencia.
3. La fusión del carbono-12 con otro núcleo de helio-4 produciría un núcleo de
oxígeno. Si esta reacción fuese también resonante, todo el carbono se convertiría
rápidamente en oxígeno-16, lo que quedaría representado por la ecuación
C12 + He4 → O16

Sin embargo, el núcleo de oxígeno-16 tiene un nivel de energía de resonancia de


7,1187 MeV. Lo que queda justo por debajo de la energía total del carbono-12 más el helio-
4, que se sitúa en 7,1616 MeV. La resonancia no se produce y, por lo tanto, es carbono-12
no queda eliminado del interior de las estrellas.[9]
Por lo tanto, esta cadena de parámetros —la longevidad del inestable berilio-8, la
existencia de un nivel de resonancia ventajoso en el carbono-12 y la ausencia de un nivel de
resonancia favorable en el oxígeno-16— formó el conjunto de condiciones necesarias, y
extraordinariamente ajustadas, para que se diera la producción de carbono suficiente para
crear las moléculas de las que depende la existencia del ser humano y de todas las demás
formas de vida conocidas del universo.
Consideraré a continuación cómo evolucionaron estos núcleos de elementos con
carga positiva para llegar a formar tales moléculas. La primera etapa es la formación de los
átomos.
La formación de los átomos[10]

El material de una estrella a temperaturas elevadas y, por lo tanto, con energías


elevadas, está integrado por plasma: un gas caótico de núcleos de elementos con carga
positiva, más neutrones neutros y fotones de energía electromagnética. Cuando una estrella
agota su combustible nuclear y experimenta el colapso gravitatorio, la supernova expulsa la
mayoría de su plasma al frío del espacio interestelar. Cuando la temperatura del plasma
desciende a 3.000 K, los núcleos de los elementos capturan electrones para formar átomos
neutros y moléculas estables, siguiendo el principio de la conservación de la energía, el
principio de la conservación de la carga y la ley de la interacción electromagnética.[11]
Pero mientras que los principios de conservación y la ley son necesarios, no son
suficientes para explicar por qué los electrones con carga negativa no se ven atraídos hacia
los núcleos con carga positiva. Aquí es donde la teoría cuántica revolucionó nuestra
comprensión de la materia a pequeña escala. Las leyes de la mecánica cuántica y el
principio de exclusión de Pauli proporcionan la explicación que ofrece la ciencia actual a la
pregunta de cómo el plasma estelar enfriado formó los bloques constructivos del ser
humano.
Las leyes de la mecánica cuántica

Según la teoría cuántica, algo tan pequeño como un electrón se comporta como si
fuera tanto una partícula como una onda. Un electrón con carga negativa puede interactuar
con un núcleo con carga positiva solo si está rodeado por una órbita parecida a un
caparazón, lo que se conoce como un orbital, que posee una energía discreta, E2. El
electrón puede perder un cuanto de energía, E, bajando a un orbital de energía inferior, E1,
lo que se representa como:
E = E2 – E1 = hν

Donde h es la constante de Planck y v es la frecuencia de la energía perdida en


forma de radiación electromagnética.
Y en sentido inverso, un electrón puede ganar energía absorbiendo un cuanto de
energía y saltando de un orbital de baja energía a otro de energía superior.
El valor de h es aproximadamente 4,136 x 10-15 electronvoltios por segundo.
Ninguna teoría explica por qué es así. Sin estos valores de energía discreta de los electrones
en órbita, todos los átomos serían distintos y no habría ninguno estable.
Cada orbital se indica con un número cuántico principal, n, que es función de la
distancia que separa el electrón del núcleo. Tres números cuánticos adicionales especifican
cómo interactúa el electrón con el núcleo: l, el número cuántico angular, indica la forma del
orbital; ml, el número cuántico magnético, indica la orientación del orbital; y ms, el número
cuántico de espín, indica la dirección del espín de electrón sobre su eje de orientación.
Las soluciones de las ecuaciones de mecánica cuántica que describen estas
interacciones ofrecen las distribuciones de probabilidad del electrón alrededor el núcleo.
Pero siguen dejando un número increíblemente grande de tipos distintos de átomo con
distintos estados de energía para cada elemento. Una hipótesis avanzada por Wolfang Pauli
en 1925 no solo explicaba que todos los átomos de un elemento son iguales, sino que
además realizaba predicciones, posteriormente confirmadas mediante experimentos, que
sentaron las bases de nuestros actuales conocimientos químicos.
El principio de exclusión de Pauli

El principio de exclusión de Pauli establece que no puede haber dos electrones de


un átomo o molécula con los cuatro números cuánticos iguales.[12] Una vez más, no existe
ninguna teoría que explica por qué esto es así, excepto que la visión de Pauli permitió que
la teoría cuántica que iniciaba su desarrollo coincidiera con la observación y la
experimentación.
El principio es distinto a otras leyes físicas porque es no dinámico —no tiene
función de distancia o tiempo— y porque no es aplicable al comportamiento del electrón a
nivel individual, sino que solo aplica a un sistema de dos o más electrones. Esta ley
universal selecciona un pequeño conjunto de estados de energía de la materia de entre un
abanico inconmensurablemente grande de posibilidades; establece que todos los átomos de
un elemento son iguales; y dicta cómo se enlaza un átomo con otros átomos, tanto del
mismo elemento como de otros elementos. Explica, por lo tanto, la fase de un elemento —
cómo puede ser gas, líquido o sólido, y en caso de ser sólido, cómo puede ser metálico o
cristalino— y la tabla periódica en la que se agrupan los elementos según sus propiedades
fisicoquímicas, tal y como muestra la figura 9.3.
Los 114 elementos conocidos y los 4 elementos cuya existencia está pronosticada se
ordenan en filas horizontales según su número atómico, es decir, el número de protones que
hay en el núcleo del átomo. Las filas se disponen de tal modo que los elementos con
propiedades químicas casi iguales se encuentran en la misma columna (grupo) y cada fila
termina con un elemento que es un gas noble, que tiene su orbital externo, o valencia, lleno
con el número máximo de electrones que permite el principio de exclusión de Pauli, es
altamente estable y, en general, inerte. La posición de un elemento en la tabla periódica
ofrece a los químicos la mejor guía posible acerca de las propiedades esperadas de las
moléculas hechas a partir de átomos del elemento y explica cómo evolucionan los átomos
más simples hacia las moléculas complejas de las que estamos hechos.
El ajuste de precisión de los parámetros atómicos

La formación de todos los átomos y moléculas estables depende no solo de las


leyes de la mecánica cuántica y del principio de exclusión de Pauli, sino también del valor
de dos parámetros sin dimensión.
La constante de estructura fina, α, es la constante de emparejamiento, o la medida
de la fuerza de la interacción electromagnética que gobierna el modo en que una partícula
elemental con carga eléctrica como el electrón, interactúa con un fotón de luz. Su valor,
0,0072973525376, es independiente de la unidad que se utiliza para medir la carga
eléctrica.
De un modo similar, el cociente entre la masa del protón y el electrón, β, tiene un
valor sin dimensión de 1836,15267247. Ninguna teoría explica por qué estos dos números
puros tienen los valores que tienen. Si esos valores fueran muy distintos, no se formarían ni
átomos ni moléculas estables.[13]
La evolución de los átomos

Los átomos, que se forman a partir del plasma de núcleos y electrones que se enfría
al ser expulsado al espacio interestelar, evolucionan a formas más complejas gracias a los
enlaces. Lo que guía este proceso es la consecución del estado más estable y con la menor
energía posible. En la práctica, esto significa la configuración electrónica más próxima a
aquella en la que los orbitales de la capa de valencia contienen el número máximo de
electrones permitido por el principio de exclusión de Pauli.
Los átomos de los gases nobles tienen por naturaleza esta configuración y son
estables. Los demás átomos alcanzan la estabilidad enlazándose con uno o más átomos,
idénticos o diferentes, de una de las cuatro formas siguientes.
Métodos de enlace

Enlace iónico (intercambio de electrones)


Con este método, un átomo dona uno o más de sus electrones de valencia al átomo
de un elemento que carece de un complemento de electrones en su capa de valencia. Por
ejemplo, la sal común (sal de mesa) se produce cuando un átomo de sodio, Na, altamente
reactivo reacciona con un átomo de cloro, Cl, altamente reactivo donándole su único
electrón de valencia para producir un ion de sodio estable con carga positiva con una nueva
capa de valencia, en un orbital inferior, llena con ocho electrones, como el gas noble neón,
y un ion de cloro estable con carga negativa con una capa de valencia llena como la del gas
noble argón; el producto se representa como Na+ Cl-. La fuerza eléctrica atrae el ion
donante positivo y el ion receptor negativo.
Enlace covalente (compartición de electrones)
En lugar de recibir un electrón de un átomo de un elemento distinto, un átomo de
cloro puede compartir un electrón con otro átomo de cloro para formar una molécula de
cloro diatómico o dicloro,[14] Cl2. Llenar el orbital de la capa de valencia mediante la
compartición produce una configuración menos estable que llenándola exclusivamente con
un electrón, razón por la cual las moléculas de cloro gaseoso son más reactivas que la sal.
Los átomos de un elemento pueden compartir uno o más electrones con átomos de
otro elemento para formar una molécula compuesta. Un átomo de hidrógeno tiene un único
electrón en su capa de valencia cuando el principio de exclusión de Pauli permitiría dos. Un
átomo de oxígeno tiene seis electrones en su capa de valencia cuando están permitidos
ocho. Para producir la molécula estable del agua, H2O, dos átomos de hidrógeno comparten
sus electrones con los seis electrones de la capa de valencia de un átomo de oxígeno.
Enlace metálico
Se produce cuando átomos del mismo elemento pierden un electrón para formar una
red de iones con carga positiva que se mantienen unidos mediante un mar de electrones
libres. A diferencia del enlace covalente, los electrones tienen libertad de movimientos y, en
consecuencia, la sustancia enlazada metálicamente transporta electricidad.
Fuerza de Van der Waals
Se trata de un enlace electrostático entre moléculas eléctricamente neutras que surge
porque la distribución de la carga eléctrica no es simétrica debido a la forma de la molécula.
La separación microscópica de los centros de carga positiva y negativa lleva al extremo
positivo de una molécula a atraer el extremo negativo de una molécula idéntica, y así
sucesivamente. A presión atmosférica normal, y con una temperatura entre 0º y 100º
Celsius, la fuerza de Van der Waals mantiene las moléculas de agua unidas en un estado
líquido, el agua. A temperaturas más altas, la energía más elevada rompe estos enlaces y las
moléculas de agua existen como entidades separadas en un estado gaseoso, el vapor. A
temperaturas más bajas, con menos agitación térmica, los enlaces son suficientes para
mantener las moléculas unidas en un estado sólido y cristalino, el hielo.
Los enlaces, por lo tanto, no solo son la causa de las propiedades químicas —cómo
interactúan los átomos con otros átomos—, sino también de la estructura física de las
sustancias.
Estructuras cristalinas
A la temperatura adecuada, todos los átomos, moléculas e iones —con la excepción
del helio—, existen en un estado sólido, normalmente cristalino, en el que los átomos,
moléculas o iones están enlazados no solo el uno con el otro, sino a muchísimos más, en
una estructura de celdas: un patrón regularmente ordenado y repetitivo que se extiende en
las tres dimensiones espaciales. Los cuatro tipos de enlaces forman estructuras cristalinas, y
la estructura específica y el método de enlace determinan las propiedades físicas del sólido.
Los iones de sodio y de cloro enlazados iónicamente, por ejemplo, forman cristales de sal
común (sal de mesa), mientras que los átomos de carbono unidos covalentemente existen
como grafito blando y como duro diamante.
La singularidad del carbono

El carbono, el cuarto elemento más presente en el universo, tiene propiedades de


enlace únicas. Ello es debido, en parte, a que el carbono tiene un elevado valor de
electronegatividad, la capacidad relativa de un átomo de atraer electrones de valencia. La
capa exterior, o capa de valencia, de un átomo de carbono posee cuatro electrones, mientras
que el principio de exclusión de Pauli permitiría ocho; es capaz, por lo tanto, de enlazarse
con cuatro átomos más simultáneamente. El carbono es el elemento que presenta la mayor
tendencia a formar enlaces covalentes y, en particular, presenta una tendencia notable a
enlazarse consigo mismo; es capaz de formar no solo un enlace único, con una pareja de
electrones de valencia compartidos, sino también un enlace doble (dos parejas) o incluso un
enlace triple (tres parejas). Otra propiedad especial del carbono es su capacidad para
enlazarse en láminas, estructuras de anillo, y largas cadenas de carbono y otros átomos.
Estas propiedades generan un amplio y único rango de moléculas grandes y
complejas —llamadas moléculas orgánicas—, muchas de las cuales se encuentran en todas
las formas de vida identificadas hasta la fecha. En consecuencia, el carbono es esencial para
la vida tal y como la conocemos; sin carbono, no existiríamos.
Moléculas en el espacio

Los análisis espectroscópicos indican que el espacio interestelar ofrece condiciones


limitadas para la evolución de las moléculas complejas procedentes de los núcleos y
electrones eyectados por las supernovas. Las moléculas detectadas incluyen desde sencillas
moléculas diatónicas, como el hidrógeno, H2, y el monóxido de carbono, CO, hasta
moléculas orgánicas que contienen hasta trece átomos, como la acetona, (CH3)2CO,[15] el
etil-metil éter, CH3OC2H5,[16] o la cianodecapentaína, HC10CN,[17] pero hasta el
momento no se han descubierto moléculas más complejas. Dependiendo de la temperatura
de la región espacial, estos átomos y moléculas interestelares se encuentran en estado
gaseoso o sólido («polvo interestelar»).
En nuestro sistema solar se han descubierto moléculas de complejidad similar, en un
tipo de meteoritos conocidos como condritas carbonáceas. Según la datación por
radiocarbono, tendrían una antigüedad de entre 4,5 y 4,6 miles de millones de años y se
cree que representan material del cinturón de asteroides. Estas rocas, constituidas
principalmente por silicatos, contienen una gran variedad de moléculas orgánicas,
incluyendo aminoácidos simples, los bloques constructivos de las proteínas.[18]
Las moléculas más complejas se han encontrado en un planeta. Las condiciones de
la superficie de la Tierra han proporcionado el entorno adecuado para la evolución del
sistema molecular más complejo conocido hasta la fecha: el ser humano. En la Segunda
Parte, El origen y la evolución de la vida, explicaré cómo empezó este proceso.
Conclusiones

1. A pesar de que el modo en que se formaron los átomos de helio sigue siendo
discutible, la teoría científica generalmente aceptada, y sustentada con solidez por la
observación espectroscópica, es que, mediante el mecanismo de reacciones de fusión en
cadena y captura de neutrones, más la desintegración en el interior de las estrellas y las
supernovas, los sencillos núcleos de hidrógeno evolucionaron hasta convertirse en los
núcleos de todos los demás elementos de origen natural. Estos procesos fueron provocados
por las transformaciones sucesivas de la energía gravitatoria potencial en energía cinética
que se produjo cuando estrellas de distintos tamaños empezaron a contraerse en el
momento en que el combustible de fusión de cada etapa de la cadena se hubo agotado, y
por la energía generada por el colapso gravitatorio catastrófico que se produjo cuando las
estrellas agotaron su combustible nuclear y se transformaron en supernovas.
2. Las supernovas lanzaron al frío espacio interestelar núcleos con carga positiva y
electrones con carga negativa. De ahí evolucionaron hasta transformarse en átomos y
moléculas de carga neutra, impulsados principalmente por flujos de energía en conformidad
no solo con los principios de conservación de la energía y de la carga, y la ley de la fuerza
electromagnética, sino también con las leyes de la mecánica cuántica y el principio de
exclusión de Pauli.
3. Mientras que en general se da por supuesto que los dos principios de
conservación son axiomáticos, las leyes cuánticas y el principio de exclusión de Pauli no lo
son. De hecho, en muchos sentidos, podría decirse que la teoría cuántica es contraria a la
lógica. Pero explica cómo se forman los átomos y evolucionan hacia las moléculas cada vez
más complejas que encontramos en el espacio interestelar, en meteoritos que se cree que
proceden del cinturón de asteroides de nuestro sistema solar, y en la superficie de la Tierra.
4. Aunque necesarios, ni siquiera los principios de conservación y la teoría cuántica
son suficientes para explicar cómo evolucionaron las complejas moléculas orgánicas de las
que estamos hechos nosotros y todas las formas de vida conocidas. Si los valores de tres
parámetros nucleares fueran ligeramente distintos, las estrellas no habrían generado
carbono suficiente para producir las moléculas orgánicas; si los valores de dos constantes
sin dimensión fueran ligeramente distintos —la constante de estructura fina y el cociente
entre la masa del protón y el electrón—, no se habrían formado ni átomos ni moléculas.
Ninguna teoría explica por qué estos parámetros tienen los valores que tienen.
5. A pequeña escala, la materia ha evolucionado de estados sencillos a estados cada
vez más complejos.
En el siguiente capítulo examinaré con más detalle este patrón predominante de
aumento de la complejidad y, en particular, qué fue lo que lo causó y a través de qué
mecanismos se llegó hasta él.
[1]http://www.foresight.org/Nanomedicine/Ch03_1.html, consultado el 22 de junio
de 2007.
[2]Esta sección se basa principalmente en Rowan-Robinson (2004), pp. 22–26;
Morowitz (2004), pp. 48–53; y Lochner, et al. (2005).
[3] Véase página 195.
[4]Burbidge, E. Margaret, et al., «Synthesis of the Elements in Stars», Reviews of
Modern Physics, 29: 4, 1957, pp. 547–650.
[5] Véase páginas 210 y siguientes.
[6] Se creía que los elementos naturales eran 91 y que los 27 restantes procedían de
una síntesis artificial. En 2014, un grupo de científicos declaró haber encontrado en la
naturaleza minúsculas trazas de siete de estos últimos. En consecuencia, utilizaré la
expresión «aproximadamente 95».
[7]http://www.windows.ucar.edu/tour/link=/earth/geology/crust_elements.html,
consultado el 22 de junio de 2007.
[8]Chang (2007), p. 52.
[9]Barrow y Tipler (1996), pp. 250–253.
[10]Esta sección se basa principalmente en Ellis (2002), capítulo 3; Barrow y Tipler
(1996).
295–305; Morowitz (2004), pp. 51–57.
[11] Véase página 187.
[12] Desde sus inicios, el principio se ha ampliado para establecer que no puede
haber dos fermiones (un tipo de partículas que incluye electrones, protones y neutrones)
con todos sus números cuánticos idénticos
[13]Barrow y Tipler (1996), pp. 295–305. Los valores de estas constantes están
extraídos del Physics Laboratory of the National Institute of Standards and Technology,
http://physics.nist.gov, consultado el 15 de noviembre de 2007.
[14] Una molécula es la unidad física más pequeña de una sustancia capaz de existir
independientemente y consiste en un átomo o varios átomos enlazados por compartición de
electrones. Véase glosario para la distinción entre «molécula», «átomo», «ion» y
«elemento».
[15]Snyder, Lewis E., et al., «Confirmation of Interstellar Acetone», Astrophysical
Journal 578: Part 1, 2002, pp. 245–255.
[16]Fuchs, G. W., et al., «Trans-Ethyl Methyl Ether in Space. A New Look at a
Complex Molecule in Selected Hot Core Regions», Astronomy and Astrophysics, 444: 2,
2005, pp. 521–530.
[17]Bell, M B, et al., «Detection of HC11N in the Cold Dust Cloud TMC-1»,
Astrophysical Journal, 483: parte 2, 1997, pp. L61–L64.
[18]Lunine (1999), pp. 51–53; «Chondrite», Cosmic Lexicon. Planetary Science
ResearchDiscovery, 1996.
CAPÍTULO 10. EL PATRÓN HACIA LA EVOLUCIÓN DE LA MATERIA

Si tu teoría va en contra de la segunda ley de la termodinámica, no puedo darte


esperanzas; no le espera otro destino que caer en la humillación más profunda.

Sir Arthur Eddington, 1929

El capítulo 8 explica que, si la narrativa de la cosmología ortodoxa actual es


correcta, la materia emergió de un estallido inicial de radiación extremadamente denso y
caliente en forma de plasma desordenado y abrasador de partículas fundamentales que se
formaron espontáneamente a partir de, y aniquilaron, la energía de la radiación. A escala del
universo, esto evolucionó hacia una jerarquía de sistemas estelares, galaxias, grupos locales
de galaxias, cúmulos y supercúmulos complejos y dinámicos separados entre sí por grandes
vacíos similares a burbujas. Los elementos de cada nivel no son idénticos, y un nivel de
orden superior no es simplemente una versión en tamaño aumentado del nivel inferior que
lo precede: el universo es un todo complejo y dinámico. Desde finales de los 90, la
cosmología ortodoxa sostiene que, después de unos nueve mil millones de años, la
expansión desacelerada del universo cambió hacia una expansión acelerada, lo que implica
que el proceso de complejidad creciente a gran escala cesó en aquel momento, hace
aproximadamente cinco mil millones de años.
El capítulo 9 esboza el relato científico establecido que sostiene que, a pequeña
escala, los sencillos núcleos de hidrógeno evolucionaron hacia los núcleos complejos de los
aproximadamente 95 elementos, que a su vez evolucionaron hacia átomos y moléculas cada
vez más complejos, y este proceso de complejidad creciente continuó para producir la cosa
más complejas del universo conocido: el ser humano.
Examinaré ahora si este patrón de complejidad creciente de toda la materia —tanto
a pequeña como a gran escala— muestra conformidad con las leyes científicas conocidas
con el fin de intentar comprender qué lo causó y cómo se llegó hasta él.
Consistencia con las leyes científicas conocidas

El principio de conservación de la energía

El principio de la conservación de la energía se desarrolló a partir de la primera ley


de la termodinámica, que se estableció en el siglo xix gracias a los experimentos con
motores y calor realizados por James Prescott Joule y otros. La termodinámica significa
movimiento por calor y la ley afirmaba que estos movimientos siempre conservan la
energía. Más concretamente:
Primera ley de la termodinámica: la variación de la energía de un sistema cerrado
que utiliza o produce calor es igual a la diferencia entre la cantidad de energía calorífica
incorporada al sistema y la cantidad de trabajo intercambiada por el sistema con sus
alrededores.
Desde entonces, la ley se ha ampliado para incluir las tres formas de energía hasta
ahora identificadas.
1. Energía de movimiento. Incluye la energía cinética de los cuerpos en movimiento,
el calor (provocado por el movimiento de las moléculas de una sustancia), la energía
eléctrica (provocada por el movimiento de electrones) y la energía de radiación (provocada
por el movimiento de ondas electromagnéticas y determinadas partículas).
2. Energía almacenada (energía potencial). Incluye la energía elástica de un muelle
en extensión que puede transformarse en energía cinética si se suelta el muelle; la energía
gravitatoria potencial de una masa que puede transformarse en energía cinética si se suelta
y cae contra otra masa hacia la que es atraída gracias al campo gravitatorio de esa masa; la
energía de un enlace químico que puede transformarse en calor a través de una reacción
química.
3. Energía de la masa en reposo (E = mc2). Parte de la teoría de la relatividad
especial de Einstein; puede transformarse en energía de movimiento, como sucede con la
fusión nuclear en el núcleo de estrellas donde, por ejemplo, en la reacción en cadena
protón-protón, la masa en reposo de cuatro protones se fusiona con la masa en reposo
inferior de un helio-4 y la diferencia se transforma en energía calorífica y radiación de luz.
Cuando una ley aplica a todo tipo de fenómenos se denomina «principio». Y a pesar
de que la frontera es a menudo bastante gris, las definiciones siguientes ayudan a
diferenciar entre los dos conceptos:
Ley, científica o natural: una afirmación sucinta y general, capaz de ser verificada
mediante observación o experimentación y respecto a la cual no se han documentado
resultados contrarios repetibles, según la cual un conjunto de fenómenos naturales se
comporta invariablemente de manera idéntica dentro de los límites especificados.
Normalmente se expresa mediante una única ecuación matemática. El resultado de aplicar
una ley puede predecirse si se conocen los valores de aquellas variables que especifican el
fenómeno concreto a considerar.
Por ejemplo, la segunda ley del movimiento de Newton afirma que la aceleración de
un objeto es directamente proporcional a la fuerza neta ejercida sobre él e inversamente
proporcional a su masa. Si conocemos la masa de un objeto y la fuerza neta ejercida sobre
él, podremos aplicar la ley para predecir la aceleración de la masa; la teoría especial de la
relatividad de Einstein introdujo el límite de que una fuerza no puede acelerar un objeto
hasta una velocidad equivalente o superior a la velocidad de la luz.
Principio, científico o natural: una ley considerada fundamental y universalmente
cierta.
Mientras que la primera ley de la termodinámica describe la energía calorífica y el
trabajo que esta realiza (la energía cinética en la que se transforma), el principio de
conservación de la energía aplica a todas las formas de energía.
Principio de conservación de la energía: la energía no se crea ni se destruye; la
energía total de un sistema aislado permanece constante, aunque puede transformarse de
unas formas a otras.
Por lo tanto, independientemente de las condiciones de cualquier interacción, y
siempre que realicemos los cálculos correctamente, la energía total de un sistema aislado
siempre será la misma, antes y después.
Al aplicar este principio a las transformaciones de energía que provocan el
incremento de la complejidad de la materia del universo como un todo, se plantean tres
preguntas:
Pregunta 1: ¿Cuál es el valor inicial de la energía?
El relato ortodoxo de la cosmología, el Big Bang, defiende que el universo se creó a
partir de la nada y que, en consecuencia, la energía inicial debía de ser cero; por otro lado,
afirma que el universo cobró vida como una explosión masiva de energía. El intento de
explicar esta contradicción mediante la conjetura de la energía neta cero produce a su vez
una contradicción lógica.[1] Es imposible someter a test otros intentos que aluden a un
universo previo en colapso o a otras alternativas, y menos aún proporcionar una estimación
de energía en base a ellos. La realidad es que no tenemos manera de averiguar empírica o
racionalmente cuál es el valor inicial de la energía del universo responsable de las
transformaciones de energía en el universo como un todo.
Pregunta 2: ¿Cuál es el valor final de la energía?
La geometría plana asumida en el modelo del Big Bang implica que el universo
tiene una extensión infinita y, por lo tanto, determinar su energía final es imposible. Esto
aplica a todas las conjeturas en las que la extensión del universo es infinita. La
incorporación arbitraria de una energía oscura desconocida como responsable de un
supuesto cambio hacia una aceleración de la expansión del universo complicaría más si
cabe la respuesta a la pregunta.
Los modelos con geometría cerrada que llevan a un universo que termina con un
Big Crunch producirían un valor final equivalente al valor de energía inicial del universo,
aunque los modelos de este tipo no están actualmente en desarrollo; para los cosmólogos
ortodoxos, esos modelos implican que el universo incluye una cantidad aún mayor de
materia oscura desconocida, que superaría con creces la cantidad de energía oscura
desconocida establecida arbitrariamente.
La única conclusión razonable es que no sabemos sí el principio de conservación de
la energía puede aplicarse al universo y, en caso afirmativo, tampoco sabríamos cómo
hacerlo. Lo que lleva a la tercera pregunta.
Pregunta 3: ¿Son reversibles estas transformaciones de energía?
El principio de conservación de la energía es simétrico. Permite a moléculas de aire
frío colisionar con moléculas de agua caliente almacenada en un vaso y obtener energía
cinética por la transferencia de las moléculas de agua, de tal modo que el aire que rodea el
vaso se calienta mientras que el agua se enfría; permite también que las moléculas de aire
frío transfieran parte de su energía cinética a las moléculas de agua caliente, calentando aún
más y espontáneamente el agua mientras que el aire que rodea el vaso se enfría todavía
más. Permite que la energía de la masa de una bomba nuclear se transforme a través de la
detonación en calor y energía de radiación, y también que el calor y la energía de radiación
se transformen de nuevo en energía de masa para ensamblar de nuevo la bomba. Estas
inversiones no se observan naturalmente. Lo que lleva al principio de entropía creciente.
El principio del aumento de entropía

Este principio se desarrolló a partir de la segunda ley de la termodinámica, que fue


formulada de muchas maneras a lo largo del siglo xix para limitar la primera ley de la
termodinámica únicamente a aquello susceptible de ser observado. Podría expresarse del
modo siguiente:
Segunda ley de la termodinámica: el calor nunca pasa espontáneamente de un
cuerpo frío a un cuerpo caliente; la energía siempre va de las formas más utilizables a las
menos utilizables.
Es una ley estadística de probabilidades que no explica nada sobre el
comportamiento de las partículas a nivel individual. Por ejemplo, no dice que una molécula
de aire frío no pueda perder energía cinética al colisionar contra una molécula de agua
caliente. Dice, sin embargo, que la probabilidad de que sucedan muchas interacciones de
este tipo y, en consecuencia se caliente aún más el agua caliente y se enfríe aún más el aire
que la rodea, es insignificante.
En 1877, Ludwig Boltzmann la expresó en forma de ecuación, sirviéndose del
concepto de entropía introducido en 1862 por Rudolf Clausious. Desde entonces, este
concepto se ha desarrollado para abarcar fenómenos más generales que solo los sistemas
termodinámicos; se ha extendido hasta el punto de incorporar la idea de que la organización
de un sistema nos proporciona información sobre el mismo. Podría definirse como:
Entropía: una medida del desorden o desorganización de las partes integrantes de
un sistema cerrado; una medida de la energía que no está disponible para ser utilizada.
Cuanto menor sea la entropía, mayor será la organización de sus partes integrantes y, en
consecuencia, habrá más energía disponible para su utilización y podrá obtenerse más
información a partir de la observación de su configuración. Con niveles de entropía
máximos, la configuración es aleatoria y uniforme, sin estructura ni energía disponible para
su utilización; esto ocurre cuando el sistema ha alcanzado un estado de equilibrio.[2]
En un sistema cíclico ideal, las transformaciones de energía son reversibles y, en
estos casos, las ecuaciones matemáticas muestran que la entropía regresa a su valor inicial
al final de cada ciclo manteniéndose, por lo tanto, siempre igual. Sin embargo, todas las
transformaciones de energía observadas son irreversibles y la entropía aumenta.
La segunda ley de la termodinámica, que aplica al calor y los cambios mecánicos de
energía, puede extenderse para crear un principio general que describa todos los cambios de
energía conocidos en términos de entropía. En términos no matemáticos, se definiría como
sigue:
Principio del aumento de entropía: durante cualquier proceso que tenga lugar en
un sistema aislado, la entropía se mantiene constante o, normalmente, se incrementa; por
ejemplo, el desorden aumenta, la energía disponible disminuye y la información se pierde
con el paso del tiempo, a medida que el sistema avanza hacia un estado de equilibrio.
Dicho de manera más sencilla, cualquier cambio en un sistema aislado, de materia o
energía, tiende a producir un estado que es cada vez más probable, con la consiguiente
pérdida de energía utilizable y de información.
Todas las evidencias, sin embargo, demuestran que la evolución de la materia, tanto
a gran escala como a pequeña escala, contradice este principio.
Contradicciones del principio del aumento de entropía

Sistemas locales

La ciencia explica que el aumento en orden y complejidad se produce en los


sistemas locales y abiertos, no en los sistemas aislados; en el universo, los aumentos de
entropía superan con creces las disminuciones locales de entropía. Así, la biosfera de la
Tierra es un sistema en el que las moléculas orgánicas fueron volviéndose cada vez más
complejas, evolucionando hasta transformarse en células y en formas de vida también más
complejas hasta llegar al ente más complejo del universo conocido: el ser humano. La
biosfera de la Tierra es un sistema abierto, y este aumento local en su orden —y, por lo
tanto, una disminución de la entropía— está impulsado principalmente por el calor y la
energía lumínica del sol, que a su vez pierde energía y experimenta un aumento de entropía
a medida que va agotando de forma irreversible su combustible nuclear.
Los intentos de explicar el mecanismo de estas disminuciones de entropía han
producido diversas teorías de la complejidad y teorías de sistemas. Dichas teorías parten
básicamente de los estudios de sistemas auto-organizados llevados a cabo entre 1955 y
1975 en la Universidad de Bruselas por el químico Ilya Prigogine, y que le valieron el
Premio Nobel, y de los trabajos de Manfred Eigen, también químico, realizados en los años
70 en el Max Planck Institute for Physical Chemistry de Gottingen. Para explicarlo de un
modo sencillo, estas teorías sostienen que de un sistema abierto y desordenado puede surgir
una estructura compleja a partir de un flujo de energía y materia que corre a través de ese
sistema, y que este flujo puede mantener la estructura compleja en un estado estable,
aunque no fijo, alejado del equilibrio a pesar del cambio continuo de los componentes del
sistema. En este estado, el sistema es sensible a los pequeños cambios: si el flujo aumenta,
la estructura tropieza con nuevas inestabilidades, a partir de las cuales podrían surgir
nuevas estructuras de mayor complejidad que se alejan incluso más del equilibrio.
Los vórtices en fluidos ofrecen evidencias que sustentan la teoría: incluyen ciclones
en la atmósfera de la Tierra y los patrones sofisticados que observamos en la superficie de
Júpiter. La figura 10.1 muestra un vórtice creado por el flujo de aire del ala de un avión.

Esta ilustración es sorprendentemente similar a la nebulosa en espiral que


hipotéticamente produce una estrella y su sistema planetario y también a una galaxia en
espiral. Un patrón común no significa necesariamente una causa común, pero resulta
sugerente.
El universo

Por definición, el universo integra toda la materia y la energía existentes. Aun


permitiendo la hipotética existencia de otros universos en un multiverso, estos universos no
tendrían contacto físico con nuestro universo y ello lo convierte, por lo tanto, en un sistema
aislado. Por consiguiente, la explicación de que la disminución de la entropía en sistemas
locales y abiertos queda superada con creces por los aumentos de entropía en el resto del
universo no puede utilizarse para los aumentos de complejidad observados en el universo.
Determinar si este aumento de complejidad observado en la evolución de la materia
a escala del universo es consistente o no con el principio del aumento de entropía, plantea
al actual modelo ortodoxo de la cosmología cuatro preguntas interrelacionadas.
Pregunta 1. ¿Cuál es el estado inicial, es decir, empieza el universo con el máximo
o con el mínimo nivel de entropía?
Según Paul Davies, por entonces profesor de Física teórica en la Universidad de
Newcastle upon Tyne, Reino Unido, «Lo que resulta de una singularidad [Big Bang] puede
ser o bien totalmente caótico y desestructurado, o bien coherente y organizado».[3] Por si
alguien pensara que lo que busca Davies con esta afirmación es minimizar riesgos, hay que
tener en cuenta que seis páginas antes dice que el universo que empezó con la singularidad
del Big Bang «no era un universo de máxima organización, sino de simplicidad y
equilibrio». Lo cual describe un estado de entropía máxima. Tal vez la razón por la que
Davies minimiza luego los riesgos es porque Roger Penrose había llegado a la conclusión
contraria: «El hecho de que [el Big Bang] debió tener una entropía absurdamente baja [un
estado altamente ordenado] se hace evidente por la mera existencia de la segunda ley de la
termodinámica».[4] Penrose asume que la segunda ley de la termodinámica (más
concretamente, el principio del aumento de entropía) aplica al universo y, por lo tanto, el
estado inicial del mismo tiene que ser de entropía mínima. Se trata de un argumento
circular e inválido.
Contradice, además, la tercera ley de la termodinámica.
Tercera ley de la termodinámica: la entropía a temperatura cero absoluto de un
cristal perfectamente ordenado es igual a cero.
El modelo ortodoxo de la cosmología actual propone la materia inicial del universo
como un plasma, desordenado y en ebullición, de partículas fundamentales que se forman
espontáneamente de la energía de radiación, un plasma demasiado caliente para impedir la
formación de estructuras ordenadas. Se trata claramente de un estado con un nivel de
entropía muy alto, con un equilibrio general entre materia y energía a temperatura casi
infinita que sigue de inmediato a una singularidad Big Bang con nivel máximo de entropía,
como concluyó inicialmente Davies.
Pregunta 2. A escala del universo, ¿es la evolución de la materia entrópica o anti-
entrópica? Es decir, la entropía ¿aumenta o disminuye?
La figura 10.2 ilustra el dilema del modelo ortodoxo de la cosmología actual.
La figura 10.2 (a) muestra una esfera con moléculas de un gas constreñidas en una
disposición ordenada, es decir, en un estado de entropía baja. Al liberarse de su
constreñimiento, y siempre y cuando la temperatura esté por encima del cero absoluto, las
moléculas se mueven a distintas velocidades y colisionan entre ellas. La repulsión eléctrica
de los electrones con carga negativa del exterior de cada molécula es tan superior a la
atracción gravitatoria entre las moléculas, que las colisiones llevan a que las moléculas se
expandan rápidamente hasta llenar toda la esfera, alcanzando el equilibrio termodinámico a
una temperatura uniforme, como se observa en la esfera (b). Es un estado de entropía
máxima.
La esfera (c) muestra moléculas primordiales (con masa compuesta por
aproximadamente un 75 por ciento de hidrógeno y un 25 por ciento de helio) poco después
del hipotético Big Bang. Constituyen toda la materia del universo y se reparten por todo el
espacio existente en ese momento. Están en un estado de entropía extremadamente alta
(desorden) mientras el espacio entre ellas se expande. Si estuvieran en equilibrio
termodinámico, estarían en un estado de entropía máxima.
Entre las páginas 201 y 214 se ofrece el relato ortodoxo, además de una crítica, de
cómo esta nube molecular primordial evolucionó a través de la atracción gravitatoria hasta
transformarse en estructuras de galaxias, grupos locales, cúmulos y supercúmulos, como se
muestra en la esfera (d).
El proceso mostrado en la esfera (c) → (d) es el contrario al mostrado en la esfera
(a) → esfera (b): es anti-entrópico.
Penrose, sin embargo, afirma que es entrópico.
Tanto él como Stephen Hawking[5] afirman que la «acumulación» de los cuerpos
gravitantes produce desorden. Pero las observaciones muestran claramente que las galaxias
y demás formaciones están más ordenadas y estructuradas que las nubes de material a partir
de las cuales se formaron.
Penrose llega a la conclusión de que «un sistema inicial de cuerpos gravitantes
uniformemente dispersos representa una entropía relativamente baja, y las acumulaciones
tienden a ocurrir a medida que aumenta la entropía. Por último, hay un aumento enorme de
entropía cuando se forma un agujero negro que engulle la mayor parte del material».[6]
Aquí, Penrose utiliza el término «entropía» para los cuerpos gravitantes para
expresar precisamente lo contrario del significado para cuerpos no-gravitantes. Su
argumento descansa sobre la afirmación de que con «la gravedad las cosas parecen ser de
otra manera».[7] Aquí corremos de nuevo el peligro de caer al otro lado del espejo de
Alicia, donde una palabra «significa justo lo que yo quiero que signifique, ni más ni
menos».
Además, si cuando se forma un agujero negro se produce un aumento enorme de
entropía, y si las condiciones de la materia durante el Big Bang, deducidas al realizar una
regresión de la expansión del universo, son similares a las de un agujero negro, tal y como
Hawking y él defendían,[8] el Big Bang representaría un estado de entropía muy elevada, si
no máxima. Lo cual contradice directamente la afirmación citada previamente de que el Big
Bang tenía «una entropía absurdamente baja».
Tal y como Ellis observa:
A pesar de lo que se defiende a menudo en las discusiones sobre la segunda ley de
la termodinámica, cuando se dice que si la materia se dejara actuar por sí sola siempre
tendería a un estado de desorden creciente, la historia natural del universo nos demuestra lo
contrario. Por proceso espontáneo, las primeras estructuras ordenadas (estrellas y galaxias)
crecieron a través del proceso de atracción gravitatoria; luego surgieron las estrellas con
planetas de segunda generación y ofrecieron el hábitat para la vida […]. Por lo tanto, la
material presenta una propensión extraordinaria a crear orden, a generar espontáneamente
niveles de estructura jerárquica cada vez más elevados y un orden concurrente.[9]
Se trata de un proceso anti-entrópico según la definición generalmente aceptada de
entropía. La contradicción entre conjetura y evidencia que presenta el modelo ortodoxo del
Big Bang no se enfrenta a las hipótesis en las que el universo es eterno e infinito, porque un
estado así es de entropía constante en la escala del universo y, por lo tanto, es consistente
con el principio del aumento de entropía («la entropía se mantiene constante o,
normalmente, se incrementa…», véase definición en página 247).
Pregunta 3. ¿Qué es lo que provoca este incremento de complejidad (disminución
de entropía) a escala del universo?
Davies dice que el campo gravitatorio cósmico, a través de la expansión cósmica, es
el responsable de generar orden. Llega a la conclusión de que:
Presuntamente sufre cierta tendencia al desorden como resultado [de su orden
creador]… pero de ser así tenemos que explicar cómo apareció el orden en el campo
gravitatorio […]. El tema gira en torno a si la segunda ley de la termodinámica aplica tanto
a la gravedad como a la materia. En realidad, nadie lo entiende. Trabajos recientes sobre los
agujeros negros [los de Jacob Bekenstein y Stephen Hawking] sugieren que sí. [10]
Sobre la cuestión de si el principio del aumento de entropía aplica a la gravedad,
algo que la ciencia explica actualmente como una deformación del tejido espacio-tiempo
provocada por la masa, la única conclusión razonable es a la que llega Ellis.
Otro asunto no resuelto es el de la naturaleza de la entropía gravitatoria […]. No
existe aún una definición sobre la entropía gravitatoria que sea generalmente aplicable;
hasta que la haya, los argumentos cosmológicos asentados sobre conceptos de entropía
carecen de base sólida.[11]
La respuesta a esta pregunta es que actualmente desconocemos la causa del
incremento observado de complejidad y, por lo tanto, de la disminución de entropía, que se
produce cuando el universo se expande.
Pregunta 4. ¿Cuál es el estado final, es decir, termina el universo en desorden?
El problema de que las evidencias entran en contradicción con el modelo ortodoxo
de la cosmología, que aparece planteado al final de la respuesta a la Pregunta 2, podría
resolverse si se diera el caso de que, a pesar de que la complejidad y el orden han
aumentado hasta la fecha, el universo terminara en desorden. Es decir, si a pesar de que la
evolución de la materia en el universo ha sido un proceso anti-entrópico hasta la fecha,
acabara finalmente siendo entrópica.
Sin embargo, tal y como llegó a la conclusión el capítulo 8, la pregunta de si el
universo permanecerá a perpetuidad en su actual nivel de complejidad dinámica, o si se
mantendrá en este nivel a través de ciclos perpetuos tal y como propone la cosmología de
estado cuasi-estacionario, o si ha iniciado un proceso entrópico que acabará llevando al
desorden máximo en una muerte térmica, o si se volverá a contraer hasta el desorden
máximo en la singularidad de un Big Crunch, sigue totalmente abierta.
Hasta hace ochenta y cinco años, y en base a las evidencias disponibles en aquel
momento, la ciencia creía que el universo sería siempre inalterable. Durante los siguientes
treinta y cinco años, y basándose en nuevas evidencias, la ciencia quedó dividida entre
aquellos que consideraban que el universo era eterno, los que opinaban que estaba
experimentando una expansión de estado estacionario y los que defendían que el universo
empezó de la nada como un punto que explotó en un Big Bang y que había estado
expandiéndose a un ritmo desacelerado desde entonces. Hace cincuenta años, evidencias
que discutiblemente eran nuevas, convencieron a la cosmología ortodoxa para que adoptara
la idea del Big Bang. Unos veinte años más tarde, y debido a los conflictos entre las
evidencias y el modelo del Big Bang, la cosmología ortodoxa llegó a la conclusión de que
el universo primitivo experimentó una expansión indeterminada, aunque increíblemente
breve e increíblemente enorme, antes de embarcarse en una expansión desacelerada mucho
más pequeña. Y quince años más tarde, la cosmología ortodoxa interpretó las evidencias y
alcanzó la conclusión de que después de dos tercios de su vida, la expansión desacelerada
del universo cambió de ritmo por razones que no comprendemos y pasó a una expansión
acelerada, pero que ni de lejos se acerca a su ritmo de inflación.
Solo un cosmólogo osado podría predecir con confianza lo que la cosmología
ortodoxa pensará acerca de la evolución de la materia a gran escala en diez años, en cien
años, y mucho menos en mil años, qué periodos son insignificantes en comparación con la
estimación de tiempo de vida del universo, que la cosmología ortodoxa actual estima en
13,8 miles de millones de años.
Las proyecciones sobre el destino del universo son puramente especulativas y la
cosmología es incapaz de ofrecer una respuesta a esta pregunta. En consecuencia, el actual
modelo ortodoxo no puede aclarar si el principio del aumento de entropía es aplicable al
universo como un todo.
Incorporaré las conclusiones de este capítulo en las conclusiones de la primera parte
que ofrezco en el capítulo siguiente.
[1] Véase página 96 y página 171.
[2] Véase glosario para una definición completa de «entropía» y su ecuación.
[3]Davies (1990), p. 56.
[4]Penrose (2004), p. 726.
[5]Hawking (1998), p. 149.
[6]Penrose (2004), p. 707.
[7]Ibid, p. 731.
[8]Hawking (1998), pp. 49–50.
[9]Ellis (2002), S.5.4.6.
[10]Davies (1990), p. 52.
[11]Ellis (2007), S.2.5.
CAPÍTULO 11. REFLEXIONES Y CONCLUSIONES SOBRE EL ORIGEN
Y LA EVOLUCIÓN DE LA MATERIA

Los cosmólogos se equivocan a menudo, pero nunca dudan.

Atribuido a Lev Landau, 1908 -1968

Reflexiones

Cuando inicié este viaje tenía la impresión de que el Big Bang era una teoría
científica sólidamente respaldada por las evidencias y que, por lo tanto, averiguar qué
conocemos sobre el origen y la evolución de la materia inanimada sería relativamente
sencillo. Pero cuantas más preguntas me formulaba, más quedaba patente que mis
supuestos iniciales eran erróneos.
Lo cual no era malo. Había abordado el tema con mentalidad abierta, intentando
buscar lo que sabíamos o podíamos deducir razonablemente a partir de la observación y la
experimentación, por un lado, y diferenciarlo de las hipótesis, la especulación o las
creencias, por el otro. Si las evidencias empíricas no sustentaban, o incluso contradecían,
mis supuestos, tenía que asumir que así es cómo funciona la ciencia funciona: el
conocimiento científico no está grabado en piedra, sino que evoluciona a medida que
aparecen evidencias y las ideas se desarrollan.
Pero lo que me resultó inquietante fue que algunos cosmólogos respondieran
tremendamente a la defensiva cuando les pedí que corrigieran en mis borradores algún error
de hecho u omisión o las conclusiones inadecuadas. Después de haber leído solo la mitad
de un capítulo, uno de ellos me dijo: «Bajo mi punto de vista, el gran público no debería
recibir una visión tan sesgada de lo que la ciencia ha conseguido y no».
Otro me respondió diciendo que «No creo que alguien que no ha estudiado
cosmología con todo su detalle físico y matemático pueda realmente escribir una crítica
creíble sobre la cosmología moderna». Cuando le recordé que el borrador del capítulo que
le había remitido exponía críticas a la ortodoxia vigente realizadas por varios cosmólogos
reconocidos, descartó a dos de ellos por «haber dejado de tener credibilidad en el mundo de
la cosmología». Uno de ellos había sido galardonado hacía tan solo dos años con la medalla
de oro de la Royal Astronomical Society.
Para justificar su aseveración de que el borrador «estaba lleno de fallos», destacó
una sección que concluía diciendo que los datos del telescopio espacial WMAP no
confirmaban en absoluto la teoría de la inflación. Dijo: «La mayoría de la gente considera
que los datos del WMAP son muy consistentes con la inflación». Si hubiese verificado las
fuentes que yo citaba para apoyar mi conclusión, habría visto que incluían parte de un libro
de texto y también un artículo que él mismo había publicado en Nature en el que llegaba a
la misma conclusión. Terminó diciendo que no quería perder más tiempo colaborando con
lo que consideraba un ataque contra la cosmología.
Creo que parte de esta triste respuesta defensiva tanto desde dentro como desde
fuera de la cosmología deriva de los problemas a los que se enfrenta la cosmología como
medio explicativo y que se describen en el capítulo 6. En parte surge también porque la
cosmología como disciplina empezó con una teoría matemática —las ecuaciones de campo
de la relatividad general de Einstein aplicadas al universo— y ha sido liderada
mayoritariamente por teóricos cuyo instrumento de trabajo principal son las matemáticas.
Muchos combinan las pruebas matemáticas con las pruebas científicas, cuando en realidad
se trata de dos cosas muy distintas. Introducir en sus ecuaciones un amplio rango de
parámetros arbitrarios cuyos valores pueden ajustarse libremente para que sean consistentes
con la observación es, para los teóricos, un modo razonable de desarrollar un modelo
matemático, pero esta práctica no constituye una prueba empírica, tal y como la comunidad
científica acepta el concepto. Todo esto resulta especialmente evidente cuando modelos
mutuamente contradictorios afirman ser consistentes con los mismos datos observados.
En ausencia de test observacionales o experimentales que puedan validar o rechazar
sin ambigüedades una hipótesis específica, sus proponentes disponen solo de un conjunto
de ecuaciones matemáticamente consistentes que creen que representan la realidad tal y
como la perciben nuestros sentidos. Los adeptos a estas creencias actúan de un modo
similar a los adeptos a cualquier creencia: quien no está de acuerdo con ellas es porque no
las entiende, se equivoca o carece de credibilidad. (Este último término de desaprobación
resulta revelador cuando lo utiliza un científico.) Cuando los adeptos a la creencia
mayoritaria adquieren poder entre los académicos, imparten sus enseñanzas a los nuevos
cosmólogos y deciden cuáles de ellos obtendrán puestos de investigación, recibirán
subvenciones y verán sus trabajos publicados, la creencia se institucionaliza; como sucede
con cualquier institución, las presiones para ajustarse a la ortodoxia vigente y de este modo
asegurar y mantener la carrera profesional son enormes. Como resultado de ello, cualquier
postura distinta sobre los mismos problemas queda sin investigar, la innovación en la forma
de pensar se reprime y se estanca en lo que el físico teórico Lee Smolin denomina
«pensamiento de grupo» (ejemplificado por lo que «la mayoría de la gente piensa» soporta
mi conclusión) y el progreso científico se ralentiza.
Si el patrón habitual del progreso científico continúa, acabará apareciendo un
inconformista que realizará un gran avance y se producirá un cambio de paradigma
kuhniano.[1] Pero en el campo de la cosmología, donde los test empíricos exigen un nivel
de presupuesto impresionante —como sucede con los detectores espaciales o los
colisionadores de partículas—, las oportunidades de que se produzca un rechazo académico
como el de Einstein son escasas.
Paradigma: patrón dominante de pensamiento y supuestos, incuestionables en gran
medida, que integra una disciplina científica, dentro del que se desarrollan las
investigaciones y según el cual se interpretan los resultados.
De este modo, la cosmología ortodoxa tiende a comportarse menos como una
ciencia y más como una religión que a punto está de alcanzar la violencia física en su
respuesta a los disidentes internos y a los infieles externos. Cuando en los capítulos 3 y 5 he
examinado las alternativas a la ortodoxia vigente, he apuntado ejemplos del trato recibido
por los cosmólogos que se muestran en desacuerdo con las creencias ortodoxas, con los
supuestos, con frecuencia sobreentendidos, que las sustentan o con la interpretación
ortodoxa de los datos. Smolin ofrece muchos ejemplos más en su libro Las dudas de la
física en el siglo xxi: ¿es la teoría de cuerdas un callejón sin salida?.[2] No es mi intención
atacar la cosmología, sino mostrar cómo funciona en la práctica y sugerir que estas
actividades son contrarias a los valores de la ciencia. Además, considero que aseverar que
las especulaciones cosmológicas son teoría científica establecida abre la puerta a que
especulaciones y creencias extravagantes quieran cobijarse bajo el manto de la ciencia.
Tampoco es mi propósito criticar a ningún cosmólogo a nivel individual. Muchos de
ellos se cuentan entre las mentes más brillantes que existen en el campo de la ciencia y las
matemáticas. Pero el resplandor intelectual no impidió que Newton y muchos otros grandes
científicos mostraran una conducta altamente cuestionable para con otros científicos.
Dicho esto, quiero expresar mi profundo agradecimiento a todos aquellos
cosmólogos que han tenido la amabilidad de corregir los errores, omisiones y conclusiones
erróneas de mis borradores. En la sección de Agradecimientos aparecen algunas de las
mentes más destacadas de la cosmología. Cualquier error residual es única y
exclusivamente mío y, como dejo claro, mi deuda con estos científicos no implica que estén
necesariamente de acuerdo con todas mis conclusiones y ni siquiera entre ellos. Establecer
este debate razonado, del que este libro se ha beneficiado enormemente, fue, por encima de
todo, una experiencia placentera y estimulante.
Mi intento de realizar una evaluación imparcial de lo que sabemos o de lo que
razonablemente podemos deducir a partir de la observación y la experimentación acerca del
origen y la evolución de la materia dio como resultado lo siguiente.
Conclusiones

1. La cosmología, la rama de la ciencia que estudia el origen, la naturaleza y la


forma del universo, defiende el modelo del Big Bang como su teoría ortodoxa. Sin
embargo, el modelo básico no supera el test que exige la ciencia a cualquier teoría robusta
puesto que, entre otras cosas, entra en conflicto con las evidencias obtenidas mediante
observación. (Capítulo 3).
2. Las dos grandes modificaciones a las que ha sido sometido el modelo básico para
resolver estos conflictos dieron como resultado el modelo del Big Bang inflacionario con
fluctuación cuántica, pero la reivindicación principal de estas modificaciones sigue sin
poderse verificar con ningún medio conocido. (Capítulo 3). Además, estas modificaciones
producen un modelo lógicamente inconsistente si sigue sosteniéndose que el Big Bang es el
inicio de todo o, como alternativa, un modelo que contradice este principio básico en el
caso de que existiera un vacío cuántico y un campo inflacionario antes del hipotético Big
Bang caliente. (Capítulos 4 y 7).
3. Además, este modelo modificado no logra explicar si el Big Bang fue o no una
singularidad y, en caso de que lo fuera, cómo es que era un punto de volumen tan
infinitamente pequeño y de densidad infinita. Tampoco logra explicar de manera
convincente, y mucho menos predecir, la proporción observada entre materia y radiación
del universo, ni la naturaleza de la «materia oscura» (que se supone que constituye el 27
por ciento del universo) y de la misteriosa «energía oscura» anti-gravedad (que se supone
que constituye el 68 por ciento del universo y del cambio que se ha producido en la
expansión del universo, que después de pasar dos tercios de su vida con un ritmo
desacelerado ha pasado a un ritmo acelerado), ambas añadidos para conseguir que el
modelo ortodoxo sea consistente con la interpretación ortodoxa de los datos observados.
(Capítulo 4).
4. Este modelo modificado tampoco explica por qué el universo adoptó la forma que
tiene habiendo otras formas alternativas (capítulo 7) y, lo que es más importante, de dónde
vino todo. (Capítulos 4 y 7).
5. La interpretación ortodoxa de las evidencias obtenidas mediante la observación
sostiene que el universo se expande, pero saber si está expansión puede retrotraerse hasta
llegar a un suceso de creación con un punto de origen, o si se trata de una fase de un
universo cíclico y eterno, depende de poder extrapolar la física conocida hasta más allá de
sus límites y también de los cuestionables supuestos que sustentan la interpretación de los
datos. (Capítulos 3, 5 y 6).
6. Las demás hipótesis propuestas para modificar más si cabe, o desbancar, el
modelo ortodoxo no han sido sometidas a test o no pueden ser sometidas a test con los
medios actualmente conocidos. (Capítulo 5). Las que buscan explicar de dónde surgió el
universo planteando la existencia de un universo previo en colapso o de un multiverso, no
responden a la pregunta acerca del origen porque no explican de dónde surgió el universo
anterior o el multiverso. (Capítulos 3 y 5).
7. Un universo eterno en el que la energía y la materia se reciclan constantemente
ofrecería una explicación más razonable que la creación a partir de la nada y se han
propuesto distintas conjeturas en este sentido. Los diversos modelos cíclicos plantean un
número interminable de ciclos cada vez más largos o de universos cada vez más masivos
pero, siguiendo su propia lógica y haciendo retroceder el reloj, se llega a un inicio de los
ciclos a partir de una singularidad, lo que los lleva a no ser eternos. El modelo de
cosmología cuasi-estacionaria evita este problema, pero plantea la creación continua de
materia y energía mediante una serie de mini-bangs no singulares; la hipotética fuente de
energía para estos mini-bangs no resulta más razonable que la conjetura de la creación del
universo a partir de la nada en un solo Big Bang. El modelo de universo evolutivo estático
de la cosmología del plasma propone un universo eterno que no exige la creación de la
materia y la energía a partir de la nada, pero hasta el momento no ha logrado explicar qué
fue lo que provocó la existencia del plasma inicial de un universo eterno y qué fue lo que
provocó la existencia de las fuerzas físicas conocidas y las llevó a interactuar de modo que
produjeran estados de materia cada vez más ordenados y complejos. (Capítulos 5 y 7).
8. La cosmología se diferencia de otras ramas de la ciencia en que solo tenemos un
universo, es incomparablemente grande y formamos parte de él. Estas diferencias generan
problemas prácticos de detección de límites y dificultades de medición, problemas de
interpretación de datos y de validez de los supuestos subyacentes, y deficiencia no solo de
teoría cosmológica sino también de la base que integran la teoría de la relatividad, la
mecánica cuántica y la física de partículas cuando se aplica al universo como un todo. En
consecuencia, desconocemos con certitud cosas como la edad del universo o su supuesto
ritmo de expansión. (Capítulo 6).
9. A pesar de estos tremendos problemas, los cosmólogos suelen realizar
aseveraciones con escasa justificación científica. Con frecuencia, su lenguaje refleja más el
de un sistema de creencias que el de una ciencia, y la respuesta de la cosmología
institucional a los científicos reconocidos que presentan una interpretación distinta de los
datos o que ofrecen conjeturas alternativas recuerda a una iglesia enfrentada a sus
disidentes. (Capítulos 3, 5 y 6).
10. Con la mejora de las técnicas de detección, y con el desarrollo de
interpretaciones y teorías como respuesta a la aparición de nuevos datos y nuevas ideas, las
limitaciones prácticas, interpretativas y teóricas quedarán superadas y la cosmología nos
ofrecerá una mejor comprensión del origen de la materia y de la energía de la que estamos
hechos. Sin embargo, hasta que los cosmólogos presenten una nueva definición de ciencia y
de método científico que resulten aceptables tanto para la comunidad científica como para
la comunidad intelectual en su sentido más amplio, muchas «teorías» cosmológicas deberán
quedar clasificadas como conjeturas no verificables y, en consecuencia, ser consideradas
más filosóficas que científicas. (Capítulo 6).
11. Un problema teórico particular es el relacionado con el concepto de infinitud,
tanto espacial como temporal. Si este concepto matemático se corresponde o no a la
realidad del mundo físico que percibimos con los sentidos, como seres finitos que somos, es
una cuestión metafísica. El hecho de que las teorías que incorporan la infinitud no pueden
verificarse mediante la observación sistemática o la experimentación, las sitúa fuera del
campo de la ciencia tal y como la entendemos hoy en día. (Capítulos 6 y 7).
12. A pesar de que la ciencia tiene que ver con la comprensión del universo
material, hay otras formas de existencia distintas a la material —las leyes de la física, por
ejemplo— que describen o regulan cómo cobra vida el universo material y cómo funciona.
Estas leyes se expresan mediante relaciones matemáticas. En consecuencia, los físicos
teóricos deducen que las formas materiales existen como una realidad objetiva fuera del
espacio y del tiempo y regulan la formación y el funcionamiento del universo material. Este
razonamiento queda fuera del campo de la ciencia. En el fondo, no se diferencia de la
visión de brahmán de las antiguas Upanishads o de la visión del tao de los antiguos chinos
en cuanto a una realidad definitiva que existe fuera del espacio y el tiempo, de la que todo
mana y según la cual funciona el mundo natural. (Capítulos 6 y 7).
13. Si reconociéramos los problemas exclusivos de la cosmología y sometiéramos
las diversas especulaciones cosmológicas al test de la razón en vez de al test estrictamente
empírico de la ciencia, veríamos que ninguna de ellas resulta convincente, que algunas
quedan debilitadas por inconsistencias internas y que varias son poco más razonables que
muchas creencias que la ciencia considera superstición. (Capítulo 7).
14. Ni la ciencia ni la razón ofrecen una explicación convincente sobre el origen del
universo y, en consecuencia, sobre el origen de la materia y la energía de las que estamos
hechos. Lo más probable es que quedé lejos de su capacidad para hacerlo. Pero la ciencia,
de todos modos, sigue suministrando una amplia gama de explicaciones provisionales —
que cambiarán a medida que se produzcan nuevos descubrimientos y varíen las ideas—
sobre cómo funciona el universo tanto a pequeña como a gran escala. (Capítulo 7).
15. Si el universo primitivo consistía en un plasma extremadamente denso, caliente
y desordenado de partículas fundamentales que se formó a partir de energía de radiación, y
la aniquiló, ha ido evolucionando a gran escala para formar estructuras dinámicas y
complejas dispuestas en una jerarquía que va desde sistemas estelares con planetas en
órbita, a galaxias en rotación, grupos locales de galaxias y cúmulos de galaxias, hasta
súper-cúmulos separados entre sí por vacíos parecidos a burbujas. (Capítulo 8).
16. Evidencias obtenidas a través de la observación muestran de forma convincente
que, simultáneamente, la materia evolucionó a pequeña escala siguiendo un patrón de
complejidad creciente, desde sencillos núcleos de átomos de hidrógeno hasta las moléculas
(con base de carbono) de incluso trece átomos que encontramos en el espacio interestelar y
los aminoácidos simples, también con esa cantidad de átomos, que encontramos en
asteroides de nuestro sistema solar. (Capítulo 9).
17. La ciencia ha deducido leyes físicas y químicas que describen o determinan
cómo interactúa la materia invariablemente en todo el universo observable. Sin cumplir
estas leyes, la materia no podría haber evolucionado hasta la compleja forma del ser
humano. (Capítulos 6, 7, 8, 9 y 10).
18. Además de estas leyes físicas y químicas, para obtener un universo que permita
que la materia evolucione hasta la complejidad de los átomos y las moléculas de las que
estamos formados, es necesario ajustar con precisión el valor de seis parámetros
cosmológicos. Además, para permitir la evolución de cualquier átomo o molécula, es
necesario ajustar con precisión los valores de dos constantes sin dimensión. Y finalmente,
para conseguir la producción de carbono suficiente para la evolución de las moléculas
orgánicas esenciales para la existencia del ser humano y de todas las formas de vida
conocidas, es imprescindible ajustar también con precisión los valores de tres parámetros
de la nucleosíntesis estelar. (Capítulos 7 y 9).
19. Ninguna teoría explica cómo surgen estas leyes o por qué estos parámetros
tienen los valores críticos que tienen. Varias conjeturas con distintos tipos de multiverso
proponen que, en un cosmos con un número de universos tremendamente grande o infinito,
resulta abrumadoramente probable que surgiese un universo justo con las propiedades que
tiene el nuestro; y casualmente existimos en él (el universo antrópico). Ni la observación ni
la experimentación pueden validar estas conjeturas y quedan fuera del campo de la ciencia.
Además, todas las conjeturas de multiversos están basadas en una lógica cuestionable.
(Capítulo 7).
20. El proceso de complejidad creciente a pequeña escala que llevó a la producción
de los aproximadamente 95 elementos naturales que existen estuvo provocado por
transformaciones de energía que se iniciaron en el interior de las estrellas, y especialmente
entre energía gravitatoria potencial y energía de masa en reposo, cinética, calorífica y
lumínica. Transformaciones posteriores de estas energías, limitadas por la teoría cuántica,
produjeron átomos más complejos que posteriormente se enlazaron para formar moléculas.
Las hipótesis basadas en los sistemas auto-organizados explican, con cierta base empírica,
que un sistema abierto de moléculas puede incrementar su complejidad mediante un flujo
de energía y materia que circula a través del sistema y que produce un sistema estable
alejado del equilibrio. (Capítulos 9 y 10).
21. Hasta el momento, la cosmología ortodoxa no ha conseguido ofrecer una
explicación satisfactoria sobre la causa de la complejidad creciente a escala del universo.
Su relato sobre cómo surgieron las heterogeneidades iniciales en la materia —a través de la
hipotética expansión inflacionaria de fluctuaciones cuánticas en el Big Bang o en un vacío
preexistente— es tan flexible que no es verificable, y muchos cosmólogos de renombre han
sembrado serias dudas con respecto a su supuesta validación a partir de las ondulaciones de
densidad observadas en el fondo cósmico de microondas. Su explicación sobre cómo estas
heterogeneidades generaron campos gravitatorios con fuerza suficiente en distintas nubes
de átomos y moléculas primitivas para producir los sistemas estelares y las galaxias, los
grupos locales de galaxias y los cúmulos de galaxias, además de los supercúmulos en forma
de lámina separados entre sí por vacíos con aspecto de burbuja constituye el modelo
ascendente que incluye materia oscura fría y desconocida y energía oscura desconocida.
Las observaciones de estrellas rojas gigantes y de hierro y otros metales en galaxias que
deberían ser muy jóvenes según el modelo, además de la observación de estructuras mucho
más grandes de lo vaticinado, arrojaron importantes dudas con respecto a ese modelo.
Además, los cosmólogos no se ponen de acuerdo en cómo se formaron las estrellas de
primera generación y en cuáles fueron las primeras estructuras del universo: cúmulos
globulares, agujeros negros súper masivos o estrellas con poca masa. (Capítulos 8 y 10).
22. Este patrón de aumento de la complejidad contradice el principio de aumento de
la entropía (desorden) de la ciencia. La cosmología ortodoxa actual explica que los
aumentos de complejidad (disminución de la entropía) se producen en los sistemas locales
y abiertos y se ven superados con creces por los aumentos de entropía en el resto del
universo. Pero como que el universo es un sistema aislado y, por lo tanto, cerrado, esto no
consigue explicar el aumento de complejidad (disminución de la entropía) en el universo
como un todo. Este problema no se encuentra en el modelo de cosmología de estado cuasi-
estacionario que defiende un universo infinito que experimenta continuamente fases
cíclicas, puesto que la entropía es la misma al inicio y al final de cada ciclo; pero, como
sucede con la cosmología ortodoxa, presenta un problema con el principio de la
conservación de la energía porque sus mini-bangs implican la creación de materia-energía a
partir de la nada. La cosmología del plasma propone un universo eterno, pero se trata de un
universo que empieza en un estado de plasma desordenado, o en un estado previo no
especificado, y evoluciona para producir estados de materia más complejos como galaxias,
cúmulos de galaxias y supercúmulos a partir de vórtices de filamentos comprimidos
magnéticamente. Como sucede con el modelo ortodoxo, se trata de un proceso anti-
entrópico que entra en conflicto con el principio del aumento de la entropía. Además, no
queda claro cómo es posible que un universo que tiene un principio es eterno. (Capítulos 5
y 10).
23. El problema podría resolverse para el actual modelo ortodoxo si:
a. El proceso de aumento de la complejidad cesara, se revertiera y el universo
volviera a contraerse para acabar con el desorden máximo que supondría un Big Crunch, o
si el universo se expandiera hasta llegar a la ausencia de cualquier tipo de orden en el
equilibrio termodinámico de una muerte térmica, pero las proyecciones sobre el destino
final del universo son especulaciones que han cambiado radicalmente varias veces en el
transcurso de los últimos cien años; o si
b. El universo fuera un sistema abierto mantenido lejos del equilibrio mediante un
flujo de energía, aunque esto exigiría que el universo no consistiera en todo lo que hay ahí y
tampoco explica de dónde procedería esa energía; o si
c. Una forma o formas de energía no identificada todavía por la cosmología
estuviera implicada en las transformaciones de energía y los cambios de complejidad
asociados.
[1] Thomas Khun, filósofo de la ciencia, defiende que los factores sociales y
psicológicos influyen la actitud de los científicos cuando pasan de adherirse a la teoría
vigente a adoptar otra nueva y revolucionaria. Véase Khun (2012).
[2] Editado en español por Crítica, Barcelona, 2007.
SEGUNDA PARTE.
El origen y la evolución de la vida
CAPÍTULO 12. UN PLANETA IDÓNEO PARA LA VIDA

Quiero saber cómo Dios creó el mundo.

Albert Einstein, 1955

En nuestro siglo, la biosfera ha adquirido un significado completamente nuevo; se


ha revelado como un fenómeno planetario de carácter cósmico.

Vladimir Vernadsky, 1945

La pregunta en el sentido más amplio de cómo surgió en el universo la vida en


diversas, y posiblemente exóticas maneras, queda fuera del alcance de nuestro viaje, que se
centra en teorías científicas establecidas y en evidencias que sustentan la evolución del ser
humano. De ahí que la Segunda Parte examine el origen y la evolución de la vida en la
Tierra.
En la primera parte se ha explicado que la materia más compleja que conocemos
actualmente como resultado de la evolución a pequeña escala se encuentra en el espacio
interestelar y en los asteroides de nuestro sistema solar y son moléculas orgánicas de hasta
trece átomos. La Tierra, por otro lado, alberga los objetos más complejos del universo
conocido: el ser humano. Pero el ser humano y otras formas de vida existen solo en una
minúscula zona de la Tierra: justo por encima y justo por debajo de su superficie. Es lo que
conocemos como la biosfera aunque tal vez sería mejor denominarla la «biocapa».
Empezaré la segunda parte considerando las condiciones necesarias para la
aparición y la evolución de la vida tal y como la conocemos y luego examinaré las teorías
científicas que explican cómo se desarrollaron estas condiciones en la Tierra para dar lugar
a su biosfera.
Condiciones necesarias para las formas de vida conocidas

Las condiciones que los científicos consideran necesarias para la aparición y la


evolución de la vida pueden diferenciarse en seis grupos: los elementos y las moléculas
esenciales, la masa del planeta, el rango de temperatura de la biosfera, las fuentes de
energía, la protección contra la radiación nociva y los impactos, y la estabilidad.
Los elementos y moléculas esenciales

Todas las formas de vida conocida están integradas por una gran variedad de
moléculas tremendamente complejas. El único elemento capaz de formar moléculas de tal
complejidad es el carbono,[1] razón por la cual la vida, al menos en su inicio, exige la
presencia del elemento carbono.
Todos los biólogos consideran el agua, en su formato líquido, como un elemento
esencial para la vida. Y ello se debe al tamaño, la forma y la particular distribución de la
carga eléctrica que presenta la molécula del agua, tal y como se muestra en la figura 12.1.
Una molécula de agua es eléctricamente neutra, pero en el interior de la molécula, la
carga se distribuye de forma desigual. El átomo de oxígeno atrae una gran parte de la carga
eléctrica y es electronegativo; los dos átomos de hidrógeno son electropositivos. Estas
cargas dipolares permiten que los átomos electropositivos de hidrógeno del interior de la
molécula de agua formen enlaces de Van der Waals[2] especialmente fuertes, atrayendo los
átomos electronegativos de otras moléculas; es lo que se conoce como enlaces de
hidrógeno. La figura 12.1 muestra estos enlaces de hidrógeno con otras moléculas de agua.
Esta fuerza hace que el agua puede permanecer en formato líquido a una temperatura
mucho más elevada que lo que podrían hacerlo otras moléculas pequeñas, como el metano,
el dióxido de carbono o el amoniaco, que se disocian en moléculas distintas en forma de
gas cuando alcanzan la temperatura debida. El agua existe en formato líquido en
condiciones de presión atmosférica normal y en un rango de temperatura excepcionalmente
amplio, que va desde los 0 a los 100 grados Celsius (de los 273 a los 373 grados Kelvin), el
rango ideal para que se produzcan reacciones bioquímicas y necesario para reproducir y
mantener la vida.
La capacidad de estas pequeñas moléculas de formar enlaces de hidrógeno hace que
el agua líquida sea además un potente solvente tanto para compuestos iónicos, como las
sales, como para aquellas moléculas orgánicas que presentan también una distribución
desigual de la carga eléctrica, como los aminoácidos, que son tan fundamentales para las
formas conocidas de vida que se los conoce como los bloques constructivos de la vida.
Los enlaces de hidrógeno pueden ser más fuertes que los enlaces covalentes que
unen el único átomo de oxígeno a dos átomos de hidrógeno, rompiendo estos últimos, de
modo que dos moléculas de agua líquida formen un ion de hidronio positivo, H3O+, y un
ion de hidroxilo negativo, OH-.
H2O + H2O → H3O+ + OH-

En el agua líquida, estos iones son un buen conductor de electricidad.


Estas propiedades solventes y conductoras del agua la convierten en un buen medio
para el desarrollo de los procesos bioquímicos esenciales como, por ejemplo, la disolución
de nutrientes y el transporte de los mismos a través de membranas semi-porosas en el
interior de los organismos vivos y la disolución y el transporte de los productos de desecho.
Los elementos esenciales para la conservación de la vida van desde elementos
ligeros como el hidrógeno, el oxígeno y el carbono, hasta elementos pesados. El molibdeno,
por ejemplo, colabora en la fijación del nitrógeno, una reacción química en la que las
moléculas de nitrógeno, que en general no son reactivas, se transforman en compuestos de
nitrógeno más reactivos, un paso clave en el metabolismo de las plantas, que consiste en
una serie de reacciones bioquímicas interrelacionadas mediante las cuales las plantas
obtienen la energía y los nutrientes necesarios para sostener su existencia. Como que los
animales comen plantas, y el ser humano come plantas y animales, la fijación del nitrógeno
es un paso fundamental en la cadena metabólica tanto de los animales como del ser
humano.
Los elementos radiactivos, mucho más pesados, como el uranio y el torio, generan
calor mediante su desintegración radiactiva. Como veremos más adelante, los geofísicos
consideran que el calor generado por estos elementos produce el movimiento de las placas
tectónicas, y el consiguiente movimiento de los continentes, que juega un papel importante
en la evolución de la vida.
La masa del planeta

Cuantificar este factor es complicado porque depende de muchos factores más,


como la distancia con respecto a su estrella, la luminosidad de la misma, el tamaño del
planeta y, por consiguiente, su densidad.
En términos generales, si la masa de un planeta es excesivamente pequeña, su
campo gravitatorio no será lo suficiente fuerte como para retener los gases de su atmósfera
y los elementos volátiles, como el agua líquida, de su superficie. Un planeta con poca masa
se habrá enfriado con relativa rapidez desde su formación y carecerá de la actividad
tectónica que fomenta la evolución biológica. Existe el consenso de que la masa de un
planeta nunca debería ser inferior a un tercio de la masa de la Tierra.[3]
El consenso es menos amplio en lo referente al límite máximo de masa. El punto de
vista convencional es que un planeta con una masa diez veces superior a la de la Tierra
capturaría una cantidad importante de gas de su disco nebular, lo cual vendría seguido por
un crecimiento desenfrenado de gas que sería perjudicial para las formas de vida conocidas.
[4] Por otro lado, el equipo de definición de ciencia y tecnología del proyecto Terrestrial
Planet Finder de la NASA llegó a la conclusión de que una masa planetaria grande no es un
factor necesariamente influyente en la habitabilidad de un planeta.[5]
El rango de temperatura

La temperatura no debe ser tan elevada como para provocar la ruptura de los enlaces
de las moléculas orgánicas complejas, ni tan baja como para que las reacciones bioquímicas
esenciales se produzcan con excesiva lentitud, lo que impediría la producción de más
moléculas complejas y el mantenimiento de las reacciones metabólicas esenciales. El
biofísico Harold Morowitz estima un rango de temperatura de 500º Celsius.[6] Sin
embargo, puesto que los biólogos consideran que el agua en estado líquido es esencial para
la vida, el rango se reduciría considerablemente. Bajo distintas presiones y otras
circunstancias, el agua en estado líquido es factible en un rango de temperatura que oscila
entre los 0 y los 100º Celsius con una presión atmosférica normal.
Las fuentes de energía

Para producir la temperatura esencial para mantener la vida, un planeta debe


disponer de fuentes de energía. La principal fuente de energía en la superficie es la energía
electromagnética irradiada por la estrella del planeta. Antiguamente, la estimación de la
temperatura de la superficie de un planeta se calculaba multiplicando la luminosidad de la
estrella (energía irradiada por segundo) por la distancia entre el planeta y la estrella. El
rango de distancias que producía una temperatura de superficie entre 0 y 100º Celsius se
definía como la zona de habitabilidad estelar.
Pero era un cálculo demasiado simplista. En primer lugar, objetos como las nubes y
el hielo reflectan una parte (lo que se conoce como el albedo) de la radiación total que llega
al planeta. En segundo lugar, la cantidad de energía que alcanza la superficie de un planeta
depende del tiempo que la superficie esté encarada hacia la estrella, lo que a su vez depende
del tiempo de rotación del planeta sobre su eje; parte de esta energía solar que llega con
longitudes de onda visibles y calientan la superficie del planeta se irradia de nuevo hacia el
frío cielo nocturno en longitudes de onda térmicas superiores cuando el planeta no encara la
estrella. En tercer lugar, la cantidad de energía irradiada depende de los gases de la
atmósfera del planeta; así, gases como el dióxido de carbono, el vapor de agua y el metano
absorben esta energía térmica e irradian de nuevo parte de ella, produciendo un efecto
invernadero.
Además, podrían existir otras fuentes de energía, como el calor del interior del
planeta, que puede estar generado por la desintegración radiactiva o ser un calor residual de
los procesos de formación planetaria. El efecto directo que este calor geotermal ejerce sobre
la superficie es pequeño, pero genera actividad volcánica, que a su vez suministra dióxido
de carbono a la atmósfera del planeta e incrementa el efecto invernadero.
La protección contra la radiación nociva y los impactos

No toda la radiación que emite una estrella sirve para fomentar las reacciones
bioquímicas esenciales. Por encima de determinadas intensidades, las frecuencias de
algunas radiaciones (la radiación ultravioleta, por ejemplo) pueden dañar de forma
irreparable los organismos, mientras que las llamaradas solares —explosiones intensas de
radiación electromagnética y electrones, protones y otros iones de alta energía— pueden
arrasar la atmósfera de un planeta. Para que exista vida, la biosfera del planeta tiene que
quedar protegida de radiaciones nocivas de este tipo.
Por otro lado, la biosfera necesita estar protegida del impacto de cometas o
asteroides de tamaño capaz de destruir formas de vida complejas.
La estabilidad

Estas condiciones deben mantenerse estables durante un tiempo lo suficientemente


prolongado como para permitir que de las moléculas esenciales surjan organismos sencillos
que evolucionen en formas de vida tan complejas como la del ser humano.
La formación de la Tierra y de su biosfera

Empezaré resumiendo lo que la ciencia nos dice sobre la Tierra y su biosfera y a


continuación examinaré las teorías que explican cómo se desarrollaron.
Características de la Tierra

La Tierra tiene una forma más o menos esférica, con una leve protuberancia en el
ecuador, y un diámetro medio de 12.700 kilómetros. Su masa es aproximadamente de 6 x
1024 kilos y posee un potente campo magnético. Gira alrededor de su estrella, el sol, en una
órbita ligeramente elíptica que tiene una duración de 365 días y cuarto, a una distancia
media de 149 millones de kilómetros. Rota cada 24 horas sobre su eje, que presenta una
inclinación de 23,5 grados con respecto a la perpendicular al plano elíptico de la órbita,
como se muestra en la figura 12.2.
A una distancia media de 384.000 kilómetros de la Tierra orbita su único satélite
natural, la luna. Con un diámetro algo superior a una cuarta parte el de la Tierra (y de casi
de tres cuartas partes el diámetro del planeta Mercurio), la luna es excepcionalmente grande
en comparación con su planeta.
Estructura interna

La imposibilidad de acceder directamente a todo el interior de la Tierra, combinada


con las distintas interpretaciones de datos como los patrones de las ondas sísmicas de los
terremotos, hace que ciertas áreas de la geología sigan siendo aún controvertidas. La figura
12.3 muestra el consenso actual sobre la estructura interna de la Tierra.

Hidrosfera
Aproximadamente dos tercios de la superficie de la Tierra están cubiertos por agua
en forma de océanos, mares y ríos. La profundidad de esta hidrosfera oscila entre 0 y 5
kilómetros.
Atmósfera
La capa gaseosa de la Tierra se extiende hasta 10.000 kilómetros por encima de la
superficie sólida y líquida, pero los primeros 65-80 kilómetros contienen el 99 por ciento de
la masa total de la atmósfera de la Tierra. Por densidad, está integrada aproximadamente
por un 78 por ciento de nitrógeno, un 20 por ciento de oxígeno, un 1 por ciento de argón y
el restante 1 por ciento por una mezcla de otros gases, incluyendo vapor de agua, cuya
concentración aumenta con la temperatura, y un 0,003 por ciento de dióxido de carbono; la
capa de entre 19 y 50 kilómetros que se eleva por encima de la superficie contiene ozono,
una forma de oxígeno con tres átomos por molécula, en vez de dos.
Magnetosfera
En principio, un campo magnético se extiende indefinidamente. En la práctica, el
campo magnético de la Tierra produce efectos significativos hasta decenas de miles de
kilómetros de distancia de la superficie y se denomina magnetosfera. Tal y como muestra la
figura 12.4, el viento solar deforma la forma habitualmente simétrica de un campo
magnético.

Biosfera
La biosfera integra todos los entornos capaces de mantener la vida tal y como la
conocemos. Se trata de un caparazón fino que abarca entre 5 kilómetros por debajo y 5
kilómetros por encima del nivel del mar y cubre parte de la litosfera, la mayoría de la
hidrosfera (la capa externa sólida de la Tierra) y parte de la atmósfera.
Formación

Evidencias
Las evidencias de cómo se desarrollaron la Tierra y sus esferas externas son difíciles
de encontrar. En la superficie no quedan restos relacionados con la formación del planeta:
las rocas se han visto erosionadas por las condiciones climatológicas, o han sufrido una
metamorfosis como consecuencia del calor y la presión, que han producido cambios
estructurales y químicos, o se han fundido por las altas temperaturas al verse empujadas
hacia el interior por un proceso conocido como subducción; la datación de las rocas
superficiales es controvertida, pero se considera que las más antiguas tienen alrededor de
3,8 miles de millones de años, es decir, son unos 700 millones de años más jóvenes que la
formación de la Tierra. La hidrosfera se ha recirculado continuamente a través de la
evaporación como vapor de agua seguido por precipitaciones en forma de lluvia, granizo o
nieve. Los procesos biológicos que examinaré más adelante han transformado por completo
la atmósfera.
Los científicos han desarrollado hipótesis sobre la formación de la Tierra mediante
inferencia: a partir de los estudios sobre las distintas etapas de la formación estelar en otros
lugares de nuestra galaxia; el examen de los meteoritos que se consideran representativos
de los planetesimales que, agregados, formaron la Tierra; la datación de rocas y otros
componentes de la superficie de la Tierra y del magma expulsado de su interior; análisis
fisicoquímicos y datación de rocas de la luna y de Marte; y los datos obtenidos con sondas
en la mayoría de planetas de nuestro sistema solar.
La datación precisa es un elemento crítico para determinar los procesos evolutivos.
La datación comparativa, basada en observaciones de las estrellas en diversas etapas de su
evolución, combinada con los estudios de fusión nuclear, suele utilizarse para explicar los
cambios que ha experimentado el tamaño y la luminosidad del sol con el paso del tiempo.
La datación radiométrica (conocida también como radioisotópica) proporciona un
método potente y preciso de datación absoluta de muestras, siempre y cuando puedan
determinarse ciertos parámetros. Por ejemplo, mediante experimentación, los científicos
han establecido la vida media del carbono-14 en 5.730 años. Esto significa que en 5.730
años, la mitad de cualquier cantidad de carbono-14 experimentará una desintegración
radiactiva que lo convertirá en nitrógeno-14 estable. Los científicos han establecido
también la proporción entre carbono-14 y carbono-12, un isótopo más común y estable
presente en los compuestos de carbono de origen natural. La determinación de las distintas
proporciones en una roca muestra qué cantidad de carbono-14 se ha perdido como
consecuencia de la desintegración radiactiva; un simple cálculo determina el tiempo que ha
durado este proceso y, en consecuencia, la antigüedad de la muestra. Técnicas similares se
emplean con otros elementos radiactivos, como el uranio-238, con una vida media de 4,6
miles de millones de años, y el torio-232, con una vida media de 14 mil millones de años.
Las hipótesis resultantes de estos datos obtenidos mediante observación y
experimentación, junto con los modelos realizados con ordenador, explican la formación de
la Tierra y sus esferas como sigue.
El planeta
La hipótesis general nebular esbozada en el capítulo 8[7] ofrece un relato sobre la
formación del planeta. En este caso en particular, hace aproximadamente 4,6 miles de
millones de años, la inmensa mayoría de un disco en rotación de unos 24 mil millones de
kilómetros de diámetro, giró en espiral sobre su centro masivo de hidrógeno,
incrementando con ello su densidad y su temperatura hasta el punto en que el núcleo se
encendió con una fusión nuclear que acabó generando el sol.
La formación del disco no era perfecta. En aquellas condiciones turbulentas, ciertas
acumulaciones de material —básicamente hielo y polvo— siguieron trazando órbitas muy
excéntricas alrededor del sol formando ángulo con el disco; es lo que acabó conociéndose
como cometas.
Del material que quedó en el disco en rotación, el viento solar —iones y electrones
que salen proyectados del sol ardiente— empujó los gases ligeros de hidrógeno y helio
hacia las regiones exteriores y frías del disco, donde se acumularon para formar nebulosas
planetarias —no lo suficientemente calientes ni densas como para fusionarse— que
acabarían formando los cuatro planetas gigantes gaseosos más exteriores.
Las moléculas más pesadas, formadas por hidrógeno combinado con otros
elementos —como las moléculas de metano (CH4), vapor de agua (H2O) y sulfuro de
hidrógeno (H2S)—, permanecieron en las regiones más interiores del disco, donde granos
de polvo, silicatos en su mayoría colisionaron, repeliéndose en ocasiones y en otras
adhiriéndose entre ellos. Los que se adhirieron formaron granos algo más grandes con
campos gravitatorios algo más fuertes que atrajeron granos más ligeros y moléculas de gas.
Se formaron grumos del tamaño de guijarros que fueron creciendo hasta convertirse en
planetesimales[8] de varios kilómetros de diámetro. Las colisiones caóticas entre
planetesimales acabaron dividiendo algunos de ellos y fusionando a otros, produciendo, en
este último caso, cuerpos más grandes.
En la frontera entre la región interior y la exterior, allí donde los planetesimales
estaban muy distanciados entre sí y lo bastante alejados del gigante gaseoso más próximo,
Júpiter, como para no ser atraídos hacia su órbita, esos objetos siguieron orbitando
alrededor del sol en lo que se conoce como el cinturón de asteroides.
Más cerca del sol, donde los planetesimales estaban mucho más próximos ente sí, se
produjeron más colisiones y, como consecuencia de ellas, cuatro protoplanetas
incrementaron su masa para acabar dominando el cinturón orbital del disco. Cada uno de
estos protoplanetas creció mediante un proceso violento de acreción, durante el cual su
campo gravitatorio, cada vez más potente, atrajo con voracidad hacia su región a los
planetesimales restantes. Estos planetesimales chocaron contra el protoplaneta y se
fusionaron con él, generando mucho calor; esto, combinado con el calor generado por la
desintegración radiactiva de algunos de sus elementos —como el uranio y el torio—, más el
calor procedente de la transformación de la energía gravitatoria potencial generada con la
condensación de su materia gaseosa, más el calor del sol, fue suficiente para fundir la
mayor parte de cada protoplaneta. Cuando la inmensa mayoría de los planetisimales quedo
absorbida por el cinturón, la fase de acreción tocó a su fin, probablemente entre 400 y 700
millones de años después de que el sol se encendiera. Acababa de nacer un planeta rocoso
fundido y con una atmósfera con silicatos en estado gaseoso.[9] La Tierra, el tercero de
estos planetas en relación a su distancia con el sol, entró en su eón hádico (de Hades, el
infierno) de acreción hace aproximadamente 4,56 miles de millones de años y emergió del
mismo con su masa actual hace entre 4 y 3,9 miles de millones de años.[10]
El núcleo de hierro
El calor generado por el bombardeo de planetesimales en la fase de acreción de la
Tierra fraccionó la mezcla fundida. Los elementos más pesados se sumergieron hacia la
parte central del planeta. El elemento preponderante, con diferencia, era el hierro. Así pues,
el núcleo del planeta estaba compuesto principalmente por hierro, con algo de níquel, el
siguiente elemento pesado en abundancia. El análisis de meteoritos ricos en hierro, junto
con las densidades deducidas a partir de datos sísmicos, sustentan esta hipótesis.[11]
Cuando terminó el eón de acreción generadora de calor, el núcleo empezó a
enfriarse por el centro, que se solidificó bajo una intensa presión, mientras que la parte
exterior del núcleo siguió fundida.
El campo magnético
Las evidencias que proporcionan las rocas de la superficie indican que en los
últimos 330 millones de años, el campo magnético de la tierra se ha invertido más de 400
veces, es decir, que el polo norte se ha intercambiado con el polo sur y viceversa. El
intervalo de tiempo entre estas inversiones varía oscila entre menos de 100.000 años y
decenas de millones de años; la última inversión se produjo hace 780.000 años.
Durante el último siglo, el polo norte magnético se ha desplazado 1.100 kilómetros.
Además, el seguimiento de desplazamientos anuales desde 1970 demuestra que este ritmo
se está acelerando y que el polo se desplaza actualmente más de 40 kilómetros anuales.[12]
Los científicos no comprenden cómo se formó el campo magnético. Una mayoría de
geocientíficos planetarios apoya la hipótesis de la dinamo, según la cual el movimiento de
un material conductor eléctrico en un campo magnético existente refuerza el campo
magnético original. En este caso, la rotación de la Tierra habría hecho que el hierro líquido
(un buen conductor eléctrico) de la parte exterior del núcleo circulara alrededor del eje de
rotación, generando con ello un campo magnético con un polo norte en el polo norte
geográfico y un polo sur en el polo sur geográfico. Sin embargo, esto no explica por qué los
polos magnéticos se han invertido de un modo tan errático o por qué los polos se trasladan
a un ritmo acelerado; el científico atmosférico de la Pennsylvania State University, James
Kasting, sugiere que es debido a que la dinamo es un sistema caótico.[13]
En 2009, Gregory Ryskin, profesor asociado de ingeniería química y biológica de la
Northwestern University, Illinois, presentó la controvertida hipótesis de que las
fluctuaciones en el campo magnético de la Tierra son debidas a los movimientos de los
océanos. La sal del agua de mar le permite conducir electricidad, generando con ello
campos eléctricos y magnéticos. En el Atlántico Norte, los cambios en la fuerza de las
corrientes oceánicas están correlacionados con los campos en los campos magnéticos de
Europa Occidental.[14] Históricamente, los movimientos de la placa tectónica han
provocado cambios en la ruta de las corrientes oceánicas, que podrían haber producido la
inversión de los polos magnéticos.
La corteza, la litosfera y el manto
Al final de la fase de acreción de la Tierra, el calor del bombardeo se detuvo y la
superficie se enfrió a medida que el planeta fue rotando para alejarse del sol e irradió su
calor hacia el cielo nocturno.
Los silicatos, tanto los que estaban en forma de vapor como los fundidos en forma
líquida, se condensaron de tal modo que los silicatos más ligeros quedaron depositados
encima y los silicatos más ricos en elementos pesados quedaron abajo. Los silicatos de la
parte exterior, más ligeros, fueron los primeros en enfriarse y solidificarse, formando la
corteza rígida; a eso le siguió el enfriamiento y solidificación de la capa superior del manto,
la capa entre la corteza y el núcleo externo. La mayor parte del manto conservó su calor,
pero la presión del material que tenía encima forzó su solidificación, aunque adoptando una
forma dúctil.
El enfriamiento uniforme provocado desde el exterior de una bola de material
fundido como aquella debería de haber originado capas lisas de profundidad consistente en
la corteza, en la capa superior del manto, etc. Pero en la corteza observamos montañas,
valles, volcanes y llanuras, separados entre sí por inmensos y profundos océanos. Se
plantearon diversas ideas para explicar esta topografía. A finales del siglo xix, los geólogos
adoptaron la idea sugerida por uno de sus representantes más ilustres, el austriaco Eduard
Suess: cuando la Tierra se enfrió, empezó a arrugarse, como una manzana al horno. A pesar
de los evidentes movimientos verticales, la visión de que los continentes y los océanos eran
características permanentes de la superficie de la Tierra se convirtió en la teoría ortodoxa de
la geología.
Inspirándose en las observaciones que indicaban que los continentes adoptan la
forma de piezas de un rompecabezas que en su día debieron de encajar, un austriaco de
treinta y dos años de edad llamado Alfred Wegener, propuso en 1912 una hipótesis
alternativa a la que puso el nombre de deriva continental, según la cual un súper-
continente, Pangea, se rompió y sus distintas partes, los continentes, fueron desplazándose
hasta quedar separadas. La geología ortodoxa rechazó la propuesta y la calificó de ridícula.
Wegener siguió trabajando su idea y en 1921 publicó una versión revisada y
ampliada de su libro para justificar la hipótesis. Incluía evidencias de estructuras geológicas
idénticas en la costa oriental de América del Sur y la costa Occidental de África, junto con
restos fósiles idénticos tanto de estos como de otros continentes separados por grandes
distancias. La ortodoxia ignoró o desdeñó las evidencias geológicas; Wegener, al fin y al
cabo, era un meteorólogo. Para justificar las evidencias fósiles, recurrieron a la idea de
puentes terrestres entre continentes que habían desaparecido sin dejar rastro. Era evidente
que la idea de Wegener era absurda: ¿qué fuerza podía mover algo tan colosal como los
continentes?
En 1944, Arthur Holmes, un geólogo inglés, ofreció una explicación. El calor
generado por la desintegración radiactiva de los elementos del interior proporcionaría la
energía necesaria para romper y desplazar los continentes. Exceptuando un pequeño
número de defensores de la deriva continental, la inmensa mayoría de geólogos se aferró a
la línea ortodoxa y siguió considerando la hipótesis una simple tontería fantasiosa.
Las evidencias fueron acumulándose con el paso de los años. Los oceanógrafos
descubrieron que la corteza oceánica era excepcionalmente joven, con una edad media de
55 millones de años que no era nada en comparación con la corteza continental, que tenía
una edad media de 2,3 miles de millones de años y presentaba rocas de incluso 3,8 miles de
millones de años de antigüedad. Descubrieron una serie de colosales cadenas montañosas,
de más de 50.000 kilómetros de longitud, que se elevaban desde el fondo oceánico y
serpenteaban alrededor del globo terráqueo como la costura de una bola de béisbol. En las
cimas de estas cordilleras oceánicas era donde se localizaban las rocas más jóvenes, que
mostraban la misma polaridad magnética que observamos hoy en día. A lado y lado, bandas
de roca alternaban su polaridad magnética. Esta alternancia era idéntica a la secuencia de
inversiones magnéticas ya conocidas a partir de los flujos de lava continental y se utilizó
para realizar la datación de las bandas de roca, lo que vino a demostrar que la edad de las
rocas se incrementaba a medida que se alejaban de la cima (véase figura 12.5). La
secuencia temporal de las inversiones magnéticas ofreció una base sólida a la idea de que el
magma del interior había sido empujado hacia arriba hasta superar la cima de una cordillera
oceánica y había partido en dos la corteza previamente existente, alejándola lateralmente de
la cordillera; al enfriarse, había dejado registrada la polaridad magnética que tenía la Tierra
en aquel momento.

Lawrence Morley, un geólogo canadiense, consiguió atar los distintos cabos de las
evidencias y ofrecer una explicación coherente de todos los datos, pero las revistas
científicas siguieron aferrándose al punto de vista ortodoxo y rechazaron su documento en
1963. El Journal of Geophysical Research lo rechazó con el argumento de que «no es el
tipo de cosa que debería publicarse bajo un patrocinio científico serio».[15]
Drummond Matthews, de la Universidad de Cambridge, y su alumno, Fred Vine,
tuvieron mejor suerte. Trabajando independientemente de Morley habían llegado a la
misma conclusión y el mismo año 1963, Nature publicó sus descubrimientos. Vine y
Matthews prescindieron del término «deriva continental» porque era evidente que se había
desplazado algo más que los continentes. En 1968, su teoría recibió el título de «placas
tectónicas», y en un cambio de paradigma kuhniano, la inmensa mayoría de geólogos la
adoptó rápidamente como la nueva ortodoxia.[16]
La teoría sigue en desarrollo y algunos elementos de la misma continúan siendo
preguntas abiertas. Sin embargo, a diferencia del modelo ortodoxo de la cosmología, este
cualifica como teoría científica. Ha realizado retrodicciones únicas, por ejemplo, en los
hallazgos de fósiles idénticos de determinadas edades y que han sido confirmados por la
investigación; ha realizado predicciones únicas, por ejemplo, con respecto a la localización
de zonas sísmicas y volcánicas y el movimiento de masas continentales, que han quedado
confirmadas por la observación.
Sirviéndose de las evidencias de campos tan diversos como la paleontología, la
oceanografía, la sismología y, más recientemente, los mapas del GEOSAT (Geostationary
Satellite), esta teoría unificadora explica actualmente los fenómenos geológicos en términos
de la formación, movimiento e interacción de siete grandes bloques, y varios más pequeños,
de la litosfera rígida, conocidos como placas tectónicas, que flotan sobre la astenosfera
(véase figura 12.6).

La placa del Pacífico, por ejemplo, está pulverizando la placa norteamericana a un


ritmo medio de cinco centímetros anuales; lo cual produce la falla de San Andrés, de unos
1.300 kilómetros de longitud y, en determinados puntos, de decenas de kilómetros de
anchura, que recorre dos tercios de la longitud de California.[17]
A pesar de que no existen evidencias directas, la mayoría de geólogos considera que
la fuerza que empuja las placas es el lento movimiento del manto, caliente y dúctil, que se
extiende debajo de las placas rígidas. Calentado principalmente por la desintegración
radiactiva de elementos como el uranio y el torio, se cree que el manto se mueve en
corrientes de convección circulares, como muestra la figura 12.7.

Los fenómenos geológicos están causados por la colisión entre placas. La figura
12.8 ilustra la lenta colisión de una placa oceánica contra una placa continental.

Por ejemplo, en la placa oceánica de Nazca, el magma caliente del interior se ve


forzado hacia el exterior a través de una falla para crear una cordillera montañosa sub-
oceánica y empujar la placa lateralmente. La parte occidental de esta placa colisiona
lentamente contra la parte oriental de la placa continental sudamericana. Con ello, se ve
empujada bajo la placa sudamericana, en un proceso denominado «subducción»,
desapareciendo bajo la trinchera Perú-Chile, situada en el extremo occidental del océano, y
en el interior del manto, donde el calor la funde. Al verse empujada bajo de la placa
sudamericana, fuerza a dicha placa a crear la cordillera de los Andes, la columna vertebral
del continente, y la placa debilitada crea una zona donde son comunes terremotos potentes
y destructivos y la aparición geológicamente veloz de cadenas montañosas.
En consecuencia, la corteza oceánica es joven porque se ve reciclada continuamente
reciclada a lo largo de su vida geológica y en el proceso, su sección más antigua se ve
forzada a sumergirse bajo una placa continental, donde acaba fundiéndose, para quedar
sustituida por la roca fundida interior que emerge a través de una falla y adopta la forma de
cima de una cordillera oceánica.[18]
La teoría ortodoxa actual de la geología ofrece una explicación, sustentada por
evidencias, de la litosfera y su evolución desde que la súper-placa de Pangea se rompió
hace entre 225 y 200 millones de años. En cuanto a cómo se formó Pangea, se defiende la
idea de que no es más que la fase más reciente de un ciclo que consiste en la formación de
un súper-continente, ruptura del mismo, formación y ruptura, que se inició hace más de tres
mil millones de años.
Lo cual deja todavía abierta la pregunta de cuál era la forma original de la corteza y
la litosfera. La medición de los pulsos láser enviados al retro-reflector instalado en la luna
por los astronautas del Apolo XI en 1969, muestra que la luna se aleja de la Tierra a un
ritmo de 3,8 centímetros anuales.[19] Lo cual sugiere que hace 4,5 miles de millones de
años la luna estaba mucho más cerca de la Tierra. El campo gravitatorio mucho más potente
de una luna mucho más cercana podría haber unido los silicatos más ligeros cuando se
condensaron para formar el primer súper-continente alrededor del ecuador. Sin embargo, a
falta de evidencias que hayan podido llegar hasta nosotros, estas ideas se quedan en simples
especulaciones.
He dedicado bastante espacio a la teoría de las placas tectónicas porque, como
veremos más adelante, una mayoría de científicos considera que el movimiento de estas
placas, y en particular el movimiento de las masas continentales asociado al mismo, juega
un papel vital en la evolución biológica.
Hidrosfera y atmósfera
No ha llegado hasta nosotros ninguna evidencia que nos muestre qué atmósfera
sustituyó a los vapores de silicatos cuando el bombardeo planetesimal terminó y la
superficie se enfrió. En 2001, Stephen Mojzsis y sus colegas, basándose en el análisis de
minúsculos cristales de zircón encontrados en el interior de rocas de las Jack Hills, en el
oeste de Australia, declararon que el agua en estado líquido ya estaba presente hace 4,3
miles de millones de años, unos 200 millones de años antes de que se formara el planeta.
[20] En 2005, dos científicos geólogos, E. B. Watson, del Rensselaer Polytechnic Institute,
Troy, Nueva York, y T. M. Harrison, de la Australian National University, Camberra,
utilizaron también el análisis del zircón para proponer una fecha aún más antigua, 4,35
miles de millones de años.[21] Antes de estas propuestas, el metamorfismo provocado por
el calor y la presión sobre las rocas sedimentarias más antiguas de la Tierra, habían dado a
entender que el agua líquida empezó a existir sobre la superficie de la Tierra hace
aproximadamente 3,8 miles de millones de años.[22]
La formación de la hidrosfera y la atmósfera lleva tiempo siendo un tema de
controversia. En la década de 1950 y 1960, los geólogos se apuntaron al punto de vista de
William Rubey, que defendía que durante la formación de la Tierra habían quedado gases
volátiles en su interior que posteriormente habían sido liberados a través de fumarolas
volcánicas, un proceso conocido como desgasificación, y habían generado de este modo los
océanos y los gases atmosféricos.[23]
Los miembros de la disciplina emergente de la ciencia planetaria eran de la opinión
de que la zona orbital de la proto-Tierra estaba demasiado próxima al sol y que, por lo
tanto, el calor era excesivo para que los planetesimales a partir de los cuales se había
formado contuviesen gases volátiles. Defendían la idea de que el gran volumen de agua de
la superficie de la Tierra provenía del exterior. Los océanos contienen aproximadamente
mil trillones (1021) de kilos de agua. Un cometa contiene tal vez mil billones (1015) kilos
de hielo; por consiguiente, para producir los océanos se necesitaría que solo un millón de
cometas (106) chocara contra la Tierra y que su hielo se deshiciera con el calor generado
por el impacto.[24]
Esta idea estaba sustentada por algunos modelos de acreción planetaria obtenidos
mediante ordenados que mostraban la Tierra primitiva bombardeada no solo por los detritos
de su zona orbital sino también por planetesimales muchos más alejados del sol y por
cometas. La hipótesis del hielo de los cometas acabó convirtiéndose en la explicación
ortodoxa de los océanos de la Tierra.
Sin embargo, sondeos llevados a cabo en 2000 en los planetas Halley, Hyakutake y
Hale-Bopp mostraron que el hielo de estos cometas contiene el doble de deuterio (un
isótopo del hidrógeno) que de hidrógeno que el agua de los océanos de la Tierra. Lo cual
parece descartar la hipótesis de los cometas. Pero uno de sus defensores, Michael Mumma,
científico de la NASA especializado en cometas, se mantiene impertérrito. Sostiene que
estos cometas no son de la región adecuada del sistema solar y que los cometas de la región
joviana mostrarán la proporción correcta. La cuestión sigue, por lo tanto, pendiente de
verificación.
Una hipótesis alternativa que afirma explicar la proporción entre deuterio e
hidrógeno propone que el grueso del agua que existe hoy en la Tierra procede de varios
embriones planetarios de gran tamaño que se formaron en la parte exterior del cinturón de
asteroides y que fueron acrecidos por la Tierra en su fase final de formación.[25]
En cuanto a la atmósfera primitiva, sabemos que en la actualidad los volcanes
liberan gases del manto. Estos gases podrían haber sido reciclados de rocas superficiales
subducidas: cuando la creta y la caliza, por ejemplo, se vieron empujadas hacia el manto, el
calor disociaría su carbonato de calcio para producir dióxido de carbono. Pero la
concentración relativa de los gases nobles inertes en los gases volcánicos es
aproximadamente la misma que encontramos en la atmósfera. Lo cual sugiere que gases
como el sulfuro de hidrógeno, el dióxido de azufre, el dióxido de carbono, el vapor de agua,
el nitrógeno y el amoniaco quedaron atrapados en el interior durante la formación
planetaria o bien fueron liberados en el interior por la disociación de moléculas compuestas,
como el carbonato cálcico, debido al fuerte calor. Cuando la superficie se enfrió, los gases
escaparon a través de las fumarolas creadas en la litosfera por las fallas. En una atmósfera
tan primitiva como esta, no habría habido presencia ni de oxígeno libre ni de ozono.
Este proceso podría ser también el responsable de la hidrosfera: con la continuación
del enfriamiento, el vapor de agua desgasificado se condensó en forma de agua líquida en
tormentas violentas para acabar formando los ríos y los océanos.
De todos modos, sin evidencias directas, todas estas ideas siguen siendo hipótesis.
La luna
Tres especulaciones compitieron durante muchos años para explicar cómo la Tierra
acabó teniendo una luna tan excepcionalmente grande. La primera de ellas decía que era
simple coincidencia que, como consecuencia de la acreción, se formara y aumentara de
tamaño cerca de la proto-Tierra un gran planetesimal. La segunda decía que el campo
gravitatorio de la Tierra atrajo un gran planetesimal que pasaba por las proximidades y lo
atrapó en su órbita. Una tercera argumentaba que una masa de gran tamaño salió proyectada
de la proto-Tierra fundida en rotación y se condensó para formar la luna.
Análisis fisicoquímicos y radiométricos que dataron las muestras de rocas lunares
recogidas por los astronautas del proyecto Apolo durante la década de 1970,
proporcionaron las primeras evidencias directas, que resultaron inconsistentes con las tres
especulaciones. Revelaron, entre otras cosas, que las rocas lunares eran más típicas del
manto de la Tierra que de meteoritos primitivos (y, en consecuencia, de planetesimales),
que eran tremendamente pobres en elementos más volátiles que el potasio en comparación
con el manto de la Tierra, que tenían muy poco hierro y que las rocas de la superficie lunar
de más edad —de entre 4,4 y 4,5 miles de millones de años— eran más antiguas que las
rocas de la superficie terrestre.[26]
En 1975, las evidencias llevaron a dos grupos de científicos a formular la hipótesis
del impacto gigante, para cuyo desarrollo necesitaron diez años de simulaciones por
ordenador. Según esta hipótesis, un gigantesco planetesimal, del tamaño aproximado de
Marte, impactó contra la proto-Tierra y la fundió. Con el calor de la colisión, ambos
núcleos de hierro fundido se adhirieron como dos gotas de agua y se sumergieron hacia el
centro de la proto-Tierra, mientras que el impacto proyectó cerca del 70 por ciento del
material de la superficie hacia el espacio, donde quedó atrapado por el campo gravitatorio
de la nueva proto-Tierra, ahora de mayor tamaño. Muy rápidamente, tal vez en tan solo un
año, los desechos fundidos se agregaron bajo sus propios campos gravitatorios y se
condensaron para formar la luna.[27]
Esta hipótesis explicaría no solo el tamaño anormalmente grande de la luna en
comparación con su planeta padre, además de la composición química y la baja densidad de
la luna, sino también por qué la Tierra es el planeta más denso del sistema solar, por qué
posee un núcleo de hierro que, por lo que podemos deducir a partir de las evidencias, es
proporcionalmente más grande que el de los demás planetas rocosos de tamaño comparable
(Venus y Marte), y también por qué la Tierra posee una corteza más fina que las de esos dos
planetas.
A pesar de que quedan aún preguntas por responder, la hipótesis del impacto gigante
ha pasado a ser la ortodoxia científica.
La biosfera
Al principio del capítulo he presentado seis condiciones consideradas necesarias
para la aparición y la evolución de la vida tal y como la conocemos. El relato actual de la
ciencia de cómo estas condiciones formaron la biosfera de la Tierra es el siguiente:
a) Los elementos y las moléculas esenciales
La hipótesis estelar nebular explica la presencia de los elementos esenciales,
mientras que distintas hipótesis, principalmente la del bombardeo de cometas ricos en agua
y/o asteroides y/o protoplanetas durante el eón hádico, sugieren explicaciones sobre el por
qué la Tierra posee un volumen tan grande de agua en su superficie.
Científicos planetarios sugieren que una proporción destacada de las moléculas
orgánicas presentes en los cometas y los meteoritos sobrevivieron intactas cuando estos
objetos impactaron contra la superficie de la Tierra y que fue así como las primeras
acumulaciones de agua acabaron sembradas con componentes organicos.[28] Puesto que
sabemos que en cometas y asteroides se formaron moléculas orgánicas tan complejas como
los aminoácidos,[29] me parece factible que se formaran también de manera independiente
en la Tierra; carecemos de evidencias porque no ha llegado hasta nosotros ningún vestigio
de la superficie original de la Tierra, mientras que, por otro lado, se cree que los cometas y
los asteroides han permanecido en gran parte inalterables desde su formación.
b) La masa del planeta
Por mucho que la hipótesis nebular explique la formación de gases gigantes en el
disco exterior, demasiado grandes como para poder albergar vida en su superficie, y la
formación de planetas rocosos en el disco interior, no explica por qué la Tierra creció hasta
alcanzar una masa capaz de soportar vida mientras otro planeta rocoso, Mercurio, acabó
siendo tan pequeño, con solo 0,055 ese tamaño. Simulaciones de la formación planetaria
terrestre realizadas mediante ordenador y dirigidas en 2004 por Sean Raymond, de la
Universidad de Colorado, dan a entender que el tamaño planetario es una característica
aleatoria del proceso de acreción.
c) La protección contra la radiación nociva y los impactos
La atmósfera y su potente campo magnético proporcionaron a la Tierra la protección
necesaria contra la radiación. La magnetosfera bloqueó la radiación ionizante del sol, tal y
como ilustra la figura 12.4. La Tierra primitiva no tenía la protección que actualmente
proporciona la capa de ozono de la atmósfera contra cualquier radiación ultravioleta de alta
intensidad, fatal para las formas de vida superiores que evolucionaron posteriormente.
El campo gravitatorio del gigante gaseoso, Júpiter, que multiplica por más de
trescientos la masa de la Tierra y quintuplica su distancia del sol, protege a la Tierra y a
otros planetas interiores del impacto de la mayoría de los planetas. George Wetherill,
director emérito del departamento de Magnetismo terrestre del Carnegie Institute, estimó
que sin la masa y la localización de Júpiter, la Tierra recibiría entre mil y diez mil veces
más impactos de cometas de los que pueda recibir ahora.[30]
d) Las fuentes de energía
Las cuatro fuentes disponibles para generar los procesos bioquímicos esenciales
fueron las siguientes: la conversión en energía calorífica de la energía cinética de los
planetesimales al impactar contra la superficie de la Tierra; la conversión en energía
calorífica de la energía gravitatoria potencial cuando la materia fundida gravitó hacia el
centro de la Tierra; la energía generada por la desintegración radiactiva de elementos como
el uranio y el torio; y la energía irradiada por el sol.
e) El rango de temperatura
La temperatura en la superficie de la Tierra, o cerca de ella, fue el resultado de
cuatro fuentes de energía. La radiación solar es lo que básicamente controla su rango a
largo plazo y dicha radiación depende de cinco factores.
En primer lugar, de la cantidad de energía emitida por el sol (su luminosidad).
En segundo, de la distancia entre la Tierra y el sol, que varía entre 147 y 152
millones de kilómetros debido a la forma elíptica de su órbita a lo largo de su viaje de
365,25 días alrededor del sol.
En tercer lugar, de la variación del albedo, el porcentaje de radiación solar que
refleja una superficie con respecto a la radiación que incide sobre la misma: las finas nubes
estratos tienen un albedo escaso, mientras que los gruesos estratocúmulos tienen un albedo
de hasta el 80 por ciento, la nieve recién caída lo tiene de entre el 40 y el 70 por ciento y la
arena seca, de entre el 35 y el 40 por ciento; el albedo medio actual de la Tierra se sitúa en
torno al 35 por ciento. Pero no sabemos cuál era durante los primeros dos mil millones de
años de existencia de la Tierra.
En cuarto lugar, depende de la energía solar que alcanza la superficie, parte de la
cual es absorbida y luego irradiada como calor con longitudes de onda más largas, y ello
depende del tiempo que la superficie está en contacto con el frío cielo nocturno, lo que a su
vez depende de las 24 horas de rotación de la Tierra sobre su eje y, en lugares muy
concretos, de la latitud y de la inclinación de 23,5º del eje de la Tierra.
Y en quinto lugar, hay que tener en cuenta que parte de esta energía calorífica
irradiada es reflectada de nuevo y calienta la superficie, lo cual depende de los gases que
constituyen la atmósfera. En la actualidad, el dióxido de carbono representa el 0,003 por
ciento de la atmósfera y es el principal responsable de reflectar la cantidad suficiente de
esta energía irradiada para producir un leve efecto invernadero.
El conjunto de estos cinco factores produce una temperatura biosférica que oscila
entre -50º y +50º Celsius, dependiendo de la época del año, la localización y la distancia de
la superficie, mientras que la temperatura media de la superficie oceánica es de 15º Celsius.
[31] Por lo tanto, durante la mayor parte del año, los lugares situados justo por debajo o por
encima de la superficie de la Tierra presentan una temperatura adecuada para las reacciones
bioquímicas que fomentan y mantienen la vida tal y como la conocemos.
f) La estabilidad
La última condición, la estabilidad, exige básicamente que la biosfera tenga una
temperatura que se mantenga dentro del rango que permite la existencia sobre la superficie
del planeta del agua en forma líquida, y que esta superficie que quede protegida de las
radiaciones nocivas y de los impactos el tiempo suficiente para que las formas de vida
primitiva emerjan y evolucionen hacia formas más complejas que acaben evolucionando en
el ser humano. Que esta estabilidad se haya conseguido en la biosfera de la Tierra durante
aproximadamente cuatro mil millones de años se atribuye a diversos factores.
Los modelos de formación planetaria realizados mediante ordenador muestran que,
una vez formados, los planetas principales mantienen una órbita generalmente estable
alrededor del sol gracias, principalmente, a la conservación del momento angular.
Sin embargo, esto por sí mismo no produciría un rango de temperatura biosférica
estable, porque se cree que el sol primitivo era considerablemente más tenue y más frío de
lo que lo es ahora. Partiendo de estudios sobre la formación estelar y sobre las distintas
fases de la evolución estelar en otras partes de nuestra galaxia, y de estudios sobre los
procesos de fusión nuclear solar que generan energía, los cálculos indican que al principio
del eón arcaico de la Tierra, hace 3,8 miles de millones de años, el sol irradiaba un 25 por
ciento menos de energía que en la actualidad. Siendo iguales que ahora todos los demás
factores, la superficie de la tierra sería entonces de -18º Celsius:[32] toda el agua sería hielo
y no existiría el agua líquida necesaria para los procesos bioquímicos esenciales para
reproducir y conservar la vida.
La explicación de la existencia y la evolución de la vida en este eón exige la
presencia de fuentes adicionales de energía para calentar la biosfera. Dichas fuentes podrían
ser el calor residual del proceso de formación planetaria, el calor emitido por la
desintegración radiactiva de los elementos del interior o el calor irradiado reflectado por
atmósfera de la Tierra que habría aumentado el efecto invernadero.
Desconocemos la composición de la atmósfera del eón arcaico pero, puesto que la
atmósfera de la Tierra en el momento de su formación, hace 4,5 miles de millones de años,
era claramente distinta del 78 por ciento de nitrógeno y el 21 por ciento de oxígeno actuales
(véase sección anterior, «Hidrosfera y atmósfera»), es razonable deducir que hace 3,8 miles
de millones de años era más parecida a la primitiva. Una proporción mayor de gases de
efecto invernadero, como el dióxido de carbono y el metano, podrían haber calentado la
biosfera lo suficiente como para que existiera agua líquida. Sin embargo, si aquella
atmósfera distinta hubiera tenido un albedo distinto, habría que tener también en cuenta este
factor en cualquier cálculo.
Además, si una atmósfera distinta produjo un efecto invernadero mayor que facilitó
la existencia de agua líquida en la Tierra durante un eón en el que el sol irradiaba un 25 por
ciento menos de energía, se necesitaría una reducción muy precisa del efecto invernadero
cuando la energía irradiada por el sol fuera aumentando a lo largo de cuatro mil millones de
años.
Se han presentado diversas ideas para explicar este fenómeno, incluyendo entre
ellas la hipótesis de Gaia, que fue propuesta por el científico independiente británico, James
Lovelock, en la década de 1960, y que defiende la regulación mediante la retroalimentación
biótica. Por ejemplo, las bacterias que realizan la fotosíntesis en los océanos y absorben el
dióxido de carbono de la atmósfera florecen a medida que la luz del sol y la temperatura
aumentan, reduciendo con ello el efecto invernadero; cuando la temperatura baja, su ritmo
de crecimiento baja también, dejando más dióxido de carbono en la atmósfera e
incrementando con ello el efecto invernadero y la temperatura de la superficie. La hipótesis
recibió el soporte empírico de los análisis químicos de grandes núcleos de hielo a los que se
ha accedido mediante perforaciones del manto de hielo de la Antartida.[33]
Kasting, sin embargo, argumenta que un mecanismo de retroalimentación biótica no
puede ser el principal regulador de la temperatura, sobre todo porque la biosfera viva no es
un depósito de carbono lo bastante grande para ello. Defiende que la regulación más
importante a largo plazo de la temperatura de la superficie por el efecto invernadero es la
retroalimentación negativa entre el dióxido de carbono de la atmósfera y la temperatura de
la superficie a través de lo que se conoce como ciclo carbonato-silicato. El dióxido de
carbono se disuelve en el agua de lluvia y erosiona las rocas que contienen silicatos. Los
ríos transportan los productos hacia los océanos, donde acaban formando una placa
tectónica oceánica que se desliza bajo una placa continental, y el dióxido de carbono vuelve
a ser liberado hacia la atmósfera a través de los volcanes.[34]
Independientemente de cuál sea la explicación correcta, es evidente que uno, o más
probablemente, varios mecanismos de retroalimentación han regulado un rango de
temperatura biosférica estable.
Dentro de este rango, la temperatura varía de una hora del día a otra, de un punto en
la superficie a otro, de una distancia de la superficie a otra y de un periodo del año solar a
otro. Estas variaciones de temperatura generan patrones climatológicos en las distintas
zonas que cambian tanto a diario como estacionalmente. Estos patrones, además, han
variado también con los cambios de inclinación del eje de la Tierra y de la elipse que traza
su órbita, mientras que, por otro lado, la radiación solar se ha incrementado y la
composición de la atmósfera de la Tierra ha cambiado dramáticamente, generando cambios
climáticos a lo largo de periodos de decenas de miles de años.
La biosfera de la Tierra es un sistema que se mantiene en estado estable, aunque
lejos del equilibrio termodinámico, unos cuatro mil millones de años.
¿Es especial la Tierra?

El punto de vista ortodoxo

Desde que Galileo utilizó un telescopio para demostrar la hipótesis de Copérnico de


que la Tierra no era el centro del universo y de que la Tierra y los demás planetas giraban
en órbita alrededor del sol, los científicos han asumido que la Tierra no es especial.
Los instrumentos cada vez más sofisticados han cambiado nuestra visión de lo que
integra el universo hasta el punto que, hoy en día, la postura ortodoxa es que la Tierra no es
más que un planeta normal que orbita alrededor de una estrella de secuencia principal
normal, que traza una órbita normal alrededor del centro de una galaxia normal compuesta
por varios centenares de miles de millones de estrellas, que forma parte de un grupo local
de un cúmulo de galaxias normal en órbita alrededor del centro de un supercúmulo de
galaxias normal, que forma parte de un universo observable que está integrado por un
centenar de miles de millones o más de galaxias, que a su vez forma parte de un universo
que en gran parte queda más allá del horizonte visible. Los cosmólogos ortodoxos creen
que incluso este universo no es más que una parte microscópica de un universo inflado.
Resulta difícil degradar la Tierra a un lugar de menor importancia en el cosmos que
este.
La opinión sostenida con firmeza de que la Tierra no es especial, combinada con el
conocimiento de que alberga vida inteligente, llevó en 1961 al radio-astrónomo Frank
Drake a estimar el número de civilizaciones inteligentes que podía haber en nuestra propia
galaxia. Concibió para ello una ecuación que multiplica siete parámetros. El valor que
otorgó al primero de ellos, el ritmo de formación de estrellas adecuadas para el desarrollo
de vida inteligente, era una estimación pura y dura, por no decir simplista; los valores de los
demás parámetros eran suposiciones basadas en la extrapolación de los puntos de vista de la
época sobre el único ejemplo conocido, la Tierra. Multiplicando estos valores se obtenía
que en nuestra galaxia había diez civilizaciones detectables por su emisión de señales de
televisión y radio. A pesar de que la cifra era resultado de una serie de suposiciones, más
que de estimaciones basadas en evidencias, la palabra «ecuación» le otorgó un aura de
respetabilidad científica. La «ecuación de Drake», como se la conoce en la actualidad,
generó enorme excitación y dio pie a la puesta en marcha del programa SETI (Search for
Extraterrestrial Intelligence) [Búsqueda de Inteligencia Extraterrestre], que fue adoptado
por la NASA y estuvo subvencionado durante un tiempo por el Congreso de los Estados
Unidos.[35]
Más de cincuenta años de búsqueda de lugares probables no han aportado pruebas
de otra forma de vida inteligente. Otras búsquedas han fracasado también hasta el momento
y no han encontrado evidencias de otras formas de vida, por primitivas que sean, ni en
nuestro sistema solar ni en otras partes.
No obstante, la postura ortodoxa actual fue resumida en 2004 por el entonces
presidente de la Royal Astronomical Society, Michael Rowan-Robinson, en la edición que
se publicó aquel año de su libro Cosmology:
Resulta evidente que en la era post-copérnicana de la historia de la humanidad,
ninguna persona racional y bien informada puede imaginar que la Tierra ocupa un lugar
único en el universo. A este profundo descubrimiento filosófico lo denominaremos el
«Principio copernicano».[36]
Evidencias que cuestionan el punto de vista ortodoxo

Las evidencias que sustentaban que la Tierra, si no única, sí podría ser el resultado
de una concurrencia especial de factores que permitió la aparición y evolución de la vida
compleja que conocemos, empezaron a acumularse muchos años antes que el libro de
Rowan-Robinson.
Zona galáctica habitable
El factor propuesto más recientemente es el de la localización de la Tierra en la zona
galáctica habitable. La idea fue avanzada en 2000 por dos científicos de la Universidad de
Washington, el paleontólogo y profesor de Biología y de Ciencias del espacio y de la Tierra,
Peter Ward, y el profesor de Astronomía, Don Brownlee,[37] y desarrollada por ellos y
otros científicos, destacando entre ellos Guillermo Gonzalez, antiguamente en la
Universidad de Washington y actualmente en la Ball State Unievrsity, Indiana.[38]
Basándose en estudios de nubes moleculares gigantes y de formación estelar en
distintas partes de la Via Lactea, junto con la actividad de la radiación, esta hipótesis aplica
a la galaxia el concepto de la zona circunestelar habitable. Propone que existen muy pocas
zonas donde puede evolucionar la vida compleja y que estas zonas cambian con el tiempo.
Las regiones exteriores de la galaxia no tienen elementos y moléculas esenciales en
la cantidad necesaria para permitir la formación de planetas rocosos con los ingredientes
imprescindibles para la vida. Estos elementos sí están presentes cerca del centro de la
galaxia, pero las interacciones gravitatorias caóticas que tienen lugar en esa concentración
de estrellas generan condiciones excesivamente inestables para una biosfera planetaria.
Además, durante los miles de millones de años necesarios para que evolucione la vida
compleja basada en el carbono, las estrellas y los sistemas planetarios podrían recibir
impactos mortales de radiación, bien procedente de explosiones de supernovas, bien de la
materia previa absorbida por el agujero negro gigante que se cree que ocupa el núcleo
galáctico. Esta región de radiación letal se ha encogido con el tiempo, probablemente
porque estas explosiones eran más habituales en la primera fase de la galaxia.
Los brazos de la espiral de nuestra galaxia también son adversas para la vida. Son
regiones de formación activa de estrellas donde las nubes moleculares gigantes se
condensan caóticamente para producir estrellas. La radiación energética ultravioleta de las
estrellas jóvenes de gran tamaño evapora los discos de gas y polvo de su alrededor antes de
que pueda iniciarse la formación planetaria mientras que, por otro lado, estas estrellas
grandes terminan su vida con relativa rapidez con explosiones de supernovas.
Las únicas zonas donde se dan las condiciones adecuadas y la estabilidad suficiente
para la evolución biológica se sitúan entre los brazos de la espiral en el plano del disco
galáctico, allí donde se encuentra actualmente nuestro sistema solar, a medio camino entre
el centro galáctico y el extremo exterior visible del disco. El hecho de que las estrellas de
estas zonas orbiten el centro galáctico, pero no necesariamente en el mismo plano o a la
misma velocidad que los brazos de la espiral, dificulta la tarea de evaluar dónde se
encuentran estas zonas.
Nikos Prantzos, del Institut d’Astrophysique de París, ha criticado la hipótesis
calificándola de imprecisa y no cuantificada. Hemos visto que las cuantificaciones iniciales
de la hipótesis de la zona circunestelar habitable eran excesivamente simplistas y no tenían
en cuenta los muchos factores que determinan la temperatura de la superficie planetaria.
[39] A escala galáctica, muchos de los determinantes son aún grandes desconocidos y
cuantificarlos queda actualmente más allá del alcance de los astrofísicos. Hay que decir,
para ser justos, que sus defensores han dejado claro que la hipótesis está en fase de
desarrollo. Pero, de todos modos, la propuesta básica parece sensata: las zonas que ofrecen
las seis condiciones para la aparición y la evolución de la vida compleja tal y como la
conocemos constituyen solo una pequeña parte de nuestra galaxia, y la localización física
de estas zonas cambia con el tiempo a medida que la galaxia evoluciona.
La Tierra lleva 4,5 miles de millones de años en una zona así y, por lo tanto, no
puede considerarse simplemente como un planeta típica que orbita una estrella de secuencia
principal típica que traza una órbita típica alrededor del centro de una galaxia típica.
Idoneidad de la estrella
El hecho de que un sistema estelar se encuentre en una zona galáctica habitable, no
significa que la estrella sea idónea para la aparición y la evolución de vida con base de
carbono. Las estrellas se clasifican mediante una letra —O, B, A, F, G, K, o M—, que las
ordena de grandes a pequeñas. Dentro de cada una de estas categorías, se subdividen por
número. Nuestro sol es una estrella G2.
Solo entre el dos y el cinco por ciento de todas las estrellas son tan grandes como el
sol. Un planeta que orbite una estrella menor que una K5 sufrirá seguramente lo que se
conoce como acoplamiento de marea, es decir, que siempre estará encarada del mismo lado
hacia la estrella; en consecuencia, es muy probable que el lado encarado a la estrella sea
demasiado caliente, y el lado oscuro demasiado frío, para permitir la evolución de vida
compleja. Tampoco es probable que evolucione vida compleja en un planeta que orbite una
estrella mayor que una F0, puesto que el tiempo de vida en la secuencia principal de las
estrellas grandes es relativamente corto y estas estrellas emiten grandes cantidades de
radiación ultravioleta nociva.
Lo cual nos deja con un veinte por ciento de las estrellas en la secuencia principal
con un tamaño idóneo. Sin embargo, unos dos tercios de la totalidad de las estrellas existen
en sistemas estelares binarios o multiples.[40] Un sistema estelar binario, sobre todo
cuando las dos estrellas están muy cerca la una de la otra, no es favorable para la vida:
cualquier planeta tendría a buen seguro una órbita extremadamente elíptica y la temperatura
de su superficie cambiaría de caliente a fría de forma tan extrema, que la vida sería
imposible en un solo giro alrededor de las dos estrellas.
Zona circunestelar habitable
En aquellas estrellas idóneas que se mantienen el tiempo suficiente en una zona
galáctica habitable, la vida tal y como la conocemos solo podrá aparecer y evolucionar
cuando la estrella tenga uno o más planetas que se mantengan el tiempo suficiente en una
zona en que la temperatura de la superficie del planeta permita la existencia de agua en
estado líquido, es decir, en lo que se conoce como una zona circunestelar habitable. Como
ya hemos visto, los primeros intentos de definición de una zona de este estilo fueron
excesivamente simplistas.
En 1993, James Kasting, el científico atmosférico considerado la autoridad puntera
en habitabilidad planetaria, junto con Daniel Whitmire y Ray Reynolds, realizó un intento
más sofisticado. Su modelo climático unidimensional tiene en cuenta la energía solar
reflectada (el efecto albedo) y el efecto invernadero, además de otros factores, pero no
considera el efecto del periodo rotacional del planeta sobre la cantidad de energía solar que
recibe la superficie y posteriormente irradia.[41] A pesar de que supone un avance
considerable con respecto a modelos anteriores, los supuestos y aproximaciones no hicieron
más que subrayar las dificultades que conlleva cuantificar los sistemas complejos e
interactivos que implican los procesos de retroalimentación climática. El equipo de
definición de ciencia y tecnología del proyecto Terrestrial Planet Finder de la NASA llegó a
la conclusión de que los modelos climáticos unidimensionales son incapaces de simular con
exactitud los efectos de las nubes (vapor de agua o dióxido de carbono) sobre la radiación
planetaria y, en consecuencia, no son fiables; presentó, de todos modos, una versión más
sofisticada del modelo de Kasting para sugerir una zona circunestelar habitable de entre
0,75 UA y 1,8 UA[42] para el sol, escalable para otras estrellas.[43]
Exoplanetas
En 1994 se confirmó el anuncio realizado en 1992 por dos radio-astrónomos, que
detectaron por primera vez la existencia de planetas fuera de nuestro sistema solar. Se
trataba de dos planetas, de aproximadamente tres veces el tamaño de la Tierra, y de un
objeto de tamaño similar al de la luna, que orbitaban una vieja estrella neutrón que giraba
velozmente, un pequeño y denso residuo de una estrella grande que había terminado su
tiempo de vida en la secuencia principal como consecuencia de un colapso gravitatorio
catastrófico y una explosión supernova.[44] Es uno de los lugares menos probables donde
los astrofísicos creían que podrían encontrar planetas, y su proximidad a la estrella de
neutrones, que emite radiaciones potentes, significa que las seis condiciones para la
evolución de formas de vida conocidas no pueden cumplirse.
El primer planeta en órbita alrededor de una estrella en secuencia principal fue
detectado al año siguiente. Los telescopios carecían de la resolución necesaria para
observarlo directamente, pero los astrónomos calcularon la masa del planeta y la distancia
que mantenía con respecto a su estrella mediante la oscilación que su campo gravitatorio
provocaba en la distancia de la estrella con respecto a la tierra cuando el planeta pasaba por
delante, alrededor y detrás de la estrella. 51 Pegasi b es un gigante gaseoso, como Júpiter,
que traza una órbita de cuatro días de duración alrededor de la estrella 51 Pegasi, lo cual
implica que su distancia con respecto a esa estrella es inferior a la de Mercurio, nuestro
planeta rocoso más interior, respecto al sol.
Hasta finales de 2008, los astrónomos habían detectado 330 planetas extrasolares, lo
que actualmente se conoce como exoplanetas. Su descubrimiento ha debilitado el modelo
de formación planetaria nebular, que predice que los planetas orbitan su estrella en la
misma dirección con órbitas casi circulares a la altura o cerca del ecuador de la estrella, y
con una distribución en la que los planetas más pequeños y densos, compuestos
principalmente por roca y hierro (como Mercurio, Venus, la Tierra y Marte) ocupan la parte
interior del sistema y los enormes gigantes gaseosos, compuestos principalmente por
hidrógeno y helio (como Júpiter, Saturno, Urano y Neptuno), orbitan a una distancia de la
estrella mucho mayor. Pero resulta que no solo hay «Júpiteres calientes» —gigantes
gaseosos que giran alrededor de su estrella más cerca que Mercurio del sol, a distancias en
las que la temperatura es demasiado elevada para permitir que hielos sólidos y gases
formen un núcleo planetario—, sino que hay además otros planetas que siguen órbitas
tremendamente elípticas, con algunos orbitando alrededor del polo de su estrella en vez de
alrededor de su ecuador y otros orbitando en dirección opuesta al giro de su estrella.
Posteriormente, la NASA lanzó al espacio el telescopio Kepler que detecta el tenue
oscurecimiento de la luz de una estrella cuando un planeta pasa por delante de ella, lo cual
ha permitido identificar planetas mucho más pequeños que las técnicas anteriores pasaban
por alto. A fecha agosto de 014, había descubierto 978 exoplanetas en órbita alrededor de
421 estrellas y tenía 4.234 planetas candidatos a la espera de confirmación.[45]
Todo lo cual ha dado pie a la creencia extendida de que la Tierra no es especial y
que en una galaxia de varios centenares de miles de millones de estrellas tiene que haber
muchos planetas habitables, en alguno de los cuales podría haber evolucionado la vida
inteligente.
Sin embargo, los sistemas estelares identificados por Kepler debilitan aún más el
modelo de formación planetaria nebular. Además de los Júpiteres calientes, el telescopio
espacial ha descubierto planetas gigantes con órbitas idiosincráticas, mientras que, por otro
lado, los planetas más comunes, que encontramos orbitando cerca del cuarenta por ciento
de las estrellas más próximas y más parecidas al sol, los llamados «súper-Tierras» —una
categoría de planetas más grandes que la Tierra pero más pequeños que Neptuno (17 masas
terrestres)—, orbitan tan cerca de sus estrellas que es imposible que puedan albergar vida.
Viendo estas evidencias, los astrofísicos han presentado diversas propuestas para
modificar la hipótesis de formación planetaria nebular. Varias de ellas conjeturan con que
en la zona que va desde la parte intermedia hasta el exterior del disco nebular crecen
planetas de todo tipo hasta alcanzar su tamaño máximo y que, cuando el gas viscoso del
disco ralentiza su órbita, giran en espiral hacia el interior; esto explicaría los Júpiteres
calientes. Sin embargo, los modelos de simulación muestran que estos planetas migratorios
continúan girando en espiral hacia su estrella. Nadie hasta la fecha ha sido todavía capaz de
explicar por qué detienen en seco su giro en espiral y se estabilizan en las órbitas que
observamos.[46] De hecho, ya que no las hemos observado con suficiente detalle durante
suficiente tiempo, podría ser que siguieran aun girando en espiral. Además, estos modelos
no explican por qué nuestro sistema solar es tan distinto, excepto cuando parten del
supuesto arbitrario de que el gas nebular de nuestro disco no era lo bastante viscoso como
para que los gigantes gaseosos de la zona exterior del sistema girasen en espiral hacia la
zona interior.
Las técnicas actuales no son capaces de detectar planetas de masa similar a la de la
Tierra alrededor de las estrellas. Es posible que instrumentos más sofisticados acaben
descubriendo muchos planetas parecidos a la Tierra en masa, tamaño y órbita estable en
zona circunestelar habitable.
Por otro lado, nuestro sistema solar no contiene los planetas más comunes
detectados hasta la fecha, las súper-Tierras. Tal vez el hecho de que un pequeño planeta
rocoso como la Tierra permanezca en una órbita estable —supuestamente como
consecuencia de la influencia gravitatoria de un gigante gaseoso exterior como Júpiter, que
además nos protege del bombardeo de los cometas— y a la distancia óptima de su estrella
durante más de cuatro mil millones de años, tiempo suficiente para que la vida compleja
evolucione, es realmente un caso curioso.
Impacto de un planetesimal del tamaño de Marte
La explicación ortodoxa de la ciencia es que la luna excepcionalmente grande de la
Tierra es consecuencia del impacto de un planetesimal del tamaño de Marte.
Estudios recientes sugieren que en las fases finales de la acreción planetaria, cuando
los cuatro protoplanetas rocosos absorbieron en sus zonas orbitales los planetesimales
grandes que aún quedaban, los impactos masivos no eran una excepción. Pero de todas
maneras, para crear el núcleo de hierro anormalmente grande de la Tierra y su corteza
anormalmente fina, para acelerar la velocidad de giro de la Tierra, para cambiar la
inclinación de su eje de 22º a 24º, y para producir una luna anormalmente grande que
estabilizara esta inclinación, ralentizara la rotación de la Tierra y provocara las mareas, se
necesitaría el impacto de un planetesimal con la masa suficiente y con la velocidad relativa
y el ángulo idóneos. Estas consecuencias afectaron de forma significativa la aparición y la
evolución de la vida.
a) Núcleo de hierro anormalmente grande
Un núcleo de hierro anormalmente grande significa que lo único que se ha enfriado
lo suficiente para solidificarse ha sido el núcleo interno, dejando durante 4,5 miles de
millones de años un núcleo externo en estado líquido y capaz de generar una magnetosfera
potente que protege la superficie de la tierra de la radiación ionizante nociva y su atmosfera
del viento solar.
Los análisis de las rocas recogidas en Marte indican que ese planeta tuvo en su día
un campo magnético, pero las prospecciones no detectan ningún campo de este tipo en la
actualidad. Lo cual planteó la hipótesis de que Marte había tenido en su día un núcleo de
hierro líquido que, al igual que el núcleo interior de la Tierra, se habría enfriado y
solidificado; sin una magnetosfera protectora, el viento solar habría destruido la atmósfera
marciana en su práctica totalidad. Los sondeos tampoco han logrado detectar un campo
magnético importante en Venus (se cree que este planeta conserva una atmósfera densa
porque la elevada temperatura de su superficie volatiliza componentes como el agua, que
sería líquida en la Tierra).
b) Corteza anormalmente fina
La corteza anormalmente fina de la Tierra permite el movimiento de las placas
tectónicas, algo que se considera único en el sistema solar;[47] las evidencias obtenidas a
partir de las sondas, por ejemplo, sugieren que las placas tectónicas de Venus están
bloqueadas.
Como hemos visto, Kasting defiende que a pesar del incremente de la energía
irradiada por el sol, el rango de temperaturas favorable a la biosfera se ha mantenido
durante miles de millones de años, principalmente gracias a la regulación del efecto
invernadero del gas dióxido de carbono a través del mecanismo de las placas tectónicas.
Además, miembros de una especie separados por la deriva continental debida a las
placas tectónicas, se encuentran en distintas condiciones físicas y climáticas; las dos ramas
de la especie evolucionarán de forma distinta en sendos ambientes distintos.
De esta manera, la corteza fina permite la evolución de las especies.
c) Cambio en la rotación
Los modelos por ordenador sugieren que el impacto gigante llevó a la Tierra a
incrementar la velocidad de giro sobre su eje, llegando tal vez a un giro completo cada
cinco horas, y que la luna, recién formada, estaba mucho más cercana a la Tierra.
La proximidad de la gran luna generó una fuerza de gravedad enorme sobre la
superficie de la Tierra, que llegaba a levantarse y descender unos sesenta metros cuando la
luna pasaba por encima. Esta presión sobre la corteza terrestre ralentizó la rotación de la
Tierra y forzó el alejamiento de la luna, tal y como evidencian las mediciones de los pulsos
láser realizadas por la NASA.[48] La rotación de la Tierra se ha ralentizado hasta llegar al
ritmo de una vuelta completa cada 24 horas que tenemos actualmente. Este día más largo
implica que la superficie recibe más energía solar durante el día e irradia más calor durante
la noche. De ahí que la variación de la temperatura de superficie con respecto a su media
sea superior a la de cualquier otro planeta que gire a mayor velocidad. Lo cual permite un
rango más amplio de reacciones bioquímicas —aunque siempre dentro del rango que hace
factible el agua líquida—, lo que conlleva una variedad más amplia de moléculas
complejas, lo que a su vez incrementa las posibilidades de que la complejidad de dichas
moléculas sea mayor. Una vez ha aparecido la vida, el mismo efecto produce una mayor
variedad de entornos, lo que a su vez fomenta una diversidad evolutiva mayor.
Por otro lado, el «planeta hermano» de la Tierra, Venus, con casi su misma masa,
rota sobre su eje una vez cada 243 días terrestres. Esto, combinado con el tiempo que tarda
en trazar su órbita alrededor del sol, hace que el día solar de Venus sea de 117 días
terrestres. Una exposición diaria a la radiación solar tan prolongada ayudó a crear un efecto
invernadero desenfrenado que produjo una temperatura de superficie que hoy en día se
mantiene en torno a los 470º Celsius, tanto de día como de noche, una temperatura tan
elevada que fundiría incluso el plomo.[49]
d) Inclinación axial de 23,5º
La inclinación de 23,5º del eje de rotación de la Tierra (véase figura 12.2) genera las
variaciones estacionales de temperatura, que son distintas en distintas latitudes pero que se
mantienen siempre dentro del rango biosférico. Esta variedad en los climas estacionales en
distintos lugares de la superficie produce una amplia variedad de entornos cambiantes que
fomenta la diversidad biológica evolutiva.
e) Estabilización de la inclinación axial
La proximidad de la luna anormalmente grande genera un potente campo
gravitatorio que estabiliza la inclinación axial de la Tierra.
La estabilización no es perfecta; la inclinación axial ha oscilado entre los 22º y los
24º en el transcurso de 41.000 años[50] y contribuye a las glaciaciones periódicas que sufre
la Tierra, tal y como propone la que se conoce como hipótesis Milankovitch. Sin embargo,
se trata de una variación pequeña. Un estudio realizado en 1993 llegó a la conclusión de
que sin la luna, esta inclinación oscilaría caóticamente entre 0º y 85º en una escala de
tiempo de decenas de millones de años, lo que causaría estragos en el clima de la Tierra.
Una simulación por ordenador llevada a cabo en 2011 cuestiona esta afirmación y sugiere
que la inclinación oscilaría entre 10º y 50º en el transcurso de 4 miles de millones de años.
[51] Sea como fuere, estos cambios en la inclinación darían como resultado grandes
cambios de temperatura, lo que haría extremadamente difícil la evolución de vida compleja.
f) Mareas
El potente campo gravitatorio de la luna es también responsable de las mareas de los
océanos y los mares de la Tierra. Estas mareas no solo alteran los entornos físicos —y, por
lo tanto, fomentan la diversidad biológica evolutiva— erosionando la costa, sino que
además arrastran material del mar hacia tierra y a su vez se llevan material de tierra hacia el
mar, lo que fomenta la aparición de ecosistemas dinámicos.
La suma de todos estos factores, combinada con un aumento significativo de la
energía irradiada por el sol y un cambio enorme en la composición de la atmósfera de la
Tierra, supone un flujo cambiante de energía a través de un sistema que se ha mantenido
estable, aunque alejado del equilibrio termodinámico, durante cerca de cuatro mil millones
de años. Partiendo del trabajo de Ilya Prigogine, Morowitz y otros científicos consideran
que un sistema así genera un aumento de la complejidad física y química que conduce hacia
la aparición de la vida y su posterior evolución.[52]
Conclusiones

La primera parte nos llevó a la conclusión de que un universo en el que la materia es


capaz de evolucionar hasta las formas de vida conocidas exige un conjunto de leyes físicas
y químicas que describan o determinen cómo interactúa la materia, el ajuste de precisión de
seis parámetros cosmológicos y dos constantes sin dimensión, y el ajuste de precisión de
tres parámetros en la nucleosíntesis estelar que permitan la producción del carbono
necesario para la formación de las moléculas orgánicas esenciales.
Este capítulo llega a las conclusiones siguientes:
1. Para que las moléculas orgánicas de hasta trece átomos que encontramos en el
espacio interestelar y en determinados asteroides evolucionen hasta crear objetos tan
complejos como el ser humano, son necesarias seis condiciones: un planeta con elementos
y moléculas esenciales, fuentes de energía, una masa mínima y probablemente también una
masa máxima, una protección contra la radiación nociva y los impactos, un rango de
temperatura estrecho justo debajo y justo encima de su superficie, y la estabilidad de esta
biosfera durante miles de millones de años.
2. La concurrencia de diversos factores galácticos, estelares y planetarios
proporciona estas condiciones en la Tierra.
2.1. Su estrella madre es única, posee una masa que se ubica dentro del estrecho
margen exigido para mantener la estabilidad durante 4,5 miles de millones de años y
permanece localizada dentro de la relativamente pequeña y cambiante zona galáctica
habitable durante este periodo.
2.2. Se formó como un planeta rocoso integrando, y posteriormente incorporando,
elementos y moléculas esenciales.
2.3. Su masa se sitúa dentro del rango que sustenta una biosfera.
2.4. Su localización dentro de una estrecha zona circunestelar habitable ha quedado
atípicamente protegida durante 4,5 miles de millones de años del bombardeo destructivo de
los cometas por el efecto gravitatorio de un gigantesco planeta gaseoso exterior.
2.5. Cuando el planeta estaba formándose, recibió el impacto, a la velocidad relativa
idónea y con el ángulo idóneo, de un planetesimal con masa suficiente como para producir
varias características favorables para la evolución de la vida compleja: un núcleo de hierro
anormalmente grande que genera una potente magnetosfera protectora; una corteza
anormalmente fina que permite el movimiento de placas tectónicas; y una luna
anormalmente grande que produce una rotación optima, una inclinación axial estable y
mareas en sus océanos.
2.6. El planeta posee uno o más mecanismos de retroalimentación que mantienen un
rango de temperatura de superficie favorable para las reacciones bioquímicas y que ha
permitido que el agua en forma líquida permanezca en su superficie durante cerca de cuatro
mil millones de años a pesar del gran incremento de la energía irradiada por su estrella
madre.
3. La combinación de estos factores produce un flujo cambiante de energía a través
de un sistema fisicoquímico que ha permanecido estable, pero alejado del equilibrio
termodinámico, durante cerca de cuatro miles de millones de años y que ha generado el
incremento de complejidad necesario para permitir la aparición y evolución de una amplia
variedad de formas de vida.
4. Estos factores contradicen el punto de vista de la cosmología ortodoxa, que
defiende que la Tierra no es más que un planeta normal que orbita alrededor de una estrella
normal en una galaxia normal integrada por varios centenares de millones de estrellas que
forma parte del universo observable que se estima que está integrado por cien mil millones
de galaxias.
5. La Tierra, si no es única, sí que es una excepción en la galaxia, e incluso en el
universo, en cuanto a que posee las condiciones necesarias para la aparición y la evolución
de formas de vida tan complejas como el ser humano.
La Tierra evolucionó desde ser un planeta con la superficie caliente y una atmósfera
probablemente compuesta por sulfuro de hidrógeno, dióxido de azufre, dióxido de carbono,
vapor de agua, nitrógeno y amoniaco, componentes venenosos para el ser humano y que no
ofrecen protección contra la radiación ultravioleta, a ser un planeta con una temperatura de
superficie media anual de 15º Celsius, mares azules, nubes esponjosas y una atmósfera
compuesta principalmente por nitrógeno y oxígeno, junto con una capa de ozono, que
bloquea la radiación ultravioleta nociva y permite la aparición y la evolución de la vida en
su superficie. Pero, ¿qué es la vida?
[1] Véase página 236.
[2] Véase página 235.
[3]Documento JPL D-34923 de 12 de junio de 2006,
http://exep.jpl.nasa.gov/files/exep/STDT_Report_Final_Ex2FF86A.pdf, sección 1.3.1.1.3,
consultado el 21 de marzo de 2014.
[4]Pollack, James B., et al, «Formation of the Giant Planets by Concurrent
Accretion of Solids and Gas», Icarus, 124: 1, 1996, pp. 62–85.
[5]Documento JPL D-34923 de 12 de junio de 2006.
[6]Morowitz (2004), p. 65.
[7] Véase página 210.
[8] Un planetesimal hace normalmente referencia a un cuerpo pequeño formado
durante la primera fase de la formación planetaria más que al tamaño de un cuerpo de un
sistema solar.
[9] Un protoplaneta se convierte en planeta cuando ha absorbido los planetesimales
y otros desechos de su zona orbital y ha alcanzado una masa y un volumen más o menos
constantes. Véase el glosario para una definición más detallada de «planeta», que tiene en
cuenta la redefinición realizada por la Unión Astronómica Internacional en 2006.
[10]Schilling, Govert, «Planetary Systems: From a Swirl of Dust, a Planet Is Born»,
Science, 286: 5437, 1999, 66–68; Lunine (1999), p. 4.
[11]Ibid, pp. 124–125.
[12]http://gsc.nrcan.gc.ca/geomag/nmp/long_mvt_nmp_e.php, consultado el 23 de
mayo de 2008.
[13]James Kasting, comunicación personal, 30 de mayo de 2008.
[14]Ryskin, Gregory, «Secular Variation of the Earth’s Magnetic Field: Induced by
the Ocean Flow?», New Journal of Physics, 11: 6, 2009, 063015.
[15]Bryson (2004), pp. 228–229.
[16]http://www.geolsoc.org.uk/gsl/geoscientist/features/page856.html, consultado el
23 de mayo de 2008.
[17]Kious y Tilling (1996).
[18]Ibid.
[19]http://eclipse.gsfc.nasa.gov/SEhelp/ApolloLaser.html, consultado el 24 de mayo
de 2008.
[20]Mojzsis, S. J., et al., «Oxygen-Isotope Evidence from Ancient Zircons for
Liquid Water at the Earth’s Surface 4,300 Myr Ago», Nature, 409, 2001, pp. 178–181.
[21]Watson, E. B. y T. M. Harrison, «Zircon Thermometer Reveals Minimum
Melting Conditions on Earliest Earth», Science, 308: 5723, 2005, pp. 841–844.
[22]Nutman, Allen P., «Comment on ‘Zircon Thermometer Reveals Minimum
Melting Conditions on Earliest Earth’ Ii», Science, 311: 5762, 2006, p. 779.
[23]Glikson, Andrew, «Comment on ‘Zircon Thermometer Reveals Minimum
Melting Conditions on Earliest Earth’ I», Science, 311: 5762, 2006, p. 779.
[24]Lunine (1999), pp. 130–131.
[25]Morbidelli, A., et al., «Source Regions and Timescales for the Delivery of Water
to the Earth», Meteoritics & Planetary Science, 35: 6, 2000, pp. 1309–1320.
[26]Lunine (1999), pp. 127–130.
[27]http://solarsystem.nasa.gov/scitech/display.cfm?ST_ID=446, consultado el 10
de junio de 2014.
[28]Lunine (1999), p. 132.
[29] Véase el glosario para la diferencia entre «cometa», «meteorito» y «asteroide».
[30]Kasting, James, «Essay Review of Peter Ward and Don Brownlee’s Rare Earth:
Why Complex Life Is Uncommon in the Universe», Perspectives in Biology and Medicine,
44, 2001, pp. 117–131.
[31]Lunine (1999), p. 165.
[32]Ibid, pp. 165–176.
[33]Gribbin (2004), pp. 200–223.
[34]Kasting, J. F. y Catling, D., «Earth: Evolution of a Habitable Planet», Ann Rev
Astron Astrophys 41, 2003, pp. 429–463
[35]http://www.seti.org/seti/seti-science, consultado el 21 de febrero de 2008.
[36]Rowan-Robinson (2004), p. 63.
[37]Ward and Brownlee (2000).
[38]Gonzalez, Guillermo, et al., «The Galactic Habitable Zone: Galactic Chemical
Evolution», Icarus, 152: 1, 2001, p. 185–200.
[39] Véase página 275.
[40]Ward and Brownlee (2000).
[41]Kasting, J. F., et al., «Habitable Zones around Main Sequence Stars», Icarus,
101: 1, 1993, pp. 108–12.
[42] UA significa Unidad Astronómica (o AU por sus siglas en inglés, Astronomic
Unit), la distancia media de la tierra al sol.
[43]Documento JPL D-34923 de 12 de junio de 2006,
http://planetquest.jpl.nasa.gov/TPF/STDT_Report_Final_Ex2FF86A.pdf.
[44]Wolszczan, A. y Frail, D. A., «A Planetary System around the Millisecond
Pulsar Psr1257 + 12», Nature, 355: 6356, 1992, pp.145–147.
[45]http://www.nasa.gov/mission_pages/kepler/main/index.html#.U_PC0Cj5hhK,
consultado el 19 de agosto de 2014.
[46]Finkbeinter, Ann, «Astronomy: Planets in Chaos», Nature, 511, 2014, pp. 22–
24.
[47]Ward y Brownlee (2000).
[48] Véase página 291.
[49]http://www.planetary.org/explore/topics/compare_the_planets/terrestrial.html,
consultado el 25 de mayo de 2008.
[50]http://earthobservatory.nasa.gov/Study/Paleoclimatology_Evidence/, consultado
el 11 de junio de 2008.
[51]http://www.newscientist.com/article/mg21228384.600-aliens-dont-need-a-
moonlike-ours.html#.U5covij5hhI, consultado el 10 de junio de 2014.
[52]Morowitz (2004), pp. 58–62.
CAPÍTULO 13. LA VIDA

Y entonces, «¿qué es la vida?», grité.

Percy Bysshe Shelley, 1822

La esencia de la vida es la improbabilidad estadística a escala colosal.

Richard Dawkins, 1986

Si nuestra intención es descubrir cómo apareció la vida en la Tierra, necesitamos


averiguar antes qué es la vida. A la mayoría nos parece algo evidente. El gato que se frota
contra mi pierna está vivo; la tostada quemada que tengo en el plato delante de mí no está
viva. Pero definir qué es lo que distingue lo vivo de lo no vivo no es tan sencillo.
Como apuntamos en el capítulo 9, estamos hechos principalmente de átomos de
hidrógeno, oxígeno, carbono y nitrógeno. Pero estos átomos no se diferencian de los
átomos de hidrógeno, oxígeno, carbono y nitrógeno que encontramos en el agua, en el aire
o en la tostada quemada. De hecho, un montón de estos átomos entra y sale de nuestro
cuerpo cuando respiramos, bebemos, comemos, sudamos, orinamos y defecamos.
Si los átomos de los seres vivos son iguales, ¿será entonces su disposición en
moléculas más complejas lo que los diferencia? Pero resulta que una persona que acaba de
morir posee el mismo nivel de complejidad molecular que tenía el momento antes de su
muerte.
Intentaré llegar a entender qué es la vida examinando lo que el mundo antiguo creía
que era, las explicaciones que ha desarrollado la ciencia, algunas explicaciones
contemporáneas que afirman reconciliar las perspectivas antiguas con la ciencia moderna,
la respuesta a las mismas que da la ciencia ortodoxa y algunas definiciones destacadas del
concepto vida.
El concepto de la vida en el mundo antiguo

Los primeros intentos de comprender la esencia de la vida se realizaron en India.


Los videntes utilizaban la meditación —una introspección disciplinada que busca
comprender fusionándose con el objeto de estudio— y sus puntos de vista quedaron
registrados en las Upanishads. Distintas Upanishads caracterizan la vida como «prana».
Esta palabra sanscrita tiene probablemente su origen en el prefijo «pra», que
significa completar (seguramente utilizado aquí a modo de intensificador) y la raíz «na»,
que significa respirar.[1] Podría interpretarse literalmente como respiración, pero la
Prashna Upanishad deja su significado claro. Seis buscadores de la verdad formulan seis
preguntas al vidente Pippalda. Para responder a la primera, quién creó el universo, Pippalda
responde que el Señor meditó y creó prana y ravi (la materia), y que a partir de esta
dualidad brotaron las dualidades de masculino y femenino, el sol y la luna, y la luz y la
oscuridad. Como en otras Upanishads, el resto de la Prashna Upanishad deja claro
mediante metáforas, símiles y parábolas, que prana es la energía fundamental y vital de
cualquier cuerpo, del mismo modo que es la energía fundamental y vital del universo.[2] La
medicina ayurdévica busca alcanzar un equilibro del prana, mientras que el yoga intenta
mejorar su flujo a través del cuerpo.
Michael Nagler, profesor emérito de Literatura clásica y comparativa de la
Universidad de California, Berkeley, defiende que prana significa energía vital, y que todos
los signos vitales a partir de los cuales intentamos identificar la presencia de vida son
símbolos de la capacidad del cuerpo de dirigir, conservar y emplear energía con elevados
niveles de complejidad. Eso es la vida desde el punto de vista biológico.[3]
Respondiendo al rechazo del vitalismo por parte de la ciencia moderna, se pregunta:
«Y si la vida no es energía, entonces ¿qué es?».
Los textos taoístas chinos, una recopilación de conceptos y reflexiones filosóficas
que datan del siglo vi a. C. en adelante, ofrecen un punto de vista similar. Aquí, la palabra
en chino antiguo qi (o chi, según la norma occidental utilizada) significa tanto respirar
como espíritu que otorga la vida.[4] La manipulación del flujo de qi, la energía vital del
cuerpo, juega un papel esencial en la curación china tradicional.
Estos puntos de vista fueron transmitidos a los japoneses cuando estos adaptaron la
cultura china para su sociedad. La palabra que ellos utilizan para respiración y espíritu es
«ki».
Los hebreos utilizaron también una palabra con doble significado: «ruach», como
viento o espíritu. En el Tanaj, sus escrituras, se utiliza para hablar del Espíritu de Dios.
En los poemas homéricos griegos, fechados el siglo viii a. C., «psyche» es la
respiración o espíritu que abandona el cuerpo del héroe cuando este fallece.[5] Los
estoicos, que encontramos entre el siglo iii y i a. C., hablaban de «pneuma» (respiración,
alma o espíritu vital) y de Dios y el principio organizador de la naturaleza refiriéndose
básicamente a la misma cosa, haciéndose eco del concepto defendido por Heráclito de una
inteligencia o alma de aspecto similar al fuego que anima el universo.[6]
De un modo similar, los romanos utilizaron la palabra «spiritus» para referirse tanto
a la respiración como al espíritu; la iglesia cristiana occidental adoptó la palabra para dar
nombre a la tercera persona de la Santísima Trinidad, el Espíritu Santo.
Por lo tanto, la explicación de que un espíritu vital o energía vital anima (que
literalmente significa «respira o insufla vida») la materia y la distingue de lo inanimado,
estaba completamente extendida en el mundo antiguo. Además, esta energía vital —
denominada «vitalismo» en términos generales— sería la base de toda la energía del
universo.
En distintas culturas y religiones el concepto se interpretó como la creación de una
divinidad suprema informe, o de Dios en persona, o de un aspecto de Dios o,
antropomórficamente, se asumió que Dios, o un dios, respiraba sobre la materia inanimada,
como la arcilla, para insuflarle vida.
Lo que dio lugar al vitalismo no fue solamente esta perspectiva mítica, sino que la
ciencia dedujo su existencia desde un buen principio.
El desarrollo de la explicación de la vida por parte de la ciencia

La ciencia y la medicina occidentales están enraizadas, en gran parte, en el


descubrimiento que en el siglo xii hicieron de Aristóteles. A diferencia de muchos otros
pensadores griegos, como Pitágoras y Heráclito, Aristóteles no era un místico. Distinguía
entre objetos minerales inanimados por un lado y objetos vegetales y animales por otro, y
sostenía que la vida de estos últimos residía en su «psyche» o alma. Pero para Aristóteles, la
psyche no era un espíritu etéreo. Sino que era la forma, u organización, de las
características físicas que la dotan de vida y propósito; el alma y el cuerpo son dos aspectos
de un ser vivo. Varios comentaristas medievales, sin embargo, interpretaron las
traducciones (mayoritariamente en árabe) de Aristóteles para justificar un vitalismo menos
materialista.[7]
Este vitalismo fue defendido en los orígenes de la ciencia moderna, en los siglos xvi
y xvii, como oposición a la diseminación de la biología del mecanismo cartesiano, que
consideraba que un organismo no era más que una máquina. Los vitalistas defendían que la
materia no podía explicar el movimiento, la percepción, el desarrollo y la vida. Incluso
mecanicistas del siglo xix, como John Needham y el conde de Buffon, se sintieron atraídos
en sus experimentos de biología del desarrollo a invocar la existencia de una fuerza vital
análoga a la gravedad y la atracción magnética.
El vitalismo jugó un papel esencial en el desarrollo de la química del siglo xviii y
principios del siglo xix. Dio lugar a la distinción aristotélica entre sustancias orgánicas
(extraídas de animales y vegetales) e inorgánicas (minerales). A raíz de un experimento en
el que se quemaba madera, Georg Stahl defendió que la pérdida de peso entre la madera y
sus cenizas era debida a la fuerza vital, que se había perdido irremediablemente.
La oposición al vitalismo creció a partir de mediados del siglo xix, liderada por
médicos y fisiólogos que defendían el materialismo mecánico y por químicos que
sintetizaban componentes encontrados en la naturaleza a partir de sus elementos químicos
constituyentes, refutando con ello las tesis de Stahl.
Pero en el siglo xix, científicos tan notables como Louis Pasteur, que llegó a la
conclusión de que la fermentación era una «acción vital», siguieron apoyando el vitalismo.
A principios del siglo xx, sin embargo, la medicina ortodoxa, la biología y la química
habían rechazado ya el vitalismo apoyándose en que sus supuestos fenómenos podían
explicarse reduciéndolos a componentes físicos y químicos que obedecían leyes físicas y
químicas. Pese a ello, el vitalismo siguió vigente durante la primera mitad del siglo xx,
abanderado por el filósofo francés y Nobel de literatura, Henri Bergson, y por el eminente
embriólogo alemán, Hans Driesch.[8]
Supuestas reconciliaciones entre las posturas antiguas y la ciencia moderna

La medicina alternativa

Los últimos cincuenta años han sido testigos en Occidente del crecimiento de una
medicina alternativa basada en antiguas técnicas de curación orientales. Tratamientos como
la acupuntura y la acupresión están concebidos para desbloquear restricciones en el flujo
del qi, mientras que terapias como el reiki (del japonés «rei», que significa invisible o
espiritual y «ki», que significa energía vital, de ahí «energía vital universal») están también
enfocadas a transmitir o canalizar la energía vital universal al paciente, bien a través del
contacto, bien a través del movimiento de las manos del profesional cerca del cuerpo del
paciente.
Desde 1972, cuando una revista médica occidental informó por vez primera del
empleo en China de la acupuntura como analgésico en la cirugía mayor en vez de la
anestesia con fármacos, una parte de la profesión médica occidental ha probado y utilizado
con éxito la acupuntura muchas enfermedades, destacando entre ellas la gestión del dolor
agudo y crónico, la recuperación de la parálisis después de un ictus y el alivio de las
enfermedades respiratorias. Su funcionamiento continúa siendo una pregunta sin respuesta.
El enfoque holístico oriental ha sido adoptado a mayor escala por la enfermería
occidental. El tratamiento más conocido, cuyas enseñanzas se imparte en cerca de un
centenar de universidades y escuelas de medicina y enfermería de los Estados Unidos y
Canadá, es el «toque terapéutico». El contacto, o toque, no es con el cuerpo del paciente,
sino con el campo de energía vital del cuerpo, o aura, que los profesionales consideran que
se extiende hasta varios centímetros o metros del cuerpo. Las técnicas utilizadas no se
distinguen de las del reiki y se practican además bajo varios nombres distintos como
curación, curación espiritual o curación psíquica.
Accedí a recibir este tratamiento en dos ocasiones. En la primera de ellas, cuando la
profesional me pasó las manos por encima del cuerpo, experimenté una sensación de calor
y en la segunda, un hormigueo. Desconozco la naturaleza de estas sensaciones, que se dice
que son características.
La fundadora de Therapeutic Touch, la profesora de enfermería de la Universidad de
Nueva York, Dolores Krieger, identifica la energía como prana. Sostiene que el toque
terapéutico, al igual que la hipnoterapia, funciona con mayor efectividad sobre el sistema
nervioso. «En el análisis final, es el paciente el que se cura a sí mismo».[9] El sanador, o
terapeuta, según este punto de vista, actúa como un sistema de soporte de energía humana
hasta que el sistema inmunológico del paciente es lo suficientemente robusto como para
tomar el relevo.
Los éxitos son en su mayoría anecdóticos, con escasas pruebas sistemáticas. En
1973, Krieger demostró que los valores medios de hemoglobina de 46 sujetos aumentaron
después de un tratamiento con toque terapéutico en comparación con la ausencia de
cambios significativos en un grupo de control de 29 sujetos.[10] En 1998, el Medical
Center de la Universidad de Pittsburgh informó de mejoras importantes en la función y en
el alivio del dolor provocada por la osteoartritis de rodilla en pacientes tratados con toque
terapéutico en comparación con grupos tratados con placebo y grupos de control, aunque
solo 25 pacientes acabaron completando el estudio.[11]
Por otro lado, es famoso el artículo que publicó el Journal of the American Medical
Association el 1 de abril de 1988 sobre una prueba supuestamente concebida por Emily
Rosa, de once años de edad. La niña invitó a 21 especialistas en toque terapéutico a pasar
las manos a través de un agujero abierto en una pantalla opaca para percibir su campo de
energía vital. Emily lanzaba una moneda al aire para decidir a cuál de las dos manos del
especialista iba a acercar las suyas y el especialista debía detectar su aura y decir a qué
mano se había acercado. Los especialistas alcanzaron un porcentaje de éxito del 44 por
ciento, un nivel inferior al 50 por ciento que cabría esperar que acertaran por puro azar.[12]
Hipótesis de campos

En ese mismo periodo, un número reducido de científicos y filósofos desarrolló la


idea de que la biología ortodoxa sigue aferrada al punto de vista mecanicista newtoniano
que caracterizaba a la física del siglo xix y que no ha tenido en cuenta la revolución que se
vivió a principios del siglo xx en el campo de la física, y muy en especial la teoría cuántica,
con sus conceptos de campos y no localización. Les atrae la idea de que el cosmos es un
todo y de que todas sus partes existen en un estado de interdependencia coherente y
dinámica.
El teórico cuántico David Bohm, influido por el místico y filósofo indio Jiddu
Krishnamurti, fue uno de los primeros en intentar desarrollar un modelo holístico del
universo basado en principios científicos. Lo denominó «totalidad no dividida en
movimiento fluyente», en la cual «el flujo es, en cierto sentido, previo a las “cosas” que
vemos formarse y disolverse en ese flujo». Continuaba diciendo que «Hay que considerar
que la vida pertenece a una totalidad» y que, de algún modo, está «envuelta» en el sistema.
[13]
Ervin Laszlo, antiguo profesor de filosofía, teórico de sistemas y pianista de música
clásica, reclama el apoyo de los últimos descubrimientos en el campo de las ciencias
naturales para un campo que conecta y correlaciona instantáneamente todas las cosas del
cosmos. Se trata de un redescubrimiento del antiguo concepto místico del «akasha» (una
palabra en sanscrito que significa «espacio»), el más fundamental de los cinco elementos
del cosmos que contiene a los demás (aire, fuego, agua y tierra) en su interior pero que al
mismo tiempo está fuera de ellos. Afirma que el campo akásico es el medio fundamental
del cosmos, y lo equipara al vacío cuántico del universo,[14] que los teóricos cuánticos
ortodoxos consideran que tiene una energía de estado fundamental de la que puede emerger
espontáneamente la materia.[15] Según Laszlo, el campo akásico es la base a partir de la
cual se originan todas las cosas del universo y, en consecuencia, la fuente de toda la vida y
lo que conecta toda la vida.
El biólogo botánico, Rupert Sheldrake, fue durante siete años director de estudios de
Bioquímica y biología celular en el Clare College de la Universidad de Cambridge. Viajó a
India para investigar la fisiología de los cultivos, y allí mantuvo discusiones con
Krishnamurti y pasó dieciocho meses en el ashram de Bede Griffiths. Con esta experiencia,
e inspirándose también en las ideas vitalistas de Bergson y Driesch, desarrolló su hipótesis
de la causación formativa, según la cual la memoria es inherente en la naturaleza: la
mayoría de las llamadas leyes de la naturaleza son más bien costumbres que dependen de
un refuerzo de similitud no local.[16]
Sheldrake defiende que los sistemas naturales, o unidades mórficas, sea cual sea su
nivel de complejidad —átomos, moléculas, cristales, células, tejidos, órganos y sociedades
de organismos— están animados, organizados y coordinados por campos mórficos no
locales que contienen una memoria intrínseca. Un ejemplar (una célula, por ejemplo) de un
grupo mórfico (las células hepáticas, por ejemplo), un grupo que ya ha establecido su
campo mórfico colectivo mediante su patrón de conducta pasada, se sintonizará con el
campo mórfico de ese grupo y leerá su información colectiva a través de un proceso de
resonancia mórfica que guiará el desarrollo de este ejemplar. Este desarrollo se
retroalimenta por resonancia con el campo mórfico del grupo, reforzándolo con su propia
experiencia e incorporando nueva información, lo que permitirá la evolución del campo
mórfico.
Sheldrake sugiere la existencia de un espectro continuo de campos mórficos, que
incluye campos morfogenéticos, campos de conducta, campos mentales y campos sociales
y culturales. En consecuencia, los campos mórficos actúan como bases de datos universales
y en evolución tanto para las formas vivas como para las formas mentales, y conducen a
una visión de un universo vivo y en evolución con una memoria inherente.
Lo que la mayoría de estas ideas —tanto en el campo de la medicina como en el de
la bilogía— tienen en común es la visión de que la ciencia ortodoxa enraizada en el
reduccionismo es incapaz de explicar qué es la vida, la creencia de que el cosmos es un
todo dinámico integrado por partes interdependientes conectadas entre sí mediante un
campo de energía universal similar a lo que la mística del mundo antiguo percibía, la
creencia de que los organismos vivos están conectados con este campo a través de una
relación interdependiente y, finalmente, la convicción de que este concepto está sustentado
por las evidencias y es compatible con los principios científicos más avanzados, y muy en
especial, con la teoría cuántica de campos.
La respuesta de la ciencia ortodoxa

La respuesta de la ciencia ortodoxa contemporánea a estas propuestas queda


resumida en un artículo de opinión sobre la hipótesis de Sheldrake, publicado en 1981 por
la revista Nature y firmado por el que entonces era su director editorial, John Maddox.
Los argumentos de Sheldrake no son, en ningún sentido, argumentos científicos sino
un ejercicio de pseudociencia. De un modo absurdo, afirma que su hipótesis es verificable
—que puede someterse al criterio de falsabilidad de Poppe— y, de hecho, el texto incluye
media docena de propuestas de experimentos que podrían llevarse a cabo para verificar que
las formas de agregación de materia están moldeadas por los hipotéticos campos
morfogenéticos que supuestamente lo impregnan todo. Estos experimentos tienen en común
los atributos de ser una pérdida de tiempo, no concluyentes […] y poco prácticos, en el
sentido de que ningún organismo capaz de otorgar subvenciones y sea respetable se tomará
en serio las propuestas […]. La objeción más seria a sus argumentos es que no dice nada en
absoluto sobre la naturaleza y el origen de los fundamentales campos morfogenéticos y no
incluye propuestas para investigar los medios a través de los cuales se propagan. Muchos
lectores quedarán con la impresión de que Sheldrake ha tenido éxito en encontrar un lugar
para la magia en la discusión científica.[17]
La oposición a la aplicación de estas ideas holísticas a la medicina ha sido liderada,
entre otros, por Linda Rosa, madre de la precoz Emily. Dos años antes de la publicación del
experimento de Emily (el documento fue escrito por su madre y dos personas más, además
de Emily), publicó un Survey of Therapeutic Touch «Research», alegando fallos
metodológicos y de todo tipo en todos los estudios positivos.
Victor Stenger, profesor emérito de Astronomía de la Universidad de Hawái, es
también un apasionado materialista que realiza campaña contra la pseudociencia empleada
en la profesión médica occidental. Su conclusión es que no existe ni una pizca de evidencia
que sustente la existencia de una energía vital o de un campo bioenergético. Según él, todo
es reducible a interacciones electromagnéticas que quedan explicadas por la física y la
química ortodoxas, ambas extensamente verificadas. Hasta que no se demuestre lo
contrario, y con el mismo nivel de relevancia experimental que se exige en la física, la
parsimonia requiere que cualquier otra explicación distinta a las evidencias sea rechazada.
[18]
Considero que Stenger tiene razón cuando asegura que muchas de estas
afirmaciones son refutables y que las evidencias revisadas hasta la fecha son insuficientes
para confirmar la existencia de un campo cósmico responsable del fenómeno de la vida.
Sin embargo, la ausencia de evidencias no es evidencia de su ausencia. Un John
Maddox del siglo xviii habría descartado por absurda la idea de que existe un campo
cósmico responsable de los fenómenos eléctricos y magnéticos (la ciencia considera
actualmente que el campo electromagnético tiene un alcance infinito). Además, mientras
que la ciencia ortodoxa acepta la idea de un campo cósmico y un vacío cuántico, sigue sin
poder explicar en absoluto su naturaleza.
La ciencia ortodoxa y su definición de la vida

Todo lo cual nos lleva a la pregunta de cómo define la vida la ciencia ortodoxa
actual. Según Edward O. Wilson, una de las pocas autoridades mundiales que ha
reflexionado en profundidad sobre la ciencia más allá de su campo de especialización, el
estudio de las hormigas, «el reduccionismo es la actividad principal y esencial de la
ciencia».[19]
La mayor parte de nuestra inmensa riqueza de conocimientos sobre la naturaleza, y
de nuestra comprensión de la misma desde la primera revolución científica en Occidente, se
debe a la técnica analítica que consiste en descomponer las cosas en las distintas partes que
las componen y estudiarlas. Sin ella, no sabríamos que las páginas de este libro Estan
hechas principalmente de celulosa, que es un polímero lineal de moléculas consistentes en
átomos de carbono, oxígeno e hidrógeno, cada uno de los cuales consiste en un núcleo de
carga positiva orbitado a distancias relativamente enormes por electrones de carga negativa,
mientras que es el movimiento de los electrones libres lo que produce electricidad y campos
magnéticos.
Los éxitos espectaculares que cosechó el reduccionismo en la física durante el siglo
xix y principios del siglo xx se repitieron en la biología cuando, en 1953, James Watson y
Francis Crick demostraron que la estructura de doble hélice de la molécula de ADN (ácido
desoxirribonucleico) explica el funcionamiento de la herencia.
El reduccionismo, sin embargo, no puede explicar la vida, del mismo modo que
descomponer una obra de Shakespeare en palabras y luego esas palabras en letras del
alfabeto no puede explicar los personajes, las emociones y el drama de la obra.
Podemos ponernos de acuerdo en que un ser humano está vivo. Podemos también
ponernos de acuerdo en que los miles de millones de células que componen un ser humano
están vivas. Pero si examináramos los componentes de cada una de estas células,
¿podríamos decir que cada uno de sus cromosomas está vivo? ¿Que cada una de sus
proteínas está viva? La respuesta es claramente no, igual que lo es para todos los átomos
que componen todas las proteínas. El fracaso del reduccionismo[20] en cuanto a conseguir
explicar la vida llevó a los científicos a prestar atención al concepto de emergencia
articulado por el filósofo inglés John Stuart Mill en 1843 y desarrollado posteriormente en
centenares de versiones. En la más sencilla de todas ellas, significa que el todo es más que
la suma de sus partes, del mismo modo que la imagen resultado de un puzle solo emerge
cuando las partes del puzle están organizadas de una manera concreta.
La siguiente definición, que incorpora las tres grandes categorías relacionadas con
las preguntas que esta investigación pretende responder, ofrece el sentido que yo utilizo del
concepto (otros utilizan las mismas palabras para definir y categoriza de diversas maneras).
Emergencia: la aparición en un todo complejo de una o más propiedades nuevas
que ninguna de sus partes constituyentes presenta.
La «emergencia débil» se da cuando las propiedades nuevas que aparecen en el
nivel superior pueden explicarse por la interacción de las partes constituyentes.
La «emergencia fuerte» se da cuando las propiedades nuevas que aparecen en el
nivel superior no pueden reducirse ni predecirse a partir de la interacción de las partes
constituyentes.
La «emergencia de sistemas» se da cuando las propiedades nuevas que aparecen en
el nivel superior interactúan causalmente con propiedades de nivel inferior; esta causalidad
descendente, y también ascendente, suele formar parte de un enfoque sistémico que, en
contraste con el enfoque reduccionista, considera cada componente como una parte
interdependiente del todo.
El científico Francis Crick, abiertamente reduccionista, reconoció que invocar la
emergencia podría ser necesario, aunque reivindicó que con la emergencia débil bastaría
para explicar la vida.
Mientras que es posible que el todo no sea simplemente suma de todas las partes, su
conducta puede, al menos en principio, comprenderse a partir de la naturaleza y la conducta
de sus partes constituyentes más el conocimiento de cómo interactúan dichas partes.[21]
Paul Davies, físico teórico y cosmólogo que dirige actualmente el Center for
Fundamental Concepts in Science de la Universidad de Arizona, aplica esto a la vida
afirmando que:
No encontraremos el secreto de la vida entre los átomos per sé, sino en el patrón que
sigue su asociación, en la forma en que están unidos […]. Los átomos no necesitan ser
«animados» para producir vida, lo que simplemente necesitan es estar dispuestos de una
manera compleja y adecuada.[22]
El neurobiólogo británico, Donald Mackay, por otro lado, desafió la emergencia
débil dentro de este contexto sirviéndose del ejemplo de un panel publicitario (como los
que pueden encontrarse en Times Square, Nueva York) con bombillas de colores que se
encienden y se apagan de una forma programada para deletrear el mensaje «La vida es
mejor con Coca-Cola». Un ingeniero eléctrico reduciría este sistema a sus componentes y
explicaría cómo y por qué se encienden las distintas luces y cómo se coordina su ritmo de
encendido. Pero entender las interacciones de los distintos componentes eléctricos no
facilita la comprensión, y mucho menos predice, el mensaje de que beber Coca-Cola te
mejora la vida. Para ello se necesita otro nivel de explicación. Es un ejemplo de emergencia
fuerte.[23]
La explicación que Davies da de la vida resulta insuficiente. Los miles de millones
de células de un cuerpo humano no están simplemente dispuestas de una manera compleja
y adecuada; sino que las células interactúan entre ellas y dependen las unas de las otras para
formar un ser humano completo y vivo. Siguiendo esta lógica, la vida es una propiedad
emergente de un sistema
Pero esto no nos dice, sin embargo, qué es esta propiedad emergente. Más
concretamente, cuáles son las características de esta propiedad emergente que
denominamos vida que la diferencian de lo que no es vida.
Características de la vida

Pese a ser algo que intuitivamente parece evidente, los científicos y los filósofos no
consiguen ponerse de acuerdo con respecto a cuáles son las características de la vida. Casi
todos ofrecen un listado. Una o más de las siguientes características aparecen en la mayoría
de esos listados, pero el número de características incluidas en los distintos listados varía
considerablemente.
a) Reproducción.
b) Evolución.
c) Sensibilidad (respuesta al estímulo).
d) Metabolismo.
e) Organización.
f) Complejidad.
Son términos que significan cosas distintas para personas distintas y, por lo tanto,
para decidir si son necesarias o suficientes para definir la vida, es importante dejar claro lo
que significa cada una de estas características.
Reproducción

La reproducción aparece en la mayoría de listas. No es, sin embargo, una condición


suficiente. Si echamos un cristal de sal en una solución salina saturada, el cristal se
reproducirá: se creará un cristal mucho más grande que reproducirá exactamente la
estructura del cristal original.
La reproducción tampoco es una condición necesaria. Las mulas no se reproducen,
tampoco lo hacen las hormigas obreras y muchas variedades de plantas de jardín, y con
todo y con eso están vivas.
Por lo tanto, la reproducción no es una característica suficiente ni necesaria de la
vida.
Evolución

La evolución también aparece en muchas listas, pero es de por sí un concepto


demasiado vago como para resultar útil. La costa evoluciona con el tiempo por la erosión
del mar, el viento y la lluvia, pero nadie considera que la costa esté viva. Por este motivo,
hay quien prefiere utilizar el término «adaptación». Aunque también podría decirse que una
costa se adapta a un entorno cambiante.
El programa Exobiology de la NASA es más preciso y define la vida como «un
sistema químico autosuficiente capaz de experimentar evolución darwiniana».[24] Pero aun
así, muchas especies, como las cianobacterias, los celacantos y algunos tipos de cocodrilo,
tienen varios cientos de millones de años de existencia y no han experimentado cambios en
sus características físicas. Si una sonda espacial de la NASA estuviera observando la Tierra,
¿cuánto tiempo esperaría antes de llegar a discernir si los cocodrilos son capaces o no de
experimentar una evolución darwiniana? Ya que los miembros de las especies en estasis
evolutiva están vivos, la evolución por selección natural no es una característica necesaria
ni suficiente para la vida.
Respuesta al estímulo

Un fotómetro responde al haz de luz que se proyecta hacia él y lo hace registrando


un cambio en el número de lúmenes que aparece en su pantalla. Y lo mismo hacen
muchísimos tipos de detectores. De ahí que la sensibilidad no sea suficiente como
característica de la vida.
Una persona en coma profundo o un animal en estado de hibernación podría no
responder a los estímulos, de modo que la sensibilidad no es una característica necesaria.
Metabolismo

La mayoría de definiciones de metabolismo dicen que consiste en los procesos


bioquímicos que tienen lugar dentro de un organismo vivo. Si un organismo vivo es
necesario para la definición del metabolismo, decir que el metabolismo es característico de
la vida se convierte en un argumento circular.
Si es posible abstraer los procesos de los organismos vivos, podría ser que esos
procesos fueran característicos de la vida (y consideraré algunos intentos cuando examine
más adelante las definiciones más importantes), pero el metabolismo en sí mismo no tiene
sentido como característica de la vida.
Organización

A pesar de que aparece en muchos listados, el término «organización» es demasiado


general para resultar de utilidad. Puede significar la disposición estática de las partes de un
todo, como los iones de un cristal, o la coordinación activa de elementos separados en un
todo sistémico, como la gestión de las divisiones y el personal de Ford Motor Company.
Pero ni un cristal ni Ford Motord Company suelen considerarse un ser viviente, razón por la
cual la organización no es una característica suficiente de la vida.
Podría decirse que la organización es una condición necesaria de la vida, aunque
también es una condición necesaria de cualquier cosa que no sea un caos. De ahí que la
organización en sí misma no sea una condición necesaria excepto en un sentido trivial.
Complejidad

La complejidad aparece también en muchos listados y presenta los mismos


inconvenientes que la organización si se utiliza para caracterizar la vida: un cuerpo muerto
y el puente del Golden Gate son complejos, pero ninguno de los dos está vivo. La
complejidad no es una condición suficiente, ni por sí misma necesaria, excepto en un
sentido trivial, puesto que es una condición para cualquier cosa que no sea absolutamente
sencilla.
Si ninguna de estas características es necesaria o suficiente por sí misma, ¿serviría
para definir la vida la combinación de dos o más de ellas? Davies afirma que «las dos
características distintivas de los sistemas vivos son la complejidad y la organización».[25]
Aunque esto tampoco nos lleva mucho más lejos: Ford Motor Company posee las
características de complejidad y organización.
Seis páginas más adelante, Davies dice que:
Lo que sucede [en el metabolismo] es que hay un flujo de energía que recorre el
cuerpo. Este flujo está impulsado por el ordenamiento, o entropía negativa, de la energía
consumida. El ingrediente crucial para mantener la vida es, pues, la entropía negativa.[26]
Lo que creo que quiere decir es que, siguiendo a Prigogine,[27] un flujo de energía
que recorre un sistema vivo mantiene su estructura compleja en un estado dinámico, aunque
estable, alejado del equilibrio termodinámico, en oposición al principio del aumento de
entropía,[28] y que este rasgo antientrópico es una característica de la vida. Es también una
característica de algunos sistemas no vivos, como los vórtices en los fluidos.[29] Además,
la entropía es una medida del grado de desorden de un sistema aislado; un cuerpo vivo es
un sistema abierto a través del cual fluye energía.
Definiciones de vida

En 2004, Philip Ball, por entonces asesor editorial de Nature, defendió que el
ejercicio de intentar definir la vid no tiene sentido y es una pérdida de tiempo para filósofos
y científicos. Argumentando que no existen fronteras entre lo vivo y lo no vivo, citaba el
caso de los virus. Los virus se reproducen, evolucionan, están organizados y son complejos
(en comparación, por ejemplo, con un aminoácido), pero son parásitos. Lejos de una célula
viva, un virus es inactivo; solo se vuelve activo cuando encuentra una célula huésped
idónea y se apodera de la maquinaria metabólica de la célula para reproducir nuevas
partículas de virus, que pueden entonces infectar otras células.
Puesto que la actividad de los virus depende de la existencia de una célula huésped,
no pueden considerarse candidatos para el título de primeras formas de vida que
emergieron en la Tierra y, por otro lado, tampoco son formas de vida independiente. A
diferencia del punto de vista de Ball de que «Nadie sabe si calificar o no a los virus de seres
vivos»,[30] la mayoría de fuentes define a los virus como partículas que son activas o
inactivas a diferencia de vivas o muertas.[31]
Ball apunta también que en Agosto de 2002, Eckard Wimmer y sus colegas de la
State University de Nueva York, observaron la estructura química del genoma del virus de
la polio a través de Internet, ordenaron los segmentos de material genético de compañías
que sintetizan ADN y lo unieron todo para crear un genoma completo. Cuando lo
combinaron con las enzimas adecuadas, este ADN sintético proporcionó la semilla a partir
de la cual crecieron partículas de virus de la polio. A Ball no le cabe la menor duda de que
los biólogos pronto serán capaces de fabricar cosas como células que en general se
consideran vivas, reforzando con ello su punto de vista de que intentar definir la vida no
tiene sentido.
A pesar de que ir marcando las casillas de un listado de características más o menos
vagas no es en absoluto productivo, no hay que extraer la conclusión de que no existe
distinción entre lo que está vivo y lo que no lo está. Se han realizado intentos prometedores
de definir la vida en términos de un sistema que interactúa de maneras específicas con su
entorno, y a continuación examinaré los que considero más relevantes. (Resulta interesante
el detalle de que uno de ellos lo presenta un físico teórico, otro un antiguo físico teórico y
otro un biólogo cuya conjetura parte de las bases de la física teórica. La mayoría de
biólogos que trabaja en departamentos universitarios etiquetados como de «Ciencias
vivas», concentra su trabajo en campos limitados dentro de subespecialidades limitadas de
la biología, como el estudio de vectores retrovirales dentro de la subespecialidad de la
biología molecular, y muestra escaso interés por lo que define su especialidad dentro de la
ciencia).
El sistema auto-organizado de Smolin

El físico teórico Lee Smolin se inspira en las ideas de los sistemas complejos auto-
organizados propuestas por Ilya Prigogine, John Holland, Harold Morowitz, Per Bak y
Sturar Kauffman para construir lo que denomina una teoría en desarrollo para definir la
vida. (En el próximo capítulo consideraré estas ideas, puesto que afirman poder explicar la
aparición de la vida).
Todo ello le lleva a proponer que la vida en la Tierra podría definirse como:
1. Un sistema auto-organizado sin equilibrio
2. Cuyos procesos están gobernados por un programa que simbólicamente está
almacenado en las estructuras del ADN y el ARN (igual que el ADN, se trata de un ácido
nucleico pero que normalmente forma una sola hebra de nucleótidos[32]) y
3. Que puede reproducirse, incluyendo en esa reproducción su programa.[33]
Sin embargo, los únicos organismos que se reproducen a sí mismos son los
unicelulares. Un animal, por ejemplo, no es capaz de reproducirse a sí mismo ni de
reproducir por sí solo su programa de ADN; es el sexo con una pareja lo que produce un
vástago, que será distintos de sus dos progenitores y que tendrá un programa de ADN
distinto. Y, como se ha apuntado previamente, existen especies, como las mulas y las
hormigas obreras, que no pueden tener descendencia y satisfacen igualmente los criterios
(1) y (2). De ahí, que este intento no consigue alcanzar su objetivo.
La trama de la vida de Capra

Después de rechazar el reduccionismo como método para explicar la vida, el


antiguo físico teórico, Fritjof Capra, intentó realizar una síntesis de las teorías de sistemas
desarrolladas a partir de las ideas pioneras que el físico, filósofo, economista y
revolucionario ruso, Alexander Bogdanov, presentó antes de la Primera Guerra Mundial (a
pesar de que Occidente no estuvo al corriente de las mismas hasta mucho después), las
propuestas de auto-organización en las que se basó Smolin, los patrones cibernéticos de
causalidad circular en las que se basa el concepto de retroalimentación, y las matemáticas
de la complejidad, para proponer una «teoría emergente» (que tal vez sería mejor etiquetar
como hipótesis en desarrollo) de la vida. El trabajo de los neurocientíficos chilenos
Jumberto Maturana y Francisco Varela ejerció asimismo una gran influencia sobre su
pensamiento.[34]
Capra defiende que los sistemas vivos se definen mediante tres criterios
completamente interdependientes: patrón de organización, estructura y proceso vital.
Patrón de organización
El patrón de organización es la configuración de relaciones que determina las
características esenciales del sistema; para un ser vivo, ese patrón es la autopoiesis.
Etimológicamente, el término significa «hacerse a sí mismo» o «autoproducción», pero
Capra utiliza la definición sugerida por Maturana y Varela en 1973 de un «patrón en red en
el que la función de cada componente consiste en participar en la producción y
transformación de los demás componentes de la red, de tal modo que se mantenga en todo
momento la circularidad general de la misma».[35] A mi entender, se refiere básicamente a
una red cerrada de procesos que se mantiene a sí misma continuamente.
Estructura
La estructura es la corporeización personificación física del patrón de organización
del sistema. En el caso de un ser vivo, se trata de una estructura disipativa, tal y como la
define Prigogine, es decir, un sistema que se mantiene en un estado estable alejado del
equilibrio termodinámico por un flujo de energía. Y mientras que una red autopoiética es
cerrada desde el punto de vista organizativo, es abierta desde el punto de vista estructural
porque la materia y la energía fluyen constantemente por ella.
Proceso vital
El proceso vital es la actividad implicada en la corporeización continua de un patrón
de organización autopoiético en una estructura disipativa; es la cognición, tal y como la
definió en la década de 1970 el antropólogo, lingüista y especialista en cibernética Gregory
Bateson y, más extensamente, Maturana y Varela, es decir, el proceso de conocer.
La autopoiesis y la cognición son, pues, dos aspectos distintos del mismo fenómeno
vital: todos los sistemas vivos son sistemas cognitivos y la cognición siempre implica la
existencia de una red autopoiética.
Capra defiende que la autopoiesis es la característica definitoria de la vida. Pero esto
presenta un problema, puesto que Maturana y Varela utilizan la jerga de las teorías
generales de sistemas, junto con modelos matemáticos para producir una descripción
abstracta y generalizada de lo que consideran el sistema vivo más simple, la célula. A pesar
de que considero importante evitar características que son tan específicas que producen
argumentos circulares (como sucede con el «metabolismo»), Maturana y Varela utilizan la
autopoiesis de un modo tan abstracto que la definen como la característica invariable de un
sistema vivo y sin hacer referencia a cosas como la función o el propósito. Afirman que la
conducta de un sistema es algo adscrito al mismo por alguien que observa su interacción
con su entorno y que no es característica del sistema en sí.
Sin embargo, si una interacción concreta de un sistema con su entorno se produce
invariablemente, se tratará, sin lugar a dudas, de una característica de ese sistema. Según las
descripciones de Maturana y Varela, una interacción invariable de un sistema autopoiético
con su entorno es aquella que tiene como finalidad reparar y mantener el sistema. Sin esta
finalidad, u objetivo, la entidad viva muere.
Ausencia de finalidad

La ausencia de finalidad como característica de las cosas vivas está extendida entre
los científicos; rara es la vez, si alguna, que tener una finalidad aparece en sus listados. Hay
científicos que parecen confundir teología con teleología (la explicación de los hechos en
términos de finalidad) y temen mencionar una finalidad por miedo a que alguien los acuse
de insinuar con ello la existencia de un creador divino que diseña dicha finalidad. Ni mucho
menos. Otros eluden el término porque, normalmente, una finalidad implica una intención.
De hecho, los actos de los animales son intencionados: el lector que gira las páginas de este
libro para leer su contenido, el halcón que se abalanza en picado para cazar un ratón. Sin
embargo, los actos de las formas de vida más primitivas, como la planta que abre sus hojas
a la luz del sol para generar energía mediante fotosíntesis o la bacteria que nada hacia una
fuente de comida, se consideran en general como respuestas a los estímulos, instintivas o
internamente dirigidas, y no actos intencionados. De ahí que probablemente sea mejor
utilizar la expresión «acto internamente dirigido» como característica de todas las formas
de vida; no existe ninguna ley física o química que diga que usted, el halcón, la bacteria o la
planta tendría que actuar de una determinada manera y no existe ningún ser no vivo, como
el agua o una piedra, que lleve a cabo actos dirigidos internamente.
La vida cuántica de McFadden

Johnjoe McFadden, profesor de Genética molecular de la Universidad de Surrey,


Inglaterra, es uno de los científicos que no elude esta característica. De hecho, define la
vida como la capacidad de realizar actos dirigidos contra fuerzas exteriores dominantes.
En apoyo a su propuesta cita, entre otros ejemplos, un salmón que nada contra la
corriente de las aguas inanimadas de un río bajo la fuerza de la gravedad porque el salmón
tiene la finalidad de llegar a su zona de desove río arriba.
La vida, sugiere McFadden, desafía el determinismo, el principio que es la base de
la mecánica newtoniana y que dice que el estado presente o futuro de cualquier sistema está
única y exclusivamente determinado por su pasado: si conocemos la configuración exacta
de cualquier sistema y le aplicamos al mismo las leyes de la física y de la química,
podremos calcular su conducta futura. Pero no podemos explicar la vida solo a través de la
ciencia clásica, que es incapaz de explicar cómo las criaturas vivas pueden dirigir sus actos
según los dictados de su agenda interna, como hace el salmón.
Su solución no consiste en invocar un creador divino que infunde una finalidad a los
seres vivos, sino en proponer que lo que explica cómo es posible que los seres vivos actúen
al contrario de lo que indican las leyes clásicas de la naturaleza es el movimiento de las
partículas fundamentales, que está regido por las leyes no deterministas de la teoría
cuántica.[36]
Consideraré esta idea con mayor detalle en el próximo capítulo, puesto que
McFadden continúa en sus propuestas y presenta una teoría cuántica de la aparición y la
evolución de la vida.
Definición funcional de vida

Para comprender cómo apareció la vida a partir de los átomos y las moléculas que
constituyeron la Tierra, necesitamos tener claro qué es la vida. Como hemos visto, llegar a
una definición razonable no es ni mucho menos fácil y ni científicos ni filósofos se ponen
de acuerdo al respecto. La definición funcional que propongo es la siguiente:
Vida: la capacidad de una entidad cerrada de responder a los cambios que se
producen dentro de sí misma y en su entorno, de extraer energía y materia de su entorno y
de convertir esa energía y esa materia en una actividad dirigida internamente que incluya el
mantenimiento de su propia existencia.
Una forma de vida puede tener capacidad para producir descendientes, pero no es
una característica necesaria.
Conclusiones

Esta definición rechaza el argumento de que no existe distinción entre lo que está
vivo y lo que no lo está: las cosas que no están vivas no son necesariamente cerradas y no
poseen las funciones características y la actividad dirigida internamente de las cosas vivas.
El hecho de que la frontera entre una cosa y otra sea muy difusa, como sucede en el caso un
virus, no implica que esa frontera no exista. El cambio de lo no vivo a lo vivo representa no
solo una simple diferencia de grado, sino una diferencia de tipo. Se trata de una diferencia
cualitativa, análoga a un cambio de fase, del mismo modo que el agua en estado gaseoso es
cualitativamente distinta del agua en estado líquido y no es simplemente agua más caliente,
por mucho que la superficie con burbujas del agua hirviendo no sea una frontera clara.
Cómo y cuándo tuvo lugar este cambio es algo que examinaré en el siguiente
capítulo.
[1]Nagler (1987), p. 265.
[2]Upanishads (1987), pp. 155–172.
[3]Nagler (1987), p. 265.
[4]Moira Yip, profesora de Fonética y lingüística del University College de
Londres, comunicación personal, 28 de enero de 2008.
[5]Gottlieb (2001), pp. 13–14.
[6]Ibid, p. 311.
[7]Ibid, pp. 230–239; «Vitalism», The Oxford Dictionary of Philosophy, Oxford
University Press, Oxford, 2005
[8]Bechtel, William y Richardson, Robert C., «Vitalism», Routledge Encyclopedia
of Philosophy editada por E. Craig, Routledge, Londres, 1998.
[9]Krieger (1993), p. 7.
[10]Krieger, Dolores, «Therapeutic Touch: The Imprimatur of Nursing», The
American Journal of Nursing 75: 5, 1975, pp. 784–787.
[11]Gordon, A., et al., «The Effects of Therapeutic Touch on Patients with
Osteoarthritis of the Knee», J Fam Pract, 47: 4, 1998, 271–277.
[12]Rosa, Linda, et al., «A Close Look at Therapeutic Touch», JAMA, 279: 13,
1998, pp. 1005–1010.
[13]Bohm (1980).
[14] Véase página 95.
[15]Laszlo (2006).
[16]Sheldrake (2009).
[17]Maddox, John, «A Book for Burning?», Nature, 293, 1981, pp. 245–246.
[18]Stenger, Victor J., «Bioenergetic Fields», The Scientific Review of Alternative
Medicine, 3, 1991, p. 1
[19]Wilson (1998), p. 58.
[20] Utilizo el término «reduccionismo» en su sentido científico y no hago
referencia a ninguna versión del reduccionismo metafísico.
[21]Crick (1995). p. 11.
[22]Davies (1990), p. 61.
[23]Citado por ibíd, pp. 61–62.
[24]Citado en McFadden (2000), p. 13.
[25]Davies (1990), p. 59,
[26]Ibíd, p. 65.
[27] Véase página 248.
[28] Véase página 247.
[29] Véase página 247.
[30]Ball, Philip, «What Is Life? Can We Make It?», Prospect, agosto, 2004, pp. 50–
54.
[31]Véanse, por ejemplo, las definiciones de virus que aparecen en Gale Genetics
Encyclopedia, 2003; McGraw-Hill Science and Technology Encyclopedia, 2005; Columbia
Electronic Encyclopedia. Consultado el 31 de Julio de 2008.
[32] Véase página 354 para su definición.
[33]Smolin (1998), p. 194.
[34]Capra (1997).
[35]Ibíd, p. 96.
[36]McFadden (2000), pp. 13–16.
CAPÍTULO 14. EL ORIGEN DE LA VIDA 1: EVIDENCIAS

Observando el desarrollo de las cosas desde su origen […] se obtendrá la visión


más clara.

Aristóteles, siglo iv a. C.

Intentaré establecer cómo se originó la vida en la Tierra examinando las evidencias


de las primeras formas de vida que aparecieron en ella, independientemente de si la vida se
inició como un fenómeno único en la Tierra —de ser este el caso, todas las formas de vida
actuales serían descendientes de un antepasado común— o si distintas formas de vida se
iniciaron en distintos lugares y en distintos momentos, y cuáles son las características de
estas primeras formas de vida. En el capítulo siguiente, evaluaré las muchas hipótesis que
se han propuesto para explicar cómo se originaron estas formas de vida a partir de una
Tierra inanimada.
Evidencias directas

A pesar de que no existe una definición aceptada por todos sobre lo qué es la vida,
la mayoría de científicos se muestra de acuerdo en que las primeras formas de vida
debieron de ser las más sencillas. La primera de ellas fue una procariota autosuficiente, una
célula cuyo material genético no está encerrado en un núcleo. Biólogos y geólogos buscan
evidencias de estas formas de vida a partir de dos fuentes: los fósiles y los extremófilos,
organismos que actualmente viven en las condiciones extremas que se consideran
semejantes a las de la Tierra primitiva.
Fósiles

Los fósiles son los restos mineralizados o conservados de distintas formas de vida.
Normalmente se encuentran en rocas sedimentarias, aunque las temperaturas muy bajas, la
desecación o un ambiente anóxico (sin oxígeno) podría haber evitado también su
descomposición.
Los científicos que intentan localizar los fósiles más antiguos se enfrentan con dos
problemas. En primer lugar, hay muy pocos organismos fosilizados: en su mayoría han sido
devorados —vivos o muertos— por otros organismos o se han descompuesto después de su
muerte. En segundo lugar, los escasos fósiles que han llegado hasta nosotros se formaron
cuando los sedimentos —arena o barro, por ejemplo— cubrieron rápidamente el organismo
después de su muerte, es decir, lo comprimieron e integraron con la roca sedimentaria. Pero
apenas tenemos rocas sedimentarias de los primeros mil millones de años de existencia de
la Tierra y las que han llegado hasta nosotros están metamorfoseadas por procesos que
suelen destruir prácticamente por completo cualquier resto fósil.
Hasta 1993, las evidencias más tempranas eran las que se encuentran en las capas de
chert —una roca sedimentaria de grano fino—, de la cordillera de Gunflint, en la región
occidental de Ontario, Canadá. Entre 1953 y 1965, el botánico Elso Barghoorn, de la
Universidad de Harvard, y el geólogo Stanley Tyler, de la Universidad de Wisconsin,
descubrieron fósiles estructuralmente bien conservados y con morfología bien definida de
doce nuevas especies, incluyendo entre ellas microorganismos ramificados complejos cuya
antigüedad, determinada por la datación radiométrica de las capas de chert, se estableció en
torno a los dos mil millones de años.[1] Si estas estructuras complejas son la evolución de
formas de vida más simples, se deduce que la vida empezó a existir en un momento más
temprano.
Bill Schopf, paleobiólogo de la Universidad de California, Los Angeles, se propuso
descubrir estas formas de vida más antiguas investigando las rocas sedimentarias del cratón
de Pilbara, en el oeste de Australia, que, según una datación radiométrica uranio-plomo
muy precisa, tenían 3.465 miles de millones de años de antigüedad. Dichas rocas habían
sufrido metamorfosis, pero en 1993 el científico anunció que había descubierto once
microfósiles con estructuras distintas pertenecientes a distintas especies de cianobacterias
(bacterias verdeazuladas clasificadas previamente como algas). Sustentó su afirmación con
el análisis del contenido en isótopos de carbono de los fósiles. Se trata de una técnica
similar al método de datación con radiocarbono descrito previamente.[2] El isótopo más
común, el carbono-12, es más reactivo que el carbono-13 y participa en la fotosíntesis,
proceso por el cual los organismos metabolizan el dióxido de carbono de la atmósfera para
transformarlo en carbono orgánico. En consecuencia, la proporción entre carbono-13 y
carbono-12 en el carbono biogénico es un tres por ciento inferior que en el carbono
inorgánico, y esta proporción se conserva a lo largo de los procesos metamórficos que
destruyen los microfósiles. Schopf declaró que los ejemplares que había descubierto
mostraban esta proporción tan característica.[3]
El anuncio causó sensación en su momento. Lo que aquello implicaba era que
incluso antes de lo que se imaginaba habían existido formas de vida menos complejas. La
datación las situaba a finales del eón hádico, cuando la tierra estaba siendo bombardeada
por asteroides y otros desechos de la formación planetaria.
Se abrió entonces la veda para buscar evidencias. Stephen Mojzsis, estudiante de
doctorado del Scripps Institution of Oceanography de la Universidad de California, San
Diego, viajó al cinturón de Isua, en el oeste de Groenlandia, que contenía unas rocas que
habían sido datadas con una antigüedad de 3,8 miles de millones de años. Las rocas habían
sufrido un proceso de metamorfosis mayor incluso que las de Pilbara. Se estimaba que a lo
largo de mil millones de años de deposición de sedimentos, las rocas se habían visto sujetas
a temperaturas de 500º Celsius y a presiones superiores a 5.000 atmósferas, lo que en teoría
tendría que haber destruido cualquier fósil. Pero Mojzsis y su equipo anunciaron en 1996
que habían encontrado evidencias de vida no solo en aquellas rocas, sino también en rocas
50 millones de años más antiguas de la cercana isla de Akilia, lo que situaba las primeras
evidencias de vida hace 3,85 miles de millones de años, dentro del eón hádico.
Las trazas de carbono consistían en glóbulos increíblemente minúsculos —de una
billonésima de gramo—, pero Mojzsis decidió analizarlos mediante una microsonda de
iones y calculó su composición isotópica con un espectrómetro de masas de sector
magnético. Las pruebas delataron la característica reducción de carbono-13. Además de
esto, el equipo había encontrado estas trazas de carbono incrustadas en granos de apatita; a
pesar de ser un mineral común en pequeñas cantidades en muchas rocas, se encuentra
también en organismos, de modo que las evidencias sugerían la presencia de vida por
partida doble.[4]
A pesar de las muchas preguntas suscitadas por la edad de la roca Akilia, durante
seis años los paleobiólogos aceptaron la evidencia de que se había detectado vida durante el
eón hádico.
Pero en 2002, Christopher Fedo, del departamento de Ciencias medioambientales y
de la tierra, de la George Washington University, y Martin Whitehouse, del laboratorio de
Geología isotópica del Museo de Historia natural de Suecia, desafiaron la afirmación de
Mojzsis de que el descubrimiento de carbono se había realizado en capas de una roca
sedimentaria conocida como formación de hierro bandeado. Su análisis de la roca llegaba a
la conclusión de que era ígnea, formada a partir de antigua actividad volcánica y, en
consecuencia, no podía contener reliquias orgánicas. El desafío daba a entender también
que no podía asumirse que la disminución de carbono-13 fuera debida única y
exclusivamente a la actividad biológica.[5] Mojzsis y sus colegas desafiaron entonces los
datos de Fedo y Whitehouse y la interpretación que habían hecho de los mismos.[6]
Aquel mismo año, Martin Brasier y sus colegas de la Universidad de Oxford
anunciaron que habían examinado con detalle las muestras de Schopf, y que la afirmación
de Schopf de que la morfología de los ejemplares que había descubierto indicaba
indiscutiblemente que se trataba de células no era válida y mucho menos que fueran
cianobacterias. Brasier sostenía que los glóbulos de carbono debían de haberse formado por
la acción del agua hirviente sobre los minerales del sedimento circundante.[7] Schopf
defendió su posición, pero sus argumentos quedaron debilitados por las declaraciones de la
estudiante que había colaborado en su día en la investigación, Bonnie Packer, que adujo
que Schopf había sido selectivo a la hora de presentar evidencias y que había ignorado sus
protestas al respecto.[8]
En 2006 y 2007, el equipo de Mojzsis que había trabajado en la isla de Akilia
respondió a las críticas, pero el punto de vista generalizado entre los científicos
interdisciplinarios que trabajan en este campo es que las evidencias no sostienen hasta el
momento la afirmación de que los primeros rastros de vida en la Tierra se remonten a 3,85
miles de millones de años. Las evidencias actuales solo sustentan la hipótesis de que los
organismos conocidos como extremófilos existían hace aproximadamente 3,5 miles de
millones de años, es decir, alrededor de mil millones de años después de la formación de la
Tierra.
Extremófilos

El anuncio de Mojzsis de que había encontrado indicios de vida en el periodo


correspondiente al último bombardeo de asteroides y otros desechos debilitó el interés por
el estudio de los extremófilos. Cuatro de ellos nos ofrecen pistas prometedoras sobre los
organismos que podrían haber existido en las condiciones extremas de aquel periodo. Se
trata de los termófilos de superficie, los termófilos sub-oceánicos, los acidófilos de cueva y
los termófilos subterráneos.
Termófilos de superficie
Los termófilos son organismos que viven en temperaturas muy elevadas. En 1967,
el microbiólogo Thomas Brock, de la Universidad de Wisconsin, aisló algas y bacterias en
la capa de desechos calientes que flotaba sobre la superficie del agua de un manantial
volcánico del parque nacional de Yellowstone, Wyoming, donde el agua de lluvia que se
filtra a través de las rocas de la superficie se combina con el magma caliente del interior y
emerge al exterior en forma de agua y vapor a temperaturas elevadísimas para formar
lagunas calientes.
Termófilos sub-oceánicos
Explorando el fondo oceánico del Pacífico a bordo de una campana de buceo
especialmente construida para este fin, el geólogo John Corliss, de la Oregon State
University, y el geoquímico marino John Edmond, del Massachusetts Institute of
Technology, descubrieron en 1979 anémonas de mar, mejillones, almejas gigantes,
langostas en miniatura y unos peces de color rosa con ojos saltones parecidos a pequeñas
serpientes viviendo en la más absoluta oscuridad y bajo una presión inmensa en las aguas
relativamente frías que rodean emanaciones de agua calentada hasta 400º Celsius por el
magma de la fosa de las Galápagos, a unos 2.500 metros por debajo de la superficie.[9] En
las paredes calientes con lava incrustada de las chimeneas volcánicas pueden crecer
bacterias a temperaturas incluso de 121º Celsius.[10] A falta de luz de sol, extraen la
energía para subsistir del sulfuro de hidrógeno.
Acidófilos de cueva
Un acidófilo es un organismo que vive en condiciones de acidez elevada. En la
primera década del siglo xxi, Diana Northup, del departamento de Biología de la
Universidad de Nuevo México, y Penny Boston, del departamento de Ciencias
medioambientales y de la tierra del New Mexico Institute of Mining and Technology,
examinaron la cueva de Villa Luz, cerca de Tabasco, México. Había una atmósfera nociva,
con concentraciones elevadas de monóxido de carbono, un potente olor a sulfuro de
hidrógeno y las paredes empapadas con un ácido sulfúrico tan fuerte como el ácido de una
batería. Colgadas del techo de la cueva, como si fueran estalactitas, encontraron colonias de
unas bacterias conocidas como snottites, llamadas así porque tienen la consistencia de un
moco («snnot», en inglés). Las evidencias genéticas sugieren que estas snottites son
antiguas. Extraen su energía de la quimiosíntesis de los componentes sulfurosos volcánicos
y de las gotas de ácido sulfúrico caliente.[11]
El hecho de que las condiciones de la cueva recuerden las que se cree que existían
en la Tierra en sus orígenes, ha llevado a algunos microbiólogos a sugerir que representan
las formas de vida más primitivas.
Termófilos subterráneos
Independientemente de que se trate de termófilos sub-oceánicos, termófilos de
superficie o acidófilos de cueva, su parecido con las primeras formas de vida de la Tierra es
debatible. Por lo que a los primeros se refiere, depende de cuándo empezaron a existir en la
Tierra los océanos profundos. Tanto la propuesta de hace 4,3 miles de millones de años que
defiende Mojzsis, como la de hace 4,35 miles de millones de años que defienden Watson y
Harrison ha quedado en entredicho.[12]
James Hall, microbiólogo de la Princeton University, cree que los termófilos de
superficie y los acidófilos de cueva no podrían haber sobrevivido el último gran bombardeo
de asteroides y que representan una segunda generación de vida. Tanto él como otros
especialistas del nuevo campo científico de la geomicrobiología (que aúna los
conocimientos de la geología, la geofísica, la hidrología, la geoquímica, la bioquímica y la
microbiología) han volcado su investigación en las profundidades subterráneas, donde la
vida habría quedado protegida de los impactos.
Obtienen sus evidencias aprovechando prospecciones petrolíferas y pozos mineros.
Estos últimos son los que les han proporcionado las fuentes mejores y de mayor
profundidad. En 2006, por ejemplo, Tullis Onstott, geocientífico de la Universidad de
Princeton, lideró un equipo multidisciplinario que acompañó a un grupo de ingenieros de
minas en la perforación de una roca de 2,7 miles de millones de años de antigüedad hasta
2,825 metros de profundidad en la mina de oro de Mponeng, en el West Rand sudafricano.
Cuando la perforadora impactó contra unas fisuras en las rocas, emergió agua salada con un
olor muy fuerte y que contenía microbios termofílicos que murieron al entrar en contacto
con el oxígeno. En vez de obtener su energía de la luz del sol, conservaban su existencia
gracias a la descomposición que sufría el agua como consecuencia de la desintegración
radiactiva del uranio, el torio y el potasio. Su metabolismo era considerablemente más
lento, y a buen seguro menos eficiente, que el de los microbios de superficie. Los análisis
del agua demostraron que llevaba muchos millones de años aislada de la superficie y que
los hidrocarburos del ambiente no provienen de los organismos vivos, como es habitual.
[13]
A pesar de que los análisis genéticos indican que algunos de estos extremófilos son
antiguos, esto no constituye una prueba empírica de que dichas formas de vida existiesen en
las condiciones extremas que se cree que reinaban durante el eón hádico, que se expande
durante unos 700 millones de años después de que la Tierra se formara, hace 4,5 miles de
millones de años. También es posible que evolucionaran a partir de otras formas de vida,
adaptándose a los ambientes de elevadas temperaturas, alta acidez, fuertes presiones y
ausencia de luz solar que se desarrollaron cerca de las chimeneas de magma a medida que
los océanos ganaron profundidad y hasta donde fueron transportados por las corrientes de
agua.
Evidencias indirectas

A falta de evidencias empíricas irrefutables, volcaré mi atención a las hipótesis


sobre los inicios de la vida en la Tierra y sobre si la vida tal y como la conocemos en la
actualidad tuvo un solo antepasado o si se originaron diferentes formas de vida.
Varios científicos han sugerido que la vida pudo empezar distintas veces y que los
bombardeos de asteroides terminaron con aquellas formas de vida. Sin el mínimo
fragmento de evidencia que apoye estas ideas, se quedan en pura especulación; además,
ninguna de ellas aborda el tema de si cualquiera de estos múltiples inicios fue a partir de
antepasados comunes idénticos o distintos.
Análisis genéticos

Carl Woese, de la Universidad de Illinois, descubrió que los genes que codifican el
ARN de los ribosomas (las unidades de la célula que fabrican las proteínas) son antiguos y
existen en todo tipo de organismos. En 1977, publicó el análisis genético de pequeñas
subunidades ribosomales de ARN de un amplio abanico de células y las clasificó según su
similitud molecular. Asumiendo que las diferencias representaban un cambio evolutivo,
declaró que el árbol genealógico genético resultante describe los linajes evolutivos de
manera más precisa que el registro fósil incompleto o los puntos de vista subjetivos acerca
del tamaño y la forma de los organismos.[14]
La figura 14.1 muestra la versión actualizada por el biólogo molecular Norman Pace
del árbol filogenético de Woese, agrupando las células en tres dominios.
Distintos autores utilizan nombres distintos para estos tres grupos de formas de
vida. Siguiendo el trabajo pionero de Woese, los nombres que aparecen en el diagrama
fueron adoptados para distinguir con claridad entre los dos tipos de procariotas, los
dominios Arqueas y Bacterias, y los utilizaré por el bien de la consistencia; recientemente,
sin embargo, biólogos evolutivos han retomado los nombres originales de arqueobacterias y
eubacterias teniendo en cuenta los análisis de genomas completos que consideraré más
adelante.
Bacterias: organismos unicelulares extremadamente pequeños cuya información
genética, codificada en un bucle de ADN de doble hebra, no queda encerrada en un núcleo
delimitado por una membrana (y por lo tanto son procariotas). Además de este nucleoide, la
célula puede incluir uno o más plásmidos, hebras circulares de ADN capaces de replicarse
independientemente y que no son responsables de la reproducción del organismo. Suelen
reproducirse dividiéndose en dos y produciendo copias idénticas de sí mismas. Presentan
diversas formas, destacando entre ellas las esferas, las barras, las espirales y las comas.
Arqueas: procariotas que se diferencian de las bacterias tanto en su composición
genética como en la de sus membranas plasmáticas y sus paredes celulares. Incluyen la
mayoría de los extremófilos. A pesar de ser estructuralmente similares a las bacterias, su
ADN cromosómico y su maquinaria celular se parecen más a los de las eukarya.
Eucariotas: organismos cuyas células incorporan un núcleo delimitado por una
membrana y que contiene la información genética de la célula, además de orgánulos, que
son estructuras discretas que realizan funciones concretas. Más grandes y tanto estructural
como funcionalmente más complejas que las procariotas, comprenden organismos
unicelulares, como las amebas, y todos los organismos multicelulares, como las plantas, los
animales y el ser humano.
La mayoría de células eucariotas se replica para producir copias idénticas de sí
mismas. Sin embargo, los organismos multicelulares comprenden un tipo de célula
eucariota, el gameto, capaz de fusionarse con un gameto de otro organismo para producir
un organismo hijo que posee características genéticas de cada progenitor. Esta reproducción
sexual, pues, combina genes parentales distintos en una célula hija, a diferencia de la
reproducción asexual de las procariotas.
¿Antepasado universal común?

Prácticamente todos nuestros conocimientos de biología derivan del análisis de las


plantas, los animales y el hombre. En el árbol filogenético universal que acabamos de
mostrar, sin embargo, los hongos representados por el género Coprinus, las plantas
representadas por el género Zea, y los animales y el hombre representados por el género
Homo, no son más que tres sub-ramas pequeñas y periféricas de unas de las doce ramas
genéticamente diferenciadas de las Eucariotas (algunas de las cuales poseen también sub-
ramas), separadas de las mucho más numerosas ramas del dominio de las Bacterias y las
Arqueas.
Los organismos vivos que conocemos actualmente solo tienen en común un
centenar de genes, pero los análisis que permiten apreciar pérdidas de genes específicos de
cada linaje sugieren la existencia de un último antepasado universal común (LUCA, del
inglés «Last Universal Common Ancestor»), indicado como «Raíz» en el diagrama, que tal
vez poseyera diez veces más genes que eso.[15]
La naturaleza de LUCA sigue siendo tema de discusión entre los biólogos
especializados en la evolución. La conclusión de Woese es que:
El antepasado no puede haber sido un organismo concreto […]. Fue una
conglomeración comunitaria, poco cohesionada y diversa, de células primitivas que
evolucionó como unidad y que acabó desarrollándose hasta alcanzar una fase en la que se
disgregó en varias comunidades distintas, que a su vez se convirtieron en las tres
principales líneas de descendencia [bacterias, arqueas y eucariotas].[16]
Desde principios del siglo xxi se han descubierto importantes transferencias
genéticas de carácter horizontal (conocidas también como transferencias genéticas
laterales) no solo entre procariotas relacionadas, sino también entre procariotas que no
están estrechamente relacionadas en los árboles filogenéticos.[17]
En 2009, varios biólogos especializados en la evolución propusieron que no existía
un antepasado universal común, sino que la vida emergió como «una población o
poblaciones con diversos organismos. Y además es probable que estos organismos no
convivieran en el mismo periodo de tiempo».[18]
Por lo que a la aparición de la vida se refiere, el problema que presenta la idea de
una población es que si cada miembro de esa población es un organismo, es decir, una
forma de vida tal y como la entendemos y conforme con la definición de vida propuesta en
la página 333, esta teoría no nos dice a partir de qué o cómo apareció cada uno de esos
miembros; si los distintos miembros no son formas de vida independientes, la idea de la
población refuerza la conclusión alcanzada en el capítulo 13 de que la frontera entre lo que
está vivo y lo que no lo está es difusa; y una frontera, por difusa que sea, sigue siendo una
frontera.
En 2010, el bioinformático Douglas Theobald, de la Brandeis University, realizó
una comparación estadística de diversas hipótesis alternativas y llegó a la conclusión de que
Los test de selección de modelo apoyan abrumadoramente un antepasado universal
común, independientemente de la presencia de transferencia horizontal de genes y de
eventos de fusión simbiótica.[19]
Lo cual refuerza la opinión de la ortodoxia actual en el campo de la biología de que
la vida emergió en la Tierra una sola vez y de que existe un único antepasado común,
aunque los biólogos moleculares pugnan por situar este único antepasado común en el árbol
genealógico y por comprender cómo se relacionan con él los tres grandes grupos. El
consenso actual, que no por ello es unánime, es que la raíz se sitúa entre las Arqueas y las
Bacteria.
El hecho de que algunas arqueas sean extremófilos que viven en las condiciones que
se cree que había en la Tierra hace 3,5 miles de millones de años y que su genoma dé a
entender que son muy antiguos, sugiere que la primera forma de vida podría haber sido un
arqueón o un antepasado de un arqueón. El especialista en taxonomía de la Universidad de
Oxford, Tom Cavalier-Smith, se opone con vigor a este punto de vista y afirma que la
maquinaria celular de las Arqueas muestra que son descendientes lejanos de las Bacterias.
[20] Las evidencias no son en absoluto concluyentes y es poco probable que lleguen a serlo
algún día.
Tamaño, complejidad, estructura y funcionamiento de la célula más sencilla

Para poder evaluar las ideas sobre cómo apareció la vida en la Tierra, debemos antes
comprender, por un lado, las diferencias de tamaño, complejidad, estructura y
funcionamiento de las moléculas que evolucionaron sobre la superficie de la Tierra
primitiva, o que evolucionaron en los asteroides y cometas que las depositaron en la
superficie de la Tierra durante el bombardeo y, por el otro, el tamaño, la complejidad, la
estructura y el funcionamiento de la forma de vida independiente más sencilla que
conocemos, a saber, una procariota unicelular.
Tamaño

Las procariotas tienen entre una milésima y una centésima de milímetro de longitud
y se presentan de diversas formas, incluyendo entre ellas esferas, barras, espirales y comas.
Componentes y estructura

La figura 14.2 muestra los componentes y la estructura de una bacteria simple, que
son las mismas que las de un arqueón (sus diferencias bioquímicas y estereoquímicas no
tienen por qué preocuparnos aquí.)
Si examinamos las partes de esta célula y cómo interactúan entre ellas, veremos que
la clave del funcionamiento de una forma tan simple como esta es su ADN.
ADN
ADN: ácido desoxirribonucleico, localizado en las células, contiene las
instrucciones genéticas utilizadas para el mantenimiento y la reproducción de todos los
organismos independientes conocidos y de algunos virus.
Una molécula de ADN está formada por dos largas cadenas con cuatro nucleótidos
dispuestos en una secuencia característica; las cadenas (denominadas comúnmente
«hebras») están trenzadas en una doble hélice y unidas mediante enlaces de hidrógeno entre
las bases complementarias de adenina (A) y timina (T) o citosina (C) y guanina (G), de tal
modo que su estructura recuerda la de una escalera de caracol.
Cuando se copia el ADN en una célula, las hebras se separan y actúan a modo de
plantilla para unir una nueva cadena complementaria a partir de las moléculas de la célula.
Las hebras de ADN actúan también como plantillas para la síntesis de proteínas en
la célula a través de un mecanismo que utiliza otro ácido nucleico, el ARN, como
intermediario.
ARN: el ácido ribonucleico se parece al ADN porque consiste en una cadena de
cuatro nucleótidos dispuestos en una secuencia característica, pero aquí el uracilo (U)
sustituye a la timina (T) que, junto con la adenina (A), la citosina (C) y la guanina (G)
forman las bases de los nucleótidos, y las hebras son únicas, excepto en determinados virus.
Gen: la unidad fundamental de la herencia, que normalmente comprende segmentos
de ADN (en algunos virus son segmentos de ARN, no de ADN); la secuencia de las bases
de cada gen determina las características hereditarias individuales, codificando para la
síntesis de proteínas. Los segmentos suelen estar dispersos, de modo que algunas partes se
encuentran en regiones lejanas del cromosoma y se solapan con otros genes.
Cromosoma: es la estructura que contiene la información genética de la célula. En
una célula eucariota, consiste en hebras filiformes de ADN envueltas en una doble hélice
alrededor de un núcleo de proteínas dentro del núcleo de la célula; además de este
cromosoma nuclear, la célula puede contener otros cromosomas más pequeños, por
ejemplo, una mitocondria. En una célula procariota, consiste en un único bucle de ADN
estrechamente enrollado; la célula puede contener también una o más moléculas circulares
y más pequeñas de ADN, lo que se conoce como plásmidos.
En el arqueón o bacteria más simple, el cromosoma suele adoptar la forma de un
único bucle de ADN de doble hebra que se dobla para poder ubicarse en la célula, como
muestra la figura 14.2.
El físico, químico y filósofo Michael Polany señaló que mientras que la capacidad
de establecer pares de base del ADN (A-T y C-G) está totalmente determinada por las leyes
de la química, la secuencia de base del ADN no lo está. El ADN es capaz de formar
cualquier secuencia de bases concebible, de cualquier longitud y de cualquier composición.
La información que determina cómo funciona una célula, como se repara y como se replica
está contenida en cada secuencia concreta y es irreducible: no puede predecirse a partir del
conocimiento de sus partes constituyentes, ni a partir del comportamiento de estas, ni a
partir de las leyes de la física y la química.[21]
El hipotético antepasado común tenía probablemente entre 800 y 1.000 genes. La
bacteria Mycoplasma genitalium tiene unos 470 genes, que incluyen en torno a 580.000
pares de base de ADN. Pero se trata de un parásito que depende de otras células para llevar
a cabo la mayor parte de su trabajo de biosíntesis. De ahí que sea razonable suponer que,
para funcionar de manera independiente, esa célula más simple que debió de ser el
antepasado común debería de haber tenido al menos 600.000 pares de base de ADN. Como
que cada base forma parte de un nucleótido que incluye la base, un azúcar, y uno o más
grupos de fosfatos, lo que hace un total de un mínimo de 30 átomos, su cromosoma
consistiría en un mínimo de 36 millones de átomos dispuestos de un modo muy específico
y complejo que cambiaría con el funcionamiento de la célula.
Ribosoma
La célula fabrica proteínas para su propia reparación y mantenimiento mediante una
hebra de ADN que actúa a modo de plantilla para crear ARN mensajero a partir de las
moléculas de la célula. El ARN mensajero transporta entonces la información genética del
ADN, codificada en la secuencia de sus bases, hasta un ribosoma.
Ribosoma: partícula redonda compuesta por ARN y proteínas que se encuentra en
el citoplasma de las células. Actúa a modo de lugar de reunión de las proteínas y traduce el
código genético lineal que transporta un ARN mensajero y lo transforma en una secuencia
lineal de aminoácidos.
Proteína: molécula consistente en una cadena formada por entre 50 y varios miles
de aminoácidos que proporciona estructura a todas las células y controla reacciones. Una
proteína se caracteriza por la secuencia formada por los hasta los 20 tipos distintos de
aminoácidos que integran la cadena, más la configuración tridimensional de dicha cadena.
La arquea más simple sintetiza proteínas de entre 50 y 300 aminoácidos de longitud.
Aminoácido: una molécula que consiste en un átomo de carbono enlazado con un
grupo amino (-NH2), un grupo carboxilo (-COOH), un átomo de hidrógeno y un cuarto
grupo que difiere de un aminoácido a otro y que suele denominarse grupo-R o cadena
lateral. El grupo-R, que puede variar mucho, es el responsable de las diferencias en las
propiedades químicas de la molécula.
Los aminoácidos suelen producirse en dos formatos, o isómeros ópticos, en los que
se intercambian las posiciones del grupo-R y del grupo carboxilo. Este fenómeno se conoce
como quiralidad, y una de las formas recibe el nombre de dextrogira o D (del latín
«dexter», derecha), mientras que la otra recibe el nombre de levogira o L (del latín
«laevus», zurdo). Prácticamente todos los aminoácidos que encontramos en las células
tienen formato L.

El grupo carboxilo de un aminoácido puede combinarse químicamente con el grupo


amino de otro aminoácido liberando una molécula de agua para formar lo que se conoce
como un enlace peptídico.
Péptido: cadena de dos o más aminoácidos formada por la unión química del grupo
carboxilo de un aminoácido y el grupo amino de otro aminoácido.
Se trata de una reacción que en las células no se produce directamente, sino
mediante una secuencia, o ruta, de reacciones químicas intermedias en la que colaboran las
enzimas.
Enzima: catalizador biológico, o elemento químico, que acelera la velocidad de una
reacción química sin ser consumido por dicha reacción. Estos catalizadores son esenciales
para el funcionamiento de cualquier organismo porque hacen posibles procesos que, de otro
modo, se producirían con una lentitud excesiva sin la entrada de energía (medida a partir de
un incremento de temperatura) necesaria para activar la reacción, y dañarían o destruirían el
organismo.
Prácticamente todas las enzimas son proteínas consistentes en una cadena de entre
62 y aproximadamente 2.500 aminoácidos de longitud, y todas poseen una estructura
tridimensional específica y sofisticada que les permite catalizar reacciones bioquímicas
concretas.
Por norma, las cadenas que contienen unos 50 aminoácidos reciben el nombre de
proteínas, aunque la distinción entre un polipéptido y una proteína es arbitraria. Todas las
proteínas están formadas a partir de combinaciones de solo 20 aminoácidos de entre los
aproximadamente 500 aminoácidos conocidos.
Citoplasma
Todas estas actividades se desarrollan dentro del citoplasma de la célula.
Citoplasma: todo lo que queda en el exterior del núcleo de la célula y dentro de la
membrana celular. Consiste en un líquido gelatinoso con base acuosa denominado citosol,
que contiene sales, moléculas orgánicas y enzimas, y en el que flotan orgánulos, la
maquinaria metabólica de la célula.
Una procariota no tiene núcleo celular y sus orgánulos principales son el ADN y los
ribosomas.
Plásmido
Un plásmido (véase figura 14.2) es una molécula circular de ADN que se replica en
el interior de una célula independientemente del ADN cromosómico. Los plásmidos
aparecen en muchas procariotas, tienen distintas funciones, pero no son esenciales para el
crecimiento de la célula.
Cerramiento de la célula
La célula más simple queda encerrada —es decir, su citoplasma está separado del
ambiente exterior— por tres capas. La cápsula de la célula es la capa protectora más
externa, en su interior se encuentra la pared celular, que es semirrígida y estabiliza la
membrana plasmática (llamada también membrana celular) que rodea el citoplasma.
Estas capas son semipermeables para permitir el intercambio de agua y gases y a la
vez controlar el intercambio que determinadas moléculas tienen con el entorno exterior para
que la célula pueda repararse y mantenerse, y protegen además a la célula contra elementos
químicos destructivos. Las capas están hechas con una amplia variedad de moléculas, entre
las que siempre encontramos proteínas, que son las responsables de gran parte de la
estructura de la célula y, como hemos visto, están construidas con un complejo proceso que
empieza con el ADN.
Partes externas

La figura 14.2 muestra dos cosas en el exterior del cerramiento de la célula. Los pili
son apéndices de aspecto similar a un pelo que conectan una célula con otra de su especie o
con otra célula de una especie distinta. El pilus construye un puente entre los citoplasmas
de las células conectadas.
El flagelo es una especie de cola que se mueve como un látigo para impulsar la
célula a través de un fluido, a menudo hacia una fuente de energía o hacia las moléculas
necesarias para el mantenimiento de su existencia.
Formas cambiantes de las proteínas

Y por si la célula más simple no fuera ya bastante compleja de por sí, no basta con
que cada una de sus muchas proteínas y enzimas consista en una combinación de hasta 20
aminoácidos distintos dispuestos en una cadena de entre 50 y 300 de estos aminoácidos con
una secuencia característica, sino que además, para ser funcional, cada una de estas cadenas
debe tener la forma correcta. La mayoría de proteínas se dobla en estructuras únicas
tridimensionales y cambia su forma cuando toma parte de las distintas reacciones químicas.
La figura 14.6 y la figura 14.7 ilustran la complejidad de la forma de una proteína.

Conclusiones
1. Se han identificado evidencias fósiles concluyentes de vida, en forma de
microorganismos complejos, en rocas datadas hace dos mil millones de años, unos 2,5
miles de millones de años después de que se formara la Tierra. Suponiendo que estos
microorganismos evolucionaran a partir de formas de vida más sencillas, la vida debió de
existir antes de entonces. Se han lanzado teorías que defienden que la vida se inició hace
3,5 miles de millones de años, o incluso 3,8 o 3,85 miles de millones de años, lo que
situaría este inicio en el eón hádico, cuando la Tierra se vio bombardeada por asteroides y
otros desechos resultado de la formación del sistema solar, pero tanto las evidencias como
su interpretación son discutibles. La mejor estimación actual sitúa el origen de la vida hace
3,5 miles de millones de años.
2. El descubrimiento de extremófilos, organismos que viven actualmente en
condiciones extremas similares a las que se cree que debía de haber durante el eón hádico,
sugiere que la vida podría haber existido en aquellos tiempos, durante los primeros 700
millones de años después de la formación de la Tierra, pero no lo demuestra.
3. Debido a la escasez de registros fósiles en general, y debido a que prácticamente
todas las rocas sedimentarias de los primeros dos mil millones de años de existencia de la
Tierra han quedado subducidas o se han visto metamorfoseadas, es prácticamente seguro
que nunca encontraremos evidencias claras de las primeras formas de vida que nos ayuden
a entender cuándo aparecieron en la Tierra.
4. La forma de vida más sencilla, y seguramente la más primitiva de todas ellas, es
una procariota independiente, un organismo unicelular en el que la información genética
codificada en el ADN no está encerrada en un núcleo localizado dentro de la célula.
5. Los análisis genéticos de un amplio abanico de células sugiere con fuerza, aunque
no demuestra, que la vida apareció de forma natural en la Tierra de una vez y en una sola
ocasión y que todas las formas de vida actuales —desde los numerosos tipos de bacterias
hasta el ser humano— han evolucionado a partir de un único antepasado común.
6. Para funcionar de manera independiente, la procariota más sencilla necesita un
cromosoma en forma de bucle de hebras de ADN de doble hélice que esté integrado por un
mínimo de 36 millones de átomos configurados siguiendo una estructura específica. Estas
hebras se despliegan para actuar a modo de plantillas y sintetizar las hebras de ADN
idénticas necesarias para que, por un lado, la célula se replique y, por el otro, para que
sintetice las proteínas necesarias para su reparación y mantenimiento. Esta síntesis es un
proceso complejo que implica la producción de una hebra mensajera de ARN que
transporta la información genética del ADN codificada en la secuencia de sus bases
nucleotídicas hasta un ribosoma, una especie de fábrica que, en el líquido interior de la
célula, contiene ARN y proteínas. Los ribosomas utilizan esta información genética para
producir aminoácidos a partir de las moléculas de la célula. Los aminoácidos, que están
producidos en uno de los dos estereoisómeros posibles, el formato L, se enlazan en
reacciones químicas catalizadas por enzimas, que son proteínas complejas. Las proteínas
están formadas a partir de combinaciones de 20 aminoácidos, de entre los
aproximadamente 500 aminoácidos conocidos. Las distintas cadenas de aminoácidos
constituyen las distintas proteínas necesarias para actuar como catalizadores y reparar y
mantener la célula, incluido su ADN. La procariota más sencilla necesita proteínas
constituidas por cadenas de entre 50 y 300 de estas formas limitadas de aminoácidos y
siguiendo además una secuencia característica. Y para funcionar, cada una de estas cadenas
deberá adoptar estructuras cambiantes para de este modo crear los productos requeridos.
Todo esto está encerrado en el interior de las capas semipermeables de proteínas y otras
moléculas complejas que separan la célula del entorno exterior, protegiéndola de moléculas
nocivas y permitiendo, a la vez, que determinadas moléculas entren y salgan de la célula
según sean necesarias o desechables.
7. Cualquier hipótesis sobre la aparición de la vida en la Tierra debería explicar
cómo una célula de este tamaño y con tan elevada complejidad de componentes, funciones
y configuraciones cambiantes emergió a partir de la interacción entre los átomos y las
moléculas simples, constituidas por un máximo de 13 átomos, que se encontraban en la
superficie del recién formado planeta.
[1]Barghoorn, Elso S. y A. Tyler Stanley, «Microorganisms from the Gunflint
Chert», Science, 147: 3658, 1965, pp. 563–577.
[2] Véase página 281.
[3]Schopf, J. William, «Microfossils of the Early Archean Apex Chert: New
Evidence of the Antiquity of Life», Science, 260: 5108, 1993, pp. 640–646.
[4]Mojzsis, S. J., et al., «Evidence for Life on Earth before 3,800 Million Years
Ago», Nature, 384: 6604, 1996, pp. 55–59.
[5]Fedo, Christopher M. y Whitehouse, Martin J., «Metasomatic Origin of Quartz-
Pyroxene Rock, Akilia, Greenland, and Implications for Earth’s Earliest Life», Science,
296: 5572, 2002, pp. 1448–1452.
[6]Mojzsis, S. J. y Harrison, T. M., «Origin and Significance of Archean Quartzose
Rocks at Akilia, Greenland», Science, 298: 5595, 2002, pp. 917–917.
[7]Brasier, Martin D., et al., «Questioning the Evidence for Earth’s Oldest Fossils»,
Nature, 416: 6876, 2002, pp. 76–81.
[8]Dalton, Rex, «Microfossils: Squaring up over Ancient Life», Nature 417: 6891,
2002, pp. 782–784.
[9]McFadden (2000), pp. 26–27.
[10]Kashefi, Kazem y Lovley, Derek, R., «Extending the Upper Temperature Limit
for Life», Science, 301: 5635, 2003, p. 934.
[11]Henbest, Nigel, «The Day the Earth Was Born», Origins, Channel 4, Reino
Unido, 21 de febrero de 2004.
[12] Véase página 292.
[13]Lin, Li-Hung, et al., «Long-Term Sustainability of a High-Energy, Low-
Diversity Crustal Biome», Science, 314: 5798, 2006, pp. 479–482.
[14] La bióloga Lynn Margullis, por aquel entonces profesora distinguida de la
Universidad de Massachusetts, y otros criticaron la utilización de una única característica
para el estudio. Consideraré el asunto con mayor detalle cuando examine las evidencias de
la evolución biológica.
[15]Véase, por ejemplo, Ouzounis, Christos A., et al., «A Minimal Estimate for the
Gene Content of the Last Universal Common Ancestor: Exobiology from a Terrestrial
Perspective», Research in Microbiology, 157: 1, 2006, pp. 57–68.
[16]Citado en Doolittle (2000).
[17]Ragan, et al. (2009).
[18]Ibíd.
[19]Theobald, Douglas L., «A Formal Test of the Theory of Universal Common
Ancestry», Nature, 465: 7295, 2010, pp. 219–222.
[20]Cavalier-Smith, Thomas, «Deep Phylogeny, Ancestral Groups and the Four
Ages of Life», Philosophical Transactions of the Royal Society B: Biological Sciences, 365:
1537, 2009, pp. 111–132.
[21]Polanyi, Michael, «Life’s Irreducible Structure», Science, 160: 3834, 1968, pp.
308–1312.
CAPÍTULO 15. EL ORIGEN DE LA VIDA 2: HIPÓTESIS

Cualquiera que te diga que sabe cómo empezó la vida en la Tierra hace
aproximadamente 3,45 miles de millones de años es un imbécil o un tunante.

Stuart Kauffman, 1995

Si intentar averiguar cómo apareció la vida en la Tierra me convierte en un imbécil


o un tunante, quiere decir que estoy en la buena compañía de aquellos que creen saberlo.
Cualquier hipótesis científica sobre la aparición de la vida en la Tierra debería
explicar cómo las moléculas complejas de hasta trece átomos que encontramos en el
espacio interestelar y en los asteroides —y, por implicación, que se encontraban o fueron
depositadas en la Tierra primitiva—, evolucionaron hasta alcanzar el tamaño, la
complejidad, la estructura y la funcionalidad de la forma de vida más sencilla descrita en el
anterior capítulo. Es decir, cómo la materia inanimada acabó convirtiéndose en vida.
La «sopa primigenia» de Oparin y Haldane

La explicación ortodoxa básica es la que presentaron de forma totalmente


independiente el bioquímico ruso, Alexander Oparin, en 1924 y el genetista inglés, J. B. S.
Haldane, en 1929.
Según la versión de Oparin, la atmósfera de la Tierra primitiva estaba formada por
hidrógeno, metano, amoniaco y vapor de agua. La energía de la luz del sol y de los rayos
llevó a estas moléculas a combinarse para formar una mezcla de componentes orgánicos
simples. Con el curso de los milenios, estos componentes se fueron acumulando en los
océanos y formaron un caldo primigenio caliente y diluido que acabó produciendo un
nuevo tipo de molécula, capaz de replicarse a sí misma.
Esta replicación era ineficiente y produjo variaciones. De entre todas estas
variaciones, un mecanismo ultra-darwiniano seleccionó las más eficientes en cuanto a su
capacidad para replicarse a sí mismas. (Utilizo el término «ultra-darwiniano» cuando la
selección natural se aplica más allá, o fuera de, la evolución darwiniana de las especies.)
Estas moléculas auto-replicantes reclutaron proteínas para hacer su replicación más
eficiente, lo que acabó produciendo una membrana de cierre y la primera célula.
En 1953, Stanley Miller, un joven investigador que trabajaba en el laboratorio de la
Universidad de Chicago dirigido por Harold Urey, intentó someter esta hipótesis a un test
experimental. Para ello, hirvió agua en el fondo de un matraz que había llenado
previamente con hidrógeno, metano y amoniaco. Para simular la energía de los rayos y del
sol, sometió la mezcla a descargas eléctricas. Transcurrida una semana, en el matraz había
depósitos similares al alquitrán y trazas de al menos tres aminoacidos.[1] Los bioquímicos
aclamaron el experimento considerándolo la prueba experimental de la hipótesis de Oparin
y Haldane: si era posible producir aminoácidos en un matraz en solo una semana, en un
océano, y con el transcurso de miles de años, estos aminoácidos se habrían polimerizado
para formar péptidos y proteínas complejas, lo que habría dado lugar, con el tiempo, a la
primera célula.
Sin embargo, más de sesenta años de experimentos con distintas recetas de sopa
primigenia y condiciones distintas, no han conseguido producir nada que se parezca
remotamente a una molécula auto-replicante, y mucho menos una célula.
Los bioquímicos suelen explicarlo por la incapacidad de los experimentos de
laboratorio de replicar las inmensas escalas de tiempo que se consideran necesarias, pero
Johnjoe McFadden nos ofrece cinco razones por las que considera que nunca se podrá
generar vida de esta manera y, en consecuencia, por las que la hipótesis está equivocada.[2]
En primer lugar, el supuesto de Miller sobre la composición de la atmósfera primitiva de la
Tierra se considera erróneo en la actualidad, y lo que hoy en día se considera que fue la
atmósfera primigenia es mucho menos favorable a estas reacciones.
En segundo lugar, el producto principal de estas reacciones es porquería, una masa
con aspecto de alquitrán compuesta básicamente por hidrocarbonos, que es el resultado
inevitable cuando los ingredientes pueden tomar parte en un amplio rango de reacciones
posibles.
En tercer lugar, los aminoácidos producidos en las condiciones simuladas de la
Tierra primitiva son una mezcla de formas levógiras y dextrógiras, o isómeros ópticos.
Enlazar aminoácidos para producir péptidos y proteínas no funciona cuando ambos
formatos están presentes. Además, en las células solo se producen aminoácidos de formato
levógiro, y nadie ha sugerido hasta la fecha un mecanismo por el cual la sopa primigenia se
enriquezca para dar lugar a aminoácidos levógiros.
En cuarto lugar, las reacciones tienen lugar en una solución acuosa, lo que hace muy
difícil que los aminoácidos polimericen, o se enlacen, para producir proteínas. La unión
química de dos aminoácidos mediante un enlace peptídico implica la pérdida de una
molécula de agua, tal y como muestra la figura 14.5. Con tantas moléculas de agua en la
solución, la tendencia natural es que las moléculas de agua rompan los enlaces peptídicos
en una reacción conocida como hidrólisis, que es justo lo contrario de lo que muestra la
figura 14.5; por este motivo, en soluciones acuosas los polímeros biológicos tienden a
romperse, aunque lentamente. La hidrólisis no se produce en las células porque el enlace de
aminoácidos no se produce directamente, sino a través de una serie de reacciones que las
enzimas catalizan. Pero ya que estas enzimas son proteínas, no son válidas para crear las
primeras proteínas.
En quinto lugar, la selección natural darwiniana depende del gradualismo: cada
pequeño paso en la escalera evolutiva debe surgir por mutación aleatoria, debe ser viable
para producir descendientes y debe representar una mínima mejora, en cuanto a adaptación
al entorno, con respecto a su progenitor. La célula más simple examinada en el capítulo
anterior, una procariota unicelular (véase figura 14.2), no pudo surgir por pura casualidad.
¿De dónde salieron las proto-células? Si las proto-células surgieron por selección natural,
cualquier antepasado podría haber sido viable, pero no existe ningún registro fósil de
ninguna proto-célula.
Me gustaría añadir que si los actuales intentos de Craig Venter y sus colegas del J.
Craig Venter Institute de producir una célula viva uniendo sus distintos componentes
alcanza el éxito, no solo demostrará experimentalmente la hipótesis de Oparin y Haldane,
sino que además demostrará que es posible producir vida por deseo inteligente, la
inteligencia de Venter, en este caso.
ARN auto-replicante

Puesto que la probabilidad de que la primera célula independiente auto-replicante


sea resultado de las reacciones aleatorias de las moléculas simples de la sopa primigenia es
virtualmente nula, los bioquímicos buscaron un replicador primigenio plausible. El
candidato favorito es la molécula de ARN auto-replicante, que no necesita enzimas para
funcionar.
En este caso, una molécula auto-replicante de ARN produce ineficientemente copias
de sí misma. La selección natural ultra-darwiniana favorece aquellos productos que
demuestran mayor eficiencia a la hora de producir descendientes. Al final, estas versiones
más eficientes catalizan el enlace de aminoácidos para producir proteínas que ayuden a su
replicación y formen una membrana protectora, que las hace más eficientes si cabe.
Finalmente, generan ADN, que resulta ser un repositorio de la información genética más
estable, produciendo de este modo la primera célula.
Esta hipótesis, conocida comúnmente como el Mundo de ARN, es en la actualidad
la explicación ortodoxa del origen de la vida en la Tierra. La base experimental la aporta el
descubrimiento de que las ribozimas, fragmentos cortos de ARN, pueden actuar a modo de
enzimas para catalizar muchas reacciones bioquímicas: pueden unir dos moléculas de ARN
y polimerizar hasta seis bases de ARN en una plantilla de ARN. Además, muchos virus,
como el virus de la gripe, tienen un ARN no un genoma ADN, lo que sugiere que una
molécula de ARN enzimático catalizó su propia replicación y que ese ARN que
encontramos en las células modernas es el residuo evolutivo del ARN auto-replicante
original.
Según McFadden, sin embargo, esta hipótesis presenta los mismos problemas que la
hipótesis de la sopa primigenia: la polimerización del ARN excluye el agua y no se produce
naturalmente en una solución acuosa; la polimerización del ARN catalizado con ribozimas
no funciona con una combinación de bases nucleotídicas levógiras y dextrógiras, y nadie ha
sugerido un mecanismo prebiótico que enriqueciera una forma quiral de bases de ARN por
encima de la otra.
Experimentalmente, nadie ha diseñado, y mucho menos descubierto, una molécula
de ARN auto-replicante. Una molécula de ARN consta de tres partes: las bases A, U, C y G,
un monosacárido llamado ribosa y un grupo fosfato. Comprende cerca de 50 átomos que
tienen que estructurarse de una forma muy concreta. Una hebra de la figura 14.3, en la que
U sería el sustituto de T, nos da una indicación. A pesar de que los científicos han alcanzado
cierto éxito en la síntesis de las bases y los grupos fosfatos a partir de moléculas más
sencillas, lo han conseguido tan solo a través de una serie de reacciones meticulosamente
controladas para evitar la basura que se genera al simular las condiciones naturales. Por
otro lado, han sido incapaces de producir una solución enriquecida con ribosa.
Graham Cairns-Smith, químico orgánico y biólogo molecular de la Universidad de
Glasgow, sostiene que no existen posibilidades razonables de que de una sopa primigenia
emergiera un ARN auto-replicante. Estima que en la síntesis de una base de ARN a partir
de componentes prebióticos simples hay alrededor de 140 pasos. En cada uno de estos
pasos podrían producirse un mínimo de seis reacciones distintas a la reacción deseada. La
probabilidad de que el resultado deseado se produjera por casualidad es de 6140 o 10109.
[3]
Péptido auto-replicante

Todo esto llevó a un grupo de bioquímicos a tratar de encontrar un replicador


primigenio más sencillo que el ARN. En 1996, David Lee y sus colegas del Scripps
Research Institute de California, diseñaron un péptido corto, de 32 aminoácidos de
longitud, capaz de actuar como una enzima para unir los distintos fragmentos de sí mismo y
replicarse.[4]
McFadden rechaza el péptido auto-replicante como candidato a replicador
primigenio porque argumenta que Lee y sus colegas utilizaron fragmentos de péptido
activados para minimizar las reacciones colaterales productoras de alquitrán y no ofrecieron
una explicación plausible a cómo estos aminoácidos activados podrían emerger por
casualidad a partir de la sopa primigenia.
Sustrato bidimensional

La abrumadora improbabilidad de que el ARN auto-replicante de la bioquímica


ortodoxa, e incluso el péptido auto-replicante, surgiera por casualidad a partir de las
moléculas presentes en la sopa primigenia, suscitó ideas sobre la probabilidad muy superior
de que se formaran auto-replicantes mucho más sencillos a partir de una superficie
bidimensional, y no de una solución acuosa.
Replicador de arcilla
Cairns-Smith empezó a investigar esta idea a mediados de los años 60 del siglo
pasado y en 1985 publicó un libro en el que planteaba su hipótesis.[5]
Al hablar de la reproducción como una de las características propuestas para la
definición de vida, vimos que un cristal de sal común puede reproducirse a sí mismo en una
solución saturada de esa sal.[6] Cairns-Smith propone que el replicador primigenio fue un
cristal tan sencillo como ese, con toda su información codificada en su propia estructura: en
efecto, la estructura del cristal es un precursor del gen orgánico.
La arcilla es un sedimento denso formado por minerales y silicatos, principalmente
aluminio, y seguramente sería muy común en la Tierra primitiva. Estos cristales de silicato
se reprodujeron y la selección natural favoreció cristales mutantes que modificaron su
entorno y mejoraron su replicación. Sus superficies eléctricamente cargadas atrajeron
moléculas orgánicas dipolares, como aminoácidos y nucleótidos, catalizando de forma
efectiva su polimerización de proteínas y de los componentes del ARN y el ADN. Al final,
se produjo un relevo genético en el que los productos más estables de estas reacciones en
superficie, polímeros orgánicos como el ARN y el ADN, heredaron la información de los
cristales y fueron desplazándola gradualmente para ocupar su lugar como principal material
genético, mientras que otros polímeros orgánicos, como las proteínas, formaron una
membrana protectora: el cristal auto-replicante primitivo muda la piel de su cerramiento de
arcilla y emerge del mismo como célula.
En 1996, el químico James Ferris, del Rensselaer Polytechnic Institute, Troy, Nueva
York, junto con varios colegas biólogos, ofrecieron aparentemente la prueba experimental
de la hipótesis al incubar soluciones independientes de aminoácidos y nucleótidos en
presencia de superficies minerales. Obtuvieron polímeros de aminoácidos y de nucleótidos
de hasta 55 monómeros de longitud; sin las superficies minerales, era imposible obtener
polímeros de longitud superior a 10 monómeros porque la hidrólisis impedía que las
cadenas creciesen.[7] Esto, sin embargo, no constituye la confirmación experimental de la
hipótesis porque tanto los aminoácidos como los nucleótidos no se produjeron de forma
natural, sino que se activaron artificialmente.
Además, la afirmación de que el primer replicador en la ruta de reacciones hasta
llegar a la célula fue un replicador de arcilla tampoco tiene base empírica. En los depósitos
actuales de arcilla, ni en ningún registro fósil, existen replicadores de arcilla semejantes a
los que pudiera haber en la Tierra primitiva. Teniendo en cuenta los problemas que plantea
la identificación de células fósiles con antigüedad superior a dos mil millones de años, creo
que es imposible que lleguemos a identificar algún día fósiles de cualquier precursor de
arcilla de las células.
A falta de evidencias, la idea del replicador de arcilla sigue siendo una conjetura
intrigante. Carece, sin embargo, de una explicación convincente que la convierta en un paso
clave. El orden y la simetría de un cristal es una disposición periódica y repetitiva con
escaso contenido informativo. Por el contrario, una célula es una entidad compleja,
aperiódica e interactiva con elevado contenido informativo, y lo mismo sucede con sus
componentes, el ARN, el ADN y las proteínas. La conjetura no consigue explicar cómo es
posible que un contenido informativo tan elevado como este fuera la herencia de un cristal
carente casi de información.
Replicador de pirita de hierro
Gunter Waschtershauser, un químico convertido en abogado especializado en
patentes, propuso en 1988 una versión posterior de la idea bidimensional. Sugiere que la
formación de cristales de pirita de hierro a partir del hierro y el sulfuro de hidrógeno de las
aguas sulfurosas próximas a las fumarolas submarinas generaría los electrones que podrían
haber reducido químicamente el dióxido de carbono a componentes orgánicos. La
superficie cargada de los cristales podría haber enlazado los componentes orgánicos y
fomentado diversas reacciones, hasta llegar a la formación de aminoácidos y nucleótidos,
replicadores y, finalmente, la vida.[8]
Wachtershauser y sus colegas del Regensburg Institute for Microbiology
demostraron que la formación de pirita de hierro puede emparejarse con la polimerización
de aminoácidos. Sin embargo, tienen que aportar todavía una base experimental que
sustente el primer paso, es decir, la conversión de dióxido de carbono a componentes
carbónicos a través de la formación de pirita de hierro, razón por la cual la idea sigue
siendo también una conjetura.
Origen extraterrestre

Los problemas que conlleva explicar cómo pudo emerger la célula independiente
más sencilla de una sopa primigenia, llevó a algunos científicos a investigar una idea que ha
sido recurrente a lo largo de los siglos y que la ciencia ficción ha popularizado. Según la
versión de panspermia propuesta en 1903 por el químico sueco y ganador de un Premio
Nobel, Svante Arrhenius, los microbios expelidos de planetas con vida viajaron por el
espacio y aterrizaron en la Tierra.[9]
Otro científico galardonado con un Premio Nobel, Francis Crick, codescubridor de
la estructura de doble hélice del ADN junto con Leslie Orgel, entonces profesor del Salk
Institute for Biological Studies y destacado investigador de la NASA, llegaron a la
conclusión de que era altamente improbable que esto se hubiera producido por casualidad.
Por ello, en 1973 propusieron una panspermia dirigida, por la cual una civilización
avanzada de la galaxia habría enviado microorganismos a planetas como la Tierra de forma
deliberada.[10]
Por mucho que la idea dejara tremendamente satisfechos a los fans de la ciencia
ficción, la falta de evidencias no convenció a la comunidad científica. Pero en 1978, Fred
Hoyle y el que había sido su alumno, Chandra Wickramasinghe, entonces jefe del
departamento de Matemáticas aplicadas y astronomía de la University College Cardiff,
afirmaron tener evidencias de la panspermia. Muchos astrónomos llevaban años intentando
explicar ciertas líneas espectrales de polvo interestelar, que se creían compuestas
principalmente por cristales de hielo. Hoyle y Wickramasinghe anunciaron que aquellas
líneas espectrales eran consistentes con bacterias.[11]
Esto los llevó a proponer que los brotes repentinos de enfermedades a las que
tenemos escasa resistencia y que a menudo tienen un origen localizado, como la sífilis en el
siglo xv y el SIDA en el siglo xx, fueron causados por bacterias y virus depositados en la
Tierra por cometas. La propuesta es consistente con la opinión de Beda, historiador y monje
inglés del siglo viii, que declaró que los cometas presagiaban «un cambio de soberano o la
peste». En 2003, Wickramasinghe y sus colegas escribieron en la revista médica, The
Lancet, que el SRAG (Síndrome Respiratorio Agudo Grave) estaba provocado por los
microbios de un cometa.[12] Para apoyar esta afirmación, Wickramasinghe citó la
evidencia de que las muestras de aire recogidas de la estratosfera en 2001 por la Indian
Space Research Organization contenían células vivas y argumentó que es imposible que el
aire de capas inferiores pueda ser transportado hasta una altura de 41 kilómetros.
Más recientemente, y de un modo más sofisticado, análisis espectrales han
identificado moléculas orgánicas en el polvo interestelar. Pero, como vimos,[13] las
moléculas mayores están integradas por 13 átomos y están muy lejos de ser algo parecido a
una bacteria. Las muestras estratosféricas incluyen dos bacterias conocidas en la Tierra.
Pero si aplicamos el test de la razón, veremos que una explicación más sencilla, y
muchísimo más probable, es que sucesos meteorológicos transportaran estas bacterias a 41
kilómetros de la Tierra y no que viajaran miles de millones de kilómetros a través del
espacio interestelar. Los investigadores médicos han rechazado la idea del origen
extraterrestre de las enfermedades ofreciendo evidencias más convincentes que
Wickramasinghe no tiene en cuenta.[14]
En cualquier caso, las ideas de una panspermia simplemente posponen la cuestión
del origen de la vida en la Tierra, de un modo similar a como las diversas especulaciones de
multiverso y universo progenitor posponen la cuestión del origen de la materia.
En su versión de 2007, sin embargo, Wickramasinghe, su hija y otro colega del
Centro de Astrobiología de la Universidad de Cardiff (el centro no oficial de la
investigación de la panspermia), propusieron otro desafío. Afirmaron que la vida se originó
en el interior de los cometas.[15]
La afirmación presenta problemas. Depende, básicamente, de tres supuestos:
1. Los desechos de las supernovas que incorporan los cometas contienen elementos
radiactivos cuya desintegración mantiene el agua en estado líquido en el interior de los
cometas. No existen evidencias que sustenten este supuesto.
2. Los cometas contienen además arcilla, a partir de la cual evolucionan las células
vivas, según propuso Cairns-Smith. A pesar de que la misión de la sonda espacial Deep
Impact demostró en 2005 que el Cometa 9P/Tempel contiene arcillas y carbonatos, que
suelen requerir agua en estado líquido para su formación, no existen evidencias que
sustenten la conjetura de Cairns-Smith, y mucho menos de que esto se produzca en el
interior de los cometas.
3. El tiempo de vida de los entornos favorables a los prebióticos en el interior de los
cometas excede al de las regiones terrestres del mismo estilo en cuatro o cinco contra diez.
No existen evidencias que sustenten este supuesto.
Basándose en estos supuestos defienden que, ya que la masa de todos los cometas
de la galaxia supera la de los entornos favorables terrestres por un abrumador veinte contra
diez, la totalidad de cometas que orbita alrededor de estrellas enanas tipo G similares al sol
ofrece un escenario incomparablemente más probable para el origen de la vida que
cualquiera que pudiera estar disponible en la Tierra primitiva.
Sin embargo, es ilógico deducir esta probabilidad comparando la masa de todos los
cometas con la masa de la Tierra, puesto que lo que se defiende no es que la vida se
originara en el interior de algo cuya masa equivale a todos los cometas de la galaxia sino
que se originó en el interior de un determinado cometa, y la masa media de un cometa es 6
x 1010, o 60 miles de millones veces inferior a la de la Tierra. Lo que debería compararse
es la idoneidad para la formación de vida del interior de un único cometa —y la mayoría de
científicos cometarios deducen que el interior de los cometas está constituido
principalmente por hielo en estado sólido— con la idoneidad para formar vida de la
superficie de la Tierra primitiva.
La página web que realizó el anuncio defiende que la vida se originó en un cometa y
que «la vida emergente se diseminó rápidamente, como una infección, de un cometa a otro
cometa, de un sistema estelar a otro sistema estelar, abarcando volúmenes cada vez
mayores del universo».[16] Lo que no queda explicado es cómo la vida en el interior de un
cometa que orbita una estrella se diseminó hacia otros cometas, sobre todo hacia aquellos
que orbitan otras estrellas.
Diseño inteligente

El problema del término «diseño inteligente» es que, desde mediados de los años
noventa del siglo pasado, ha quedado indisolublemente asociado con el Diseño Inteligente,
una teoría científica cuyos proponentes están subvencionados por el Discovery Institute, o
son incluso miembros del mismo, un laboratorio de ideas norteamericano fundado y
financiado por cristianos con el objetivo de demostrar que Dios creó la vida.
Me temo que divorciar ideas de creencias es imposible, independientemente de si
estas creencias son en Dios o en el materialismo, sobre todo cuando, como en este caso, las
evidencias son tremendamente escasas y están por ello tan abiertas a interpretaciones de
todo tipo. En consecuencia, considero instructivo considerar las ideas de diseño inteligente
que no plantean un Dios judeo-cristiano o que no contradicen las creencias de sus
proponentes.
Simulación por ordenador
Nick Bostrom, filósofo de la Universidad de Oxford, dice que, ya que en la
actualidad somos capaces de crear simulaciones por ordenador de otros mundos y otra
gente, una civilización «post-humana» mucho más avanzada tecnológicamente que la
nuestra, podrá simular personas plenamente conscientes, y que lo que ahora percibimos
como vida podría ser una simulación por ordenador de este tipo.[17] Para que todo esto no
se considere el simple capricho fantasioso de un científico, Bostrom ofrece una ecuación
para demostrar que existe una elevada probabilidad de que su idea sea cierta.
Sin embargo, como sucede con la Ecuación de Drake, que calcula la probabilidad de
que existan civilizaciones inteligentes en nuestra galaxia,[18] la Ecuación de Bostrom es un
múltiplo de probabilidades independientes, cada una de las cuales se basa en supuestos o
suposiciones cuestionables. Además, después de extrapolar el crecimiento del poder de los
ordenadores en el transcurso de los últimos sesenta años hacia un futuro no especificado y
desconocido, su siguiente frase empieza con «Basándonos en este hecho empírico…». Una
proyección, por muy razonable que sea —y esta es más que cuestionable—, nunca es un
hecho empírico.
Tal vez no sea un capricho, pero no es más que una especulación que no puede
falsarse mediante un test empírico. Y, como sucede con la panspermia dirigida de Crick y
Orgel, no nos cuenta el origen de estos diseñadores post-humanos y, por lo tanto, del origen
de la vida en la Tierra tal y como la percibimos.
Complejidad irreducible
Michael Behe, profesor de Bioquímica de la Lehigh University, Pennsylvania, cree
que todas las formas de vida de la Tierra han evolucionado a partir de un antepasado
común, pero que la hipótesis darwiniana no explica las diferencias entre especies. Sin
embargo, tanto los componentes de la primera célula como las sofisticadas e
interconectadas rutas bioquímicas de su producción, son irreduciblemente complejos: si
falta cualquiera de sus partes no pueden funcionar. Por ello no pueden haber evolucionado a
través de un mecanismo [ultra]darwiniano, puesto que depende de la selección natural y de
una diversidad de mutantes en cada paso de la ruta, y todos estos pasos tienen que ser
viables. Entre las evidencias que cita están los sistemas que dirigen proteínas hacia lugares
específicos de la célula y el flagelo bacteriano.[19] Este último, por ejemplo, está
constituido por una docena o más de proteínas; no existe ninguna etapa intermedia que sea
viable como unidad funcional.
Argumenta que se ha visto obligado a llegar a la conclusión de que la primera forma
de vida, la célula antepasado común, solo pudo ser resultado del diseño inteligente. Para
reconciliar esto con la evolución biológica sugiere que esta primera célula contenía todo el
ADN necesario para la posterior evolución. No identifica el diseñador, pero asevera que la
ciencia ortodoxa ha rechazado esta conclusión debido a sus posibles implicaciones
teológicas.[20]
Los evolucionistas ortodoxos se apresuraron a censurar el libro que Behe publicó en
1996, La caja negra de Darwin: el reto de la bioquímica a la evolución.[21] En una crítica
publicada en Nature, el biólogo evolutivo de la Universidad de Chicago, Jerry Coyne,
encontraba una pista para seguir el razonamiento de Behe al identificarlo como católico
romano. La mayoría de científicos, sin embargo, no rechaza el trabajo de Newton en el
campo de la mecánica porque creyera en la alquimia o el trabajo de Kepler en el campo de
la astronomía porque creyera en la astrología. Una crítica más sustanciosa es la que aduce
que Behe no tiene en cuenta otros mecanismos que no sean los pasos secuenciales para la
producción de los componentes de la célula, como podrían ser la cooptación de
componentes que evolucionaron con otros fines, los genes duplicados y las primeras
enzimas multifuncionales.
En el caso del flagelo bacteriano, por ejemplo, el microbiólogo Mark Pallen y el
biólogo evolutivo Nicholas Matzke señalan que hoy en día no existe un único flagelo
bacteriano, sino miles, o tal vez millones, de flagelos distintos; de ahí que «no hubo miles o
incluso millones de actos de creación individuales» y «la totalidad de los muy variados
sistemas flagelares actuales ha evolucionado a partir de un antepasado común». Las
evidencias de la evolución del flagelo bacteriano incluyen la existencia de flagelos
vestigiales, de formas intermedias de flagelos y el patrón de similitudes entre las secuencias
de proteínas de los flagelos: prácticamente todas las proteínas flagelares poseen analogías
conocidas con proteínas no flagelares, lo que sugiere que los flagelos evolucionaron a partir
de combinaciones de componentes celulares existentes.[22]
Tanto Coyne como Keneth Miller, biólogo de la Brown University, apuntan que
Behe reconoce que algunos de los componentes de la primera célula podrían haber
evolucionado mediante un mecanismo [ultra]darwiniano, pero que antes de descartar el
diseño inteligente, sería necesario que todas las características bioquímicas quedaran
explicadas por efectos naturales. Debido a las dificultades que conlleva obtener evidencias,
es imposible demostrarlo. De ahí que defiendan que las ideas de Behe no cumplen el
criterio de falsabilidad y, por lo tanto, no son científicas.
La incapacidad de la ciencia para explicar ciertos fenómenos
La idea de Behe es un ejemplo particular que surge de un problema más general, la
incapacidad de la ciencia para explicar determinados fenómenos. Así lo expresó Fred
Hoyle, un ateo convencido. Fue el ateísmo lo que llevó a Hoyle a iniciar la búsqueda de una
alternativa a la teoría del Big Bang, pero cuando llegó el momento de considerar cómo
había surgido la vida en la Tierra, comparó la aparición casual de una célula, por simple que
esta fuera, a la probabilidad de que «un tornado arrase un depósito de chatarra y pueda
montar un Boeing 747 a partir de los materiales que allí se encuentran».[23]
Cuando en 1982 ofreció una conferencia en la Royal Institution, anunció la
siguiente conclusión:
«Si en este asunto se actúa de forma directa y franca, sin dejar que te bloquee el
miedo a provocar la ira de la comunidad científica, llegas a la conclusión de que los
biomateriales, con su asombroso nivel de orden, tienen que ser el resultado de un diseño
inteligente […]. Los problemas de orden, como el de las secuencias de aminoácidos en las
cadenas [que constituyen las células proteínas] […] son precisamente los problemas que se
vuelven sencillos cuando la inteligencia dirigida entra en el juego».[24]
No estoy al corriente de si Hoyle se convirtió a alguna religión, pero sus últimos
escritos sugieren que consideraba que los fenómenos que la ciencia se muestra incapaz de
explicar insinúan la existencia de algún tipo de inteligencia superior que gobierna el
universo. Y ahí está el problema. Que la ciencia se muestre incapaz de explicar un
fenómeno ahora, no significa que la ciencia nunca será capaz de explicar ese fenómeno. De
un modo similar, tampoco implica que la ciencia será capaz de explicar ese fenómeno en
un futuro, como aseveran algunos materialistas, como Richard Dawkins.
Puesto que las evidencias no permiten aprobar o rechazar el diseño inteligente como
el origen de la vida en la Tierra, el test de la racionalidad se aplica examinando la
consistencia con otra evidencia, que en este caso es el patrón de la comprensión humana de
los fenómenos naturales. Históricamente, siempre que los humanos no han entendido un
fenómeno, lo han achacado a causas sobrenaturales. Así por ejemplo, los griegos de las
ciudades-estado guerreras de entre los siglos x y v a. C. no comprendían la causa de los
relámpagos y los truenos, y atribuían esos hechos poderosos y amedrentadores al dios más
poderoso de un panteón de súper-humanos que era un reflejo de la jerarquía de su propia
sociedad.
Cuando la ciencia se desarrolló en una sociedad occidental predominantemente
cristiana, su razonamiento empírico llenó los vacíos de nuestra comprensión de los
fenómenos naturales y fue eliminando poco a poco la necesidad de explicaciones
sobrenaturales. Así pues, la Tierra dejó de ser algo creado por Dios como el centro del
universo y el sol dejó de ser algo creado por Dios para iluminar la Tierra entre periodos de
oscuridad.
Los vacíos —y, en consecuencia, el reino del creador trascendente, Dios—
siguieron disminuyendo a medida que el poder explicativo de la ciencia aumentaba y Dios
se vio relegado a ser la causa en última instancia, más que directa, de los fenómenos
naturales. (Utilizo aquí el concepto de Dios convencional, puesto que, a partir del siglo
XVI, la ciencia se desarrolló principalmente en el occidente cristiano. Otras religiones y
culturas tiene visiones distintas de Dios o los dioses, y algunas de ellas sostienen que un
espíritu cósmico creativo es tanto inmanente como trascendente, y no inmanente durante
solo treinta y tres años en la persona de un Dios trinitario trascendente.)
A pesar de que nada garantiza que este patrón de actuación continuará, la forma más
razonable de abordar la aparición de la vida en la Tierra tendría que basarse en, sin dejar en
ningún momento de mantener una mentalidad abierta, buscar una explicación natural más
que invocar una causa sobrenatural como Dios o un diseño inteligente.
Principio antrópico

Conocimos el concepto del principio antrópico en la primera parte, cuando


descubrimos que si no estuviesen operando leyes físicas muy precisas de origen
desconocido, y si varios parámetros cósmicos y constantes sin dimensiones no tuviesen
unos valores ajustadísimos que ninguna ley es capaz de explicar, el universo que permitió la
evolución del ser humano nunca habría existido. De aquí que invoquemos el principio
antrópico para explicar la sorprendente aparición de la vida a partir de las moléculas
simples que llenaban la sopa primigenia que reinaba en la Tierra.
El concepto del principio antrópico se atribuye al físico teórico Brandon Carter, que
lo planteó en 1974, cuando trabajaba en la Universidad de Cambridge.[25] El trabajo más
extenso sobre el tema fue el elaborado por los cosmólogos John Barrow y Frank Tipler,
cuyo libro, publicado en 1986, incluye todas las leyes, parámetros y constantes relevantes,
así como las distintas formas de abordar la idea.[26] Consideraré a continuación las
definiciones que estos científicos aplican a tres versiones distintas del principio antrópico.
Principio antrópico débil (PAD)
Los valores observados de todas las cantidades físicas y cosmológicas no son
igualmente probables, sino que están restringidos por el hecho de que existen lugares del
universo donde se ha podido desarrollar la vida basada en el carbono y por el hecho de que
el universo sea lo bastante antiguo como para que esto haya ocurrido.
Barrow y Tipler desarrollan una discusión científica y filosófica de temas como el
enfoque bayesiano a la edad y el tamaño del universo que serían necesarios para la
evolución de formas de vida basadas en carbono como nosotros, que somos capaces de
observar el universo. Para simplificar, las características del universo que podemos
observar son tales, que nos permiten observarlo. Se trata de una tautología que no acaba
explicando nada.
Principio antrópico fuerte (PAF)
El universo debe tener propiedades que permitan el desarrollo de la vida en algún
momento de su historia.
Lo que distingue este principio del PAD es la palabra «debe». Según Barrow y
Tipler, esto tendría tres interpretaciones:
a. El universo diseñado inteligentemente
Existe un universo posible diseñado con el objetivo de generar y mantener
observadores.
Esto extiende los argumentos a favor del diseño inteligente de la primera célula a
todo el universo y, en consecuencia, se ve contraatacado con objeciones similares. No voy a
repetirlas aquí, sino simplemente reiterar mi conclusión de que queda fuera del campo
empírico de la ciencia y de que, manteniendo siempre una mentalidad abierta, deberíamos
seguir buscando una explicación natural antes que invocar una causa sobrenatural como
Dios o cualquier otro diseñador inteligente desconocido o incognoscible.
b. El universo participativo
Para que exista el universo son necesarios observadores.
Esto se basa en la interpretación de la mecánica cuántica dependiente de la
conciencia de John Wheeler que consideré en las páginas 159 y 160. Recurre a la conjetura
filosófica de la causalidad invertida, que sostiene que un efecto puede preceder en el tiempo
a su causa. La idea tiene defensores y opositores entre los filósofos. Nadie ha propuesto
como falsarla mediante experimento u observación y, en consecuencia, queda fuera del
territorio de la ciencia.
La idea del universo participativo implica que el universo no existía antes de que
nuestros antepasados paleolíticos observaran la función de onda del universo y la
colapsaran en una realidad observable. Es decir, que nuestros antepasados paleolíticos
crearon el universo observado.
Aplicando el test de racionalidad a esta conjetura, considero que Antony Flew y
otros filósofos aciertan cuando defienden que la causalidad invertida es una contradicción
lógica y que, por lo tanto, el universo participativo es internamente inconsistente. También
es inconsistente con la interpretación generalmente aceptada de observaciones que
muestran que el universo tiene como mínimo diez mil millones de años de antigüedad.
c. El multiverso
Para que nuestro universo exista es necesario un conjunto de otros universos.
La aplicación de esta interpretación del PAF significa que, por muy improbable que
sea que la primera célula emergiera a partir de las interacciones de las moléculas simples de
la sopa primigenia, el suceso se produjo en un planeta de uno de los infinitos universos
existentes; casualmente, estamos en ese planeta y en ese universo.
He examinado las cuatro categorías principales de propuestas de multiverso al
considerar por qué el universo empezó a existir con un formato determinado, habiendo
tantos otros formatos lógicamente posibles, y he llegado a la conclusión de que ninguna de
ellas puede someterse a test y, por lo tanto, ninguna de ellas es científica.[27] En
consecuencia, los que argumentan que la célula diseñada inteligentemente no es falsable y,
por lo tanto, no es científica, no pueden, con toda lógica, argumentar que la idea del
multiverso sea científica a menos que puedan demostrar que es posible someterla a test.
Barrow y Tipler proponen una tercera versión no considerada por Carter.
Principio antrópico final
En el universo tiene que surgir un proceso de la información inteligente que, una
vez haya surgido, nunca desaparecerá.
Más que un principio físico, estamos ante una especulación metafísica sobre el
futuro.
Un argumento más contra el principio antrópico en general es el que aporta Roger
Penrose, que dice que «suelen invocarlo los teóricos cuando no tienen una teoría lo bastante
buena para explicar los hechos observados».[28]
Emergencia cuántica

He citado los desafíos de McFadden a muchas de las propuestas expuestas arriba.


Considera que ninguna de las hipótesis de la sopa primigenia es válida porque, entre otras
cosas, la primera entidad auto-replicante esencial surge como resultado de la
termodinámica. Pero el movimiento aleatorio de las moléculas acabará produciendo tal
multiplicidad de reacciones, que las probabilidades contrarias a la construcción de una
entidad auto-replicante son increíblemente elevadas.
Por ejemplo, incluso después de asumir una serie de supuestos favorables, calcula
que la probabilidad de que de la sopa molecular primigenia emergiera la forma más simple
conocida de péptido auto-replicante como resultado de reacciones aleatorias es de una entre
1041, es decir, prácticamente nula. McFadden cree que la producción de un péptido así
tendría que estar dirigida. Lo cual no quiere decir que tuviera que haber un diseñador
inteligente; en las condiciones idóneas, podría conseguirse a través de un mecanismo de
mecánica cuántica, no a través de la termodinámica.[29]
Como vimos en el capítulo 6 al considerar la realidad del mundo cuántico,[30] la
teoría cuántica afirma que una partícula subatómica es tanto una partícula como una onda
de información no-local: es infinita en extensión y contiene todos los estados de existencia
posibles de esa entidad cuántica; es lo que se conoce como un estado de superposición
cuántica.
McFadden no está a favor de la interpretación del multiverso de Everett[31] porque
viola de forma horrenda el test de la parsimonia y coincide con el punto de vista de que solo
cuando la función de onda se mide, colapsa en la probabilidad de una partícula física que
tiene posición, momento y energía y, por lo tanto, entra en el mundo clásico que
percibimos.
Pero tampoco se muestra a favor de la interpretación de Copenhague[32] ni de la
interpretación del observador consciente de Wheeler[33] para explicar la medición y el
colapso de la onda cuántica. Rechaza asimismo la interpretación de la onda piloto de Bohm
(los detalles de la cual no nos interesan en este momento).
Pero sí coincide con la interpretación de la decoherencia de Zurek, según la cual las
entidades permanecen en estado cuántico siempre y cuando sus funciones de onda sean
coherentes; en cuanto se produce una interferencia, se decohesionan y colapsan en la
realidad clásica. El mundo aparece como una realidad clásica porque todo sistema abierto
sufre un bombardeo constante de fotones, electrones y otras partículas, y el entrelazamiento
cuántico con tantas entidades produce la decoherencia y el colapso en estados de
superposición. Por lo tanto, es el entrelazamiento con el entorno, y no un observador, lo que
mide el sistema cuántico y provoca su colapso.
Para que el concepto de la decoherencia cuántica funcione para la aparición de un
péptido auto-replicante a partir de una sopa primigenia, McFadden parte de tres supuestos
clave:
1. La sopa molecular primigenia es microscópicamente pequeña y está atrapada en
el interior de una estructura minúscula, como el poro de una roca o una gota de aceite, que
actúa a modo de proto-célula protegiendo la coherencia de los estados cuánticos de su
interior.
2. Las nuevas moléculas, incluyendo aminoácidos recién creados, se dispersan
dentro y fuera de esta proto-célula.
3. El sistema permanece en estado cuántico y así, en vez de la incorporación clásica
de un único aminoácido para crear un único péptido, cada incorporación de un aminoácido
produce una superposición cuántica de todos los péptidos resultantes posibles.
En el proceso de incorporación del aminoácido, cada péptido se empareja con su
entorno y decohesiona su estado cuántico en un estado clásico. A partir de ahí
«Tendría libertad para dejarse arrastrar una vez más hacia el ámbito de la
superposición cuántica y esperar a la siguiente medición […]. Este proceso de dejarse ir
hacia el ámbito cuántico, esperar a la siguiente medición, colapsar en un estado clásico [una
partícula] y dejarse ir de nuevo hacia el ámbito cuántico habría seguido […] prolongando la
superposición cuántica de posibles péptidos hasta el momento en que el sistema habría
colapsado de forma irreversible en un estado clásico».
Sin embargo, todo este mecanismo depende de la afirmación de McFadden de que:
«y lo que es más importante, mientras el péptido siguiera manteniéndose como una
única molécula, siempre podría, después de la medición, entrar de nuevo en el ámbito
cuántico.» [la cursiva es de McFadden]
Este dejarse ir repetitivo hacia el ámbito cuántico es cuestionable. La que lo hace no
es la misma molécula. Contradiciendo su afirmación de que este hipotético péptido «habría
emergido indemne del proceso de medición», el péptido incorpora en cada etapa un
aminoácido, lo que altera su composición molecular.
Según McFadden, el proceso acaba colapsando de manera irreversible en el estado
clásico cuando en el estado de superposición se genera un péptido auto-replicante. Y
reconoce que la probabilidad de que este péptido, y no otro, colapse en la realidad clásica es
idéntica a la probabilidad de que se genere en las condiciones termodinámicas de la sopa
primigenia, una probabilidad de una entre 1041 en el ejemplo elegido.
Sugiere que una explicación radica en invocar el multiverso cuántico de Everett,
que previamente había rechazado por «absurdo»: todos los colapsos de las superposiciones
cuánticas se producen en universos distintos, y casualmente estamos en el universo donde
el péptido clásico generado es el péptido auto-replicante. Sin embargo, la probabilidad de
que esto suceda en otro lugar de este mismo universo es de una entre 1041 menos uno. De
ahí que, si se encuentra vida en otro lugar de nuestro universo (y muchos astrobiólogos
creen que podría encontrarse en un lugar tan cercano como Europa, una de las lunas de
Júpiter), la hipótesis quedaría desaprobada.
Como explicación alternativa, McFadden recurre al efecto anti-Zenón cuántico, por
el cual una serie densa de mediciones cuánticas de un sistema a lo largo de una ruta en
particular puede llevar el sistema a lo largo de esa ruta y no por el inmenso número de rutas
posibles que existirían sin esas mediciones.
Para que esto funcione, McFadden realiza dos supuestos adicionales:
4. Las secuencias de movimientos de electrones y protones dentro y entre las
moléculas, que generan las reacciones químicas que dan como resultado el primer auto-
replicador no son, a nivel cuántico, diferentes a las de los electrones y protones que se
mueven en el espacio vacío.
5. Las mediciones cuánticas llevadas a cabo por las proto-enzimas sobre los
péptidos en el estado de superposición no se diferencian de las mediciones cuánticas
realizadas por lentes polarizadas sobre fotones.
En consecuencia, estas mediciones guían el sistema químico a lo largo de la ruta
que cambia la probabilidad de una entre 1041 de que se produzca el primer péptido auto-
replicante. A continuación, el péptido auto-replicante ineficiente produce mutantes que, por
selección natural ultra-darwiniana, conducen hacia un incremento gradual de la idoneidad
auto-replicante. Se vuelven más eficientes reclutando membranas de lípidos que los
protegen del exterior y evolucionan hacia proteínas enzimáticas más eficientes hasta que
acaba emergiendo la célula eficiente.
Los últimos dos supuestos son razonables porque son consistentes entre sí, tienen
base empírica, principios científicos. Pero, en general, la hipótesis carece de base empírica.
Más bien al contrario, siempre que los investigadores han intentado replicar este proceso en
el laboratorio utilizando enzimas para copiar moléculas de ADN o ARN, han acabado
evolucionando, después de muchos centenares de ciclos, en replicadores más eficientes
pero en forma de moléculas más pequeñas y más simples. El sistema nunca ha
evolucionado en dirección contraria, hacia una complejidad mayor, que es lo que se
necesita para producir una célula y que es la dirección que sigue la evolución biológica. Lo
mismo sucede a nivel de simulaciones por ordenador.
McFadden, sin embargo, se muestra impertérrito. Cree que el problema estriba en la
dificultad de poder aislar los reactantes del entorno para mantener la coherencia cuántica.
Especula que la primera vida celular fue un auto-replicador sencillo que protegía en su
interior microesferas nanométricas, no muy distinto de las nanobacterias encontradas en las
rocas subterráneas.
De ahí que los experimentos de laboratorio necesitan imitar las condiciones que
conservan la coherencia cuántica, utilizando instrumentos como un nanotubo de carbono,
una hoja de carbono de un átomo de grosor enrollada en un cilindro cuyo diámetro es
aproximadamente 50.000 veces inferior al de un pelo humano.
Por otro lado, las simulaciones por ordenador solo funcionarán en ordenadores
cuánticos, que utilicen fenómenos mecánicos cuánticos, como la superposición y el
entrelazamiento, para realizar operaciones con los datos en vez de la tecnología digital
actual.
Ambas tecnologías están justo en su infancia.
Complejidad auto-organizada

Cuando Smolin y Capra desarrollaron sus definiciones de vida, se inspiraron en la


teoría de la complejidad elaborada por Stuart Kauffman, un doctor en medicina convertido
en bioquímico asociado al Santa Fe Institute, una institución interdisciplinaria dedicada al
estudio de sistemas complejos.
En 1995, Kauffman planteó la propuesta de que la vida se desarrolló, mediante un
proceso de complejidad auto-organizada, a partir de una sopa primigenia que contenía
miles de millones de moléculas distintas.[34] Asumió que en esta sopa, una molécula A
cataliza la producción de otra molécula, B, que gracias a ello se vuelve más abundante en la
sopa. A su vez, B cataliza la producción de C, que cataliza la producción de D y así
sucesivamente, generándose la serie A → B → C → D → E → F → G, etc. Asume además
que una molécula de esta serie, por ejemplo F, cataliza también la producción de A, dando
con ello una clausura catalítica al ciclo A → B → C → D → E → F → A, al que denomina
conjunto auto-catalítico. Se perpetúa continuamente alimentándose de la materia prima de
la sopa primigenia y con la ayuda de energía del sol o de los conductos volcánicos,
incrementando con ello la concentración de estas moléculas en la sopa.
Asume luego que una molécula de este conjunto, por ejemplo D, cataliza también la
producción de otra molécula, por ejemplo A, y también la de E, y así sucesivamente. De
esta manera se crea una red de conjuntos auto-catalíticos autosuficientes.
Ilustra lo que sostiene que es el patrón de crecimiento característico de estas redes
mediante una analogía con botones e hilos. Elijamos al azar un par de botones y unámoslos
mediante un hilo. Si seguimos uniendo pares de botones al azar con hilos distintos,
acabaremos inevitablemente uniendo algunos botones a otros que ya están unidos a otros
botones.
El número de botones en el cúmulo más grande de botones unidos entre sí es una
medida de lo complejo que se ha vuelto el sistema, según ilustra la figura 15.1, donde
Kauffman generaliza el fenómeno denominando «nodo» a cada botón y «unión» a cada
hilo.
El tamaño del cúmulo más grande crece lentamente al principio porque los botones
no tienen muchas uniones. Pero cuando el número de hilos se acerca y acaba superando la
mitad de la cantidad de botones, el tamaño del cúmulo más grande aumenta a gran
velocidad porque, con la mayoría de los botones unidos ahora en cúmulos, existe una
elevada probabilidad de que cada nuevo cúmulo una un cúmulo pequeño al cúmulo más
grande. Muy rápidamente, un único súper-cúmulo forma una red en la que la inmensa
mayoría de los botones están unidos. Después de esto, el tamaño de esta red grande crecerá
lentamente porque quedarán muy pocos botones que no formen aún parte de esta red.
La figura 15.2 ilustra lo que Kauffman denomina «transición de fase» de la red por
analogía con transición de fase entre, por ejemplo, el agua y el hielo. Un sistema altamente
complejo, como la red de partes interrelacionadas de una célula, emerge de repente a partir
de las redes que componen la célula, que han crecido a través de los enlaces de redes auto-
catalíticas y autosuficientes de moléculas. El sistema altamente complejo es estable porque
hay poco espacio para que se produzcan más cambios.

Según Kauffman, cuando este mecanismo opera en una sopa primigenia, elimina la
necesidad de construir una cadena larga de sucesos químicos poco probables. La vida,
como conjunto auto-catalítico súper-complejo y autosuficiente, emerge de repente como
una transición de fase. «La vida cristaliza en una diversidad molecular crítica porque la
clausura catalítica también cristaliza».
Esta hipótesis es consistente con el concepto de evolución en red, y no en árbol
genealógico, discutido anteriormente. Sin embargo, Kauffman reconoce que «Hay todavía
escasas evidencias experimentales que sustenten este punto de vista».
Aplicando los test de racionalidad, la propuesta de complejidad auto-organizada es
internamente consistente y ofrece consistencia externa en cuando a que es consistente con
modelos obtenidos por ordenador. Por desgracia, eso es todo.
El modelo no explica cómo aparecen las moléculas catalíticas, A, B, C, etc. Como
hemos visto, incluso con supuestos favorables, la probabilidad de que el péptido auto-
replicante más simple conocido emergiera como resultado de reacciones aleatorias en la
sopa molecular es de una entre 1041.
Edward O. Wilson llega a la conclusión de que, por mucho que es posible que las
teorías de la complejidad vayan por buen camino, su problema es que en este contexto
quedan excesivamente divorciadas de los detalles biológicos.
La dificultad básica, por decirlo claramente, es la insuficiencia de hechos. Los
teóricos de la complejidad no disponen aún de información suficiente para poder llevar con
ellos al ciberespacio. Los postulados con los que empiezan necesitan a todas luces más
detalle. Sus conclusiones hasta el momento son demasiado vagas y generales como para ser
algo más que metáforas reivindicatorias y sus conclusiones abstractas nos cuentan pocas
novedades.[35]
En opinión de McFadden:
La aparición espontánea de conjuntos auto-catalíticos es factible solamente en
ordenadores, donde cada conjunto puede aislarse del revoltijo de reacciones que los rodea.
En las sopas químicas reales, cada componente está inmerso en un millar de reacciones
secundarias que inevitablemente diluye y disipa cualquier conjunto auto-catalítico
emergente.
Continúa presentando una objeción teórica, que considera de suma importancia, a la
teoría de la complejidad como hipótesis para explicar la aparición de la vida. La auto-
organización demostrada por los ciclones y otros ejemplos
Está generada por la interacción aleatoria de miles de millones de moléculas. Son
fenómenos que implican cantidades enormes de partículas y que tienen una estructura solo
a escala macroscópica; a nivel molecular, no hay más que caos y movimiento aleatorio.
Pero las células poseen estructuras ordenadas a todos los niveles, hasta llegar a las
partículas fundamentales. Las estructuras macroscópicas de células vivas no son resultado
de un movimiento incoherente y aleatorio.[36]
Creo que Wilson tiene razón cuando dice que, tal y como está desarrollada en la
actualidad, la teoría de la complejidad auto-organizada es demasiado abstracta y confía
excesivamente en modelos por ordenador como para poder proporcionar una hipótesis con
base empírica. La esperanza es que cuando se refinen estos modelos con la incorporación
de datos empíricos se pueda llegar a nuevas leyes de carácter más profundo que ayuden a
comprender la aparición de la vida a partir de materia inanimada.
Teoría de la emergencia

Smolin y Capra se inspiran también en la teoría de la emergencia articulada por


Harold Morowitz, profesor de biología y filosofía natural de la George Manson University,
que considera que leyes de carácter más profundo explicarán la complejidad emergente de
los procesos bioquímicos igual que el nivel cuántico del principio de exclusión de Pauli
selecciona de entre un abanico increíblemente inmenso de posibilidades un pequeño
conjunto de estados de energía de electrones en un átomo que explica la emergencia de 118
elementos.[37]
Durante muchos años, Morowitz ha buscado características que unifiquen las
principales reacciones químicas que llevan a cabo los organismos vivos en sus células
porque considera que las reacciones de carácter metabólico son la principal característica de
la vida y, por lo tanto, la más antigua, a pesar de que en su trascendental libro[38] no defina
en ningún momento ni el metabolismo ni la vida.
Si lo entiendo correctamente, Morowitz especula que el proceso de emergencia de
la vida empezó cuando el flujo de energía de una red de conjuntos auto-catalíticos de
moléculas primordiales produjo la aparición del metabolismo (presuntamente, es lo que los
teóricos de la complejidad denominan conjuntos auto-catalíticos autosuficientes).
Morowitz identifica varios problemas. En primer lugar, «empezando con los 20
aminoácidos de producción natural, una cadena de 100 aminoácidos sería una cadena de
20100 posibilidades […], lo cual es superior a 10101 […]. Muchas de estas secuencias
serán catalíticas para un amplio rango de reacciones». Tienen que ser seleccionadas.
Luego, los problemas de las estructuras constructivas, como las células procariotas
con funciones específicas, son arquitectónicos (estructuras tridimensionales que determinan
donde tienen lugar las reacciones químicas), químicos (qué moléculas y cómo reaccionan
entre ellas) e informativos (un conjunto de procesos por los que «secuencias de
aminoácidos pueden codificarse en secuencias de nucleótidos», a saber, ADN y ARN).
Todas estas funciones deben ser seleccionadas de entre un rango increíblemente grande de
posibilidades.
La emergencia de la vida implica, pues, «muchas, muchas emergencias» que tienen
lugar dentro de un periodo de tiempo que, desde el punto de vista geológico, es casi
instantáneo.
Morowitz reconoce que comprender las emergencias intermedia es algo que «está
sujeto a estudio experimental y teórico en el mundo de las redes químicas, a estudio físico
de las macromoléculas y a una comprensión mejor de las propiedades del sistema». Es
decir, que no existe aún ni una base empírica ni una teoría adecuada que respalden la
propuesta.
Que uno o más equivalentes bioquímicos al principio de exclusión de Pauli puedan
acabar explicando el camino que siguen moléculas simples elegidas al azar hasta la
emergencia de una forma de vida independiente, es una idea increíblemente atractiva, pero
ni Morowitz ni nadie más ha sugerido qué ley, o leyes, de carácter más profundo podrían
conseguirlo. Hasta el momento, la teoría de la emergencia no aporta nada nuevo excepto
una descripción alternativa, y tal vez más sofisticada, de los problemas, expresada en
términos de la necesidad de uno o más principios de selección para explicar el fenómeno.
Conclusiones

1. El relato ortodoxo de la bioquímica sobre cómo apareció la vida en la Tierra a


partir de las moléculas complejas compuestas por hasta 13 átomos encontradas o
depositadas en la Tierra recién formada, es que la energía del sol y los rayos hizo que estás
moléculas, que se encontraban en la atmósfera de la incipiente Tierra, produjeran los 20
aminoácidos de producción natural, que se disolvieron en los océanos. En el transcurso de
centenares de miles, o de millones de años, reacciones aleatorias produjeron el primer auto-
replicador, una molécula de ARN capaz de actuar a modo de catalizador para reproducirse y
también para producir proteínas. La selección natural ultra-darwiniana favoreció
descendientes mutantes con auto-replicación más eficiente, lo que los llevó a reclutar
proteínas para formar una membrana protectora y, finalmente, moléculas de ADN, que eran
depósitos de información genética más estable y, por lo tanto, constituir la primera célula.
Sin embargo, esta hipótesis, y también la que propone que el replicador primigenio era un
péptido auto-replicante, no están basadas en evidencias empíricas. Más de 60 años de
intentos de generar vida a partir de estas moléculas primordiales en las condiciones que se
cree que existían en la Tierra primitiva, no han conseguido producir nada ni remotamente
parecido a un auto-replicador, y mucho menos una célula viva.
2. Además, estas hipótesis no son válidas porque, entre otras razones, existe una
improbabilidad abrumadora de que reacciones aleatorias en una solución acuosa pudieran
haber producido una molécula de ARN auto-replicante o un péptido auto-replicante, y
mucho menos que tuvieran solo los isómeros aminoácidos con formas levógiras que
encontramos en las células.
3. La propuesta de que la primera célula evolucionó como consecuencia de un
proceso de complejidad auto-organizadora tampoco consigue explicar cómo las moléculas
catalíticas en las que se basa la propuesta emergieron en una sopa primigenia a partir de una
cantidad abrumadoramente improbable de reacciones de moléculas. El relato resulta
actualmente excesivamente abstracto y está tan divorciado del detalle biológico que no
ofrece una explicación convincente de la aparición de la vida.
4. La propuesta de que la ruta hacia la primera célula empezó con cristales de arcilla
auto-replicantes que estaban presentes en la Tierra primitiva, y que el avance por este
camino fue catalizado por reacciones que tuvieron lugar en la superficie bidimensional y
electrónicamente cargada de dichos cristales de arcilla, es una conjetura intrigante que
carece tanto de explicaciones adecuadas para sus pasos clave, como de base experimental;
además, es prácticamente imposible obtener evidencias fósiles. Lo mismo sucede con la
propuesta de que la ruta hacia la vida fue facilitada por el efecto catalítico bidimensional
generado con la formación de pirita de hierro cerca de los manantiales termales sub-
oceánicos; su primer paso exige la conversión del dióxido de carbono en componentes
carbónicos, algo para lo que no existe actualmente base empírica.
5. La propuesta de que la vida llegó a la Tierra desde el espacio exterior, bien en
forma de esporas bacterianas bien con bacterias en el interior de cometas o asteroides, no
logra explicarnos cómo se originó esa vida. Además, evidencias en conflicto han
demostrado que varias de estas hipótesis son falsas, mientras que otras se basan en
supuestos muy cuestionables para los que no hay evidencias. Lo mismo aplica a la
afirmación de que la vida se originó en el interior de los cometas.
6. La propuesta de que la primera célula es irreduciblemente compleja y que solo
podría ser resultado del diseño inteligente carece de evidencias que la sustenten; no es
falsable y, por lo tanto, no se considera una explicación científica.
7. Invocar el principio antrópico tampoco ofrece una explicación científica. Su
versión débil no explica nada. Las tres interpretaciones de la versión fuerte no pueden ser
sometidas a test, son poco convincentes y tan razonables como muchas de las creencias y
puntos de vista no científicos.
8. La propuesta de que el primer auto-replicador orgánico emergió a partir de
moléculas primigenias en un recinto natural microscópicamente pequeño por medio de la
mecánica cuántica, y no por la termodinámica, depende de una interpretación particular,
aunque razonable, de la teoría cuántica. Sin embargo, tal y como está hoy en día
desarrollada la propuesta, presenta inconsistencias internas y no está sustentada aún por
ninguna evidencia experimental.
9. La idea de que los equivalentes bioquímicos del principio de exclusión de Pauli
expliquen las emergencias de pasos intermedios en la ruta desde moléculas simples
aleatorias hasta la emergencia de una célula viva, resulta atractiva, pero nadie ha sugerido
aún cuál podría ser esta ley, o leyes, de carácter más profundo o cómo surgieron.
10. Igual que sucede con la aparición de la materia, es muy probable que la
explicación de la aparición de la vida quedé más allá de la capacidad de la ciencia para
hacerlo.
Y si la ciencia no puede explicar ahora, y muy probablemente nunca, cómo apareció
la vida, ¿puede contarnos cómo evolucionó?
[1]Miller, S. L., «A Production of Amino Acids under Possible Primitive Earth
Conditions», Science, 117: 3046, 1953, pp. 528–529.
[2]McFadden (2000), pp. 85–88.
[3]Ibíd, pp. 95–98.
[4]Lee, David H., et al., «A Self-Replicating Peptide», Nature, 382: 6591, 1996, pp.
525–528.
[5]Cairns-Smith (1990).
[6] Véase página 330.
[7]Ferris, James P., et al., «Synthesis of Long Prebiotic Oligomers on Mineral
Surfaces», Nature, 381: 6577, 1996, pp. 59–61.
[8]Wachtershauser, G., «Before Enzymes and Templates: Theory of Surface
Metabolism», Microbiol Rev, 52, 1988, pp. 452–484.
[9]McFadden (2000), pp. 91–92.
[10]Crick, F. H. C. y Orgel, L. E., «Directed Panspermia», Icarus, 19, 1973, pp.
341–346.
[11]Hoyle y Wickramasinghe (1978).
[12]Wickramasinghe, Chandra, et al., «SARS—a Clue to Its Origins?», The Lancet,
361: 9371, 2003, pp. 1832–1832.
[13] Véase página 237.
[14]Véase, por ejemplo, de Leon, Samuel Ponce y Antonio Lazcano, «Panspermia
—True or False?», The Lancet, 362: 9381, 2003, pp. 406–407.
[15]Napier, W M, et al., «The Origin of Life in Comets», International Journal of
Astrobiology, 6: 04, 2007, pp. 321–323.
[16]http://www.astrobiology.cf.ac.uk/News3.html. Consultado el 12 de Agosto de
2008.
[17]Bostrom, N., «Are You Living in a Computer Simulation?», Philosophical
Quarterly, 53: 211, 2003, pp. 243–255.
[18] Véase página 302.
[19] Véase página 361.
[20]Behe (1996).
[21] Editado en español por Editorial Andrés Bello, Barcelona, 2000.
[22]Pallen, Mark J. y Matzke, Nicholas J., «From the Origin of Species to the
Origin of Bacterial Flagella», Nat Rev Micro, 4: 10, 2006, pp. 784–790.
[23]News «Hoyle on Evolution», Nature 294, 1981, p. 105.
[24]Hoyle, Fred, Evolution from Space: The Omni Lecture Delivered at the Royal
Institution, London on 12 January 1982, Cardiff: University College of Cardiff Press.
[25]Carter, B., «Large Number Coincidences and the Anthropic Principle in
Cosmology», pp. 291-298 en Confrontation of Cosmological Theories with Observational
Data editado por M. S. Longair, Springer, 1974.
[26]Barrow y Tipler (1996).
[27] Véase de página 177 a página 182.
[28]Penrose (1989), p. 561.
[29]McFadden (2000), pp. 219–240.
[30] Véase de página 159 a página 160.
[31] Véase página 177.
[32] Véase página 159.
[33] Véase página 159.
[34]Kauffman (1996).
[35]Wilson (1998), p. 97.
[36]McFadden (2000), p. 94.
[37] Véase página 232.
[38]Morowitz (2004).
CAPÍTULO 16. EL DESARROLLO DE LAS IDEAS CIENTÍFICAS
SOBRE LA EVOLUCIÓN BIOLÓGICA

Si tuviera que dar un premio a la mejor idea que haya tenido alguien jamás, se la
daría a Darwin, por delante de Newton, Einstein y todos los demás.

Daniel C. Dennett, 1995

En la ciencia, el crédito se lo lleva aquel capaz de convencer al mundo, no aquel a


quien se le ocurre la idea.

Sir Francis Darwin, 1914

Antes de evaluar el relato actual de la ciencia sobre la evolución de la vida,


considero necesario reafirmar lo que entiendo por evolución, puesto que muchos científicos
equiparan el término con la evolución biológica y, de entre esos muchos, los hay que
mezclan el fenómeno de la evolución biológica con solo uno de sus varios mecanismos
posibles, la selección natural. La palabra tiene un significado amplio, como hemos visto al
considerar la evolución de la materia en la primera parte.
Evolución: proceso de cambio que afecta a alguna cosa, especialmente de un estado
sencillo a otro más complejo.
Empezaré resumiendo cómo las principales ideas sobre la ida acabaron
desarrollando la explicación ortodoxa actual de la evolución biológica. En los dos capítulos
siguientes examinaré lo que muestran las evidencias actuales, y en los que vienen a
continuación evaluaré la explicación ortodoxa actual de las evidencias y las hipótesis que
pretenden modificar o desafiar esa explicación.
Ideas pre-evolucionistas

Aristóteles

En el siglo iii y iv, Occidente redescubrió los relatos de los pensamientos de


Aristóteles, que databan del siglo iv a. C., y descubrieron que el filósofo había llevado a
cabo una clasificación exhaustiva de los seres vivos. A partir de una división básica entre
plantas y animales, había dividido los animales en los que tenían sangre roja y los que no
(una división que se corresponde con la diferenciación moderna entre vertebrados e
invertebrados). Había agrupado además por géneros a los animales con caracteres similares
y luego había dividido esta clasificación es especies.
Creacionismo

Cuando, a partir de la filosofía natural, se empezó a desarrollar la ciencia en


Occidente, prácticamente todos sus practicantes fueron cristianos. La mayoría de los
científicos[1] del siglo xviii creía en la verdad de la Biblia judeo-cristiana, según la cual
Dios había creado las especies, que habían permanecido inalterables desde entonces. A
partir de 1701, la versión autorizada de la Biblia (la del rey Jacobo) incluyó en sus
márgenes el cálculo ampliamente aceptado y realizado por el arzobispo Ussher que situaba
el acto de la creación 8.000 años atrás.[2]
Linneo

La clasificación de las especies, o taxonomía, de Aristóteles, sufrió escasas


modificaciones hasta 1735, cuando el doctor en medicina y botánico sueco Carl Linneo —
conocido también por su nombre latinizado, Carolus Linnaeus— (hay que recordar que
prácticamente todos los escritos científicos estaban en latín), publicó Systema Naturae (El
sistema natural), donde agrupó a las especies según sus caracteres físicos. A lo largo de
ediciones posteriores y ampliadas, clasificó el mundo natural en una jerarquía que
empezaba con tres reinos (animales, plantas y minerales) y progresaba hasta alcanzar la
especie de mayor rango, el hombre. La tabla 16.1 muestra la ubicación del hombre en su
clasificación.

Su obra causó controversia, puesto que implicaba que no éramos más que una parte
cualquiera de la naturaleza y próxima, además, al mono.
Linneo, sin embargo, consideraba que su papel consistía en clasificar las distintas
especies que Dios había creado, a pesar de que en un momento avanzado de su vida su
mayor preocupación fuera que el cruce de distintas especies de plantas producía híbridos
que no habían existido previamente. Estuvo a punto de proponer la evolución, pero llegó a
la conclusión de que los híbridos eran productos de especies que Dios había creado en los
inicios del mundo.[3]
El sistema taxonómico de Linneo sigue utilizándose hoy en día, aunque biólogos,
zoólogos, paleontólogos, antropólogos, genetistas y biólogos moleculares han expandido la
jerarquía y desarrollado la base de la clasificación a partir solo de la morfología.
El desarrollo de las ideas evolucionistas

De Maillet

En el siglo xviii, unos pocos intelectuales, influidos por los geólogos que sugerían
que la Tierra era considerablemente más antigua de lo que insinuaba la Biblia, especularon
que las especies cambiaban. Probablemente, el primer defensor moderno de la evolución
biológica y de un antepasado común para animales radicalmente distintos fue el
diplomático francés e historiador especializado en ciencias naturales, Benoit de Maillet. Su
datación de la edad de la Tierra en 2,4 miles de millones de años y su idea de que toda la
vida empezó en aguas poco profundas quedan expuestas en su obra Telliamed, publicada de
forma póstuma en 1748.[4]
Buffon

El historiador especializado en ciencias naturales francés, Georges Louis Leclerc,


conde de Buffon, compiló una obra impresionante en cuarenta y cuatro volúmenes, Histoire
Naturelle [Historia natural], entre 1749 y su fallecimiento, en 1788, quedando la redacción
de los últimos ocho volúmenes en manos de un colega que acabó publicándolos en 1804.
Producto de la Ilustración francesa, Buffon se inspiró en las ideas de Isaac Newton y en las
observaciones detalladas de muchos científicos para proponer que todo el mundo natural,
desde la formación de la Tierra hasta la producción de las distintas especies, comprendía
fenómenos naturales que podían explicarse a partir de fuerzas naturales que obedecían leyes
naturales.
Prefiguró la ciencia de la biogeografía observando las diferencias entre las especies
en distintas localizaciones. Sus ideas sobre la transformación de las especies quedan
ejemplificadas por su observación, basada en evidencias más que cuestionables, de que los
animales del Nuevo Mundo eran más pequeños y más débiles que sus homólogos en el
Viejo Mundo. Atribuía esta «degeneración» a los agentes transformadores del clima, la
alimentación y la domesticación. Este transformismo biológico, sin embargo, no daba lugar
a nuevas especies.[5]
Erasmus Darwin

Erasmus Darwin, el abuelo de Charles Darwin, fue un físico, poeta, abolicionista y


librepensador radical que realizó importantes contribuciones en el campo de la medicina, la
física, la meteorología, la horticultura y la botánica. Reconoció la influencia de numerosas
fuentes, incluyendo entre ellas al «ingenioso señor Buffon», cuando expuso sus opiniones
sobre la evolución biológica en el primer volumen, publicado en 1794, de su Zoonomia, or,
the Laws of Organic Life [Zoonomía, o las leyes de la vida orgánica], que tuvo la distinción
de ser prohibida por el papa. Fue más allá de Buffon al especular que todos los animales de
sangre caliente provenían de un «filamento vivo […] dotado de animalidad, con la
capacidad de poder adquirir nuevas partes […] y con la facultad de continuar mejorando
gracias a su actividad inherente» y que estás mejoras pasaban de una generación a la
siguiente.[6]
En Temple of Nature; or, The Origin of Society [El templo de la naturaleza; o, el
origen de la sociedad], un poema compuesto por 1.928 versos complementando con notas
muy extensas publicado póstumamente en 1803, describe la gloria de la humanidad,
incluyendo sus poderes mentales y su sentido ético, y atribuye sus orígenes a la primera
vida microscópica bajo el mar. A partir de ahí, evoluciona en distintas especies como
respuesta a una lucha por alcanzar la perfección en distintos entornos. La última anotación
especula incluso con que el universo terminará con un Big Crunch y emergerá para
evolucionar de nuevo, como un ciclo en un universo eterno que opera bajo «leyes
inmutables impresas en la materia por la Gran Causa de las Causas».[7]
Hutton

James Hutton es conocido por su revolucionaria explicación sobre cómo los


procesos geológicos se producen lentamente a lo largo de extensos periodos de tiempo, una
postura contraria al relato sobre la edad de la Tierra, extraído de la Biblia y dominante en
aquel momento. Fue seguramente el primero en proponer la supervivencia de los más
fuertes como causa del cambio evolutivo. En 1794, 65 años antes de El origen de las
especies de Charles Darwin, publicó en Edimburgo An Investigation of the Principles of
Knowledge [Una investigación de los principios del conocimiento], un tratado filosófico en
tres volúmenes con una extensión total de 2.138 páginas. Basándose en sus experimentos
con cultivos de plantas y crianza de animales, en el capítulo 3 de la Sección 3, Volumen 2,
describe lo que posteriormente Darwin denominaría «selección natural»:
Al imaginar una variedad indefinida entre los individuos de esa especie, podemos
estar seguros de que, por un lado, los que más se alejen de la constitución mejor adaptada,
presentarán mayor tendencia a perecer, mientras que, por otro lado, los cuerpos
organizados, los que más se acerquen a la mejor constitución para las circunstancias
actuales, estarán mejor adaptados para continuar, mantenerse y multiplicar los individuos
de su raza.
Como ejemplo, Hutton explica que entre los perros que basan su supervivencia en la
velocidad de sus patas y en su agudeza visual, los que sean más débiles en esas cualidades
perecerán, mientras que los mejor equipados con estas cualidades, estarán mejor adaptados
para la supervivencia y se multiplicarán engendrando individuos similares de su raza. Pero
si la supervivencia dependiera de un sentido del olfato afinado, aplicando este mismo
«principio trascendental de variación», la tendencia natural «sería cambiar las cualidades
del animal, y producir una raza de sabuesos con buen olfato, en vez de aquellos que
capturan su presa gracias a su velocidad».[8]
Lamarck

El zoólogo especializado en invertebrados y paleontólogo francés, Jean-Baptiste


Lamarck, tenía ideas muy similares a las de Erasmus Darwin, pero ninguna evidencia
sugiere que fueran mutuamente conscientes de sus trabajos.
Como resultado de sus investigaciones, escribió su libro más importante,
Philosophie zoologique [Filosofía zoológica], que presentó ante el Institut National des
Sciences et Arts en 1809. Sus repetitivas y con frecuencia oscuras 903 páginas, contienen
conceptos básicos ara el pensamiento evolutivo moderno. A partir de su estudio de los
animales, llegó a las siguientes conclusiones:
1. Con el paso del tiempo deben de haberse sustituido muchas formas de vida,
puesto que aparecen como fósiles pero ya no son visibles hoy en día, mientras que formas
de vida existentes en la actualidad no aparecen como fósiles.
2. Los animales pueden clasificarse según su incremento de complejidad.
3. Los animales vivos exhiben una amplia diversidad de formas.
4. Los animales vivos están especialmente bien adaptados a su entorno.
Explicó estos fenómenos proponiendo que la acción del calor, la luz y la humedad
sobre la materia inorgánica generan pequeños gránulos de materia viva, una teoría que hoy
se conoce como abiogénesis, el origen de la vida a partir de materia inanimada. Esta
materia inanimada posee el poder inherente de adquirir una organización cada vez más
compleja. La abiogénesis no fue un suceso único en la historia de la Tierra, tal y como se
considera en general hoy en día, sino que se produce continuamente, y las distintas especies
que vemos son resultado de los linajes que inician en momentos distintos su proceso de
incremento de la complejidad en busca de la perfección. El Homo sapiens es el linaje más
antiguo porque ha alcanzado la etapa más elevada de complejidad.
Lanzó la hipótesis de que la adaptación a las distintas condiciones
medioambientales interrumpe este avance en complejidad para producir la gran diversidad
de especies que encontramos dentro de cada género. De ahí que este transformismo, o
evolución, avance desde árboles genealógicos sencillos a otros cada vez más complejos, en
los cuales el hombre ocupa la cúspide.
Estas propuestas materialistas desafiaron las creencias básicas cristianas que
defendían que Dios había creado todas las formas vivas y que el hombre ocupaba un lugar
único en la creación de Dios.
Para apoyar su teoría evolucionista, Lamarck ofreció cuatro categorías de
evidencias que Charles Darwin utilizaría en El origen de las especies cincuenta años más
tarde: el registro fósil, la gran variedad de animales y plantas producidas mediante cultivo
humano (Lamarck se anticipó incluso a Darwin mencionando la paloma colipava), la
presencia de vestigios de estructuras no funcionales en muchos animales y la presencia de
estructuras embrionarias que no tienen equivalente en el ejemplar adulto.
Posteriormente, sin embargo, el lamarquismo acabó asociado no con el fenómeno
de la evolución biológica, sino a la causa que proponía, que quedó establecida en dos leyes
en Philosophie zoologique. La primera ley dice que los organismos cambian en respuesta a
los cambios de su entorno: el cambio medioambiental provoca cambios en las necesidades
fisiológicas de los organismos, que a su vez provocan cambios en su conducta, que a su vez
provocan un incremento de la utilización o no utilización de determinadas partes de su
cuerpo, lo que a su vez provoca el aumento o disminución de tamaño de esas partes. La
segunda ley dice que estos cambios son hereditarios. Como consecuencia de ello, los
cambios en la morfología, aun siendo muy pequeños, acaban acumulándose a lo largo de
generaciones para producir grandes transformaciones. Como ejemplo, Lamarck explicaba
que las jirafas empezaron a estirar el cuello para alcanzar el único sustento que estaba en su
día disponible, las hojas de las copas de los árboles; este alargamiento gradual del cuello
era hereditario y aumentó en cada generación hasta generar la especie que vemos hoy en
día.
La idea de que el entorno provoca cambios hereditarios en los organismos no ha
encontrado base empírica hasta muy recientemente, gracias a la epigenética, de la que
hablaré en otro capítulo.
Las ideas de Lamarck fueron ignoradas y ridiculizadas durante toda su vida, y el
estudioso murió en la pobreza en 1829.[9]
Geoffroy

El naturalista francés Etienne Geoffroy Saint-Hilaire fue un deísta que creía que
Dios había creado el universo y lo había dejado funcionando bajo leyes naturales sin más
intervención por su parte. Amigo y colega de Lamarck, defendió y amplió sus teorías.
Recopilando evidencias a partir de la anatomía comparativa, la paleontología y la
embriología, defendió la unidad subyacente del diseño de todos los órganos. Por analogía
con el desarrollo del embrión simple hasta el adulto complejo, utilizó el término
«evolución» para aplicarlo a la transmutación de especies en el tiempo geológico.[10]
Wells

En 1813, William Wells, medico e impresor escocés-americano, presentó un artículo


en la Royal Society. Según su biografía, escrita por J. H. S. Green y publicada en Nature,
Wells «no solo presentó una teoría sobre la variación, la selección, la descendencia con
modificación y el origen de las razas del hombre; sino que además se dio cuenta de la
importancia de la enfermedad en la selección, un factor no mencionado por Darwin en El
origen de las especies».[11] El documento de Wells fue publicado de forma póstuma en
1818.
Grant

Robert Edmond Grant, un biólogo viajado y radical, amigo de Geoffroy, fue


miembro destacado de la Plinian Society de Edimburgo. Charles Darwin se incorporó a la
misma en 1826, cuando inició su segundo año de estudios de Medicina en la Universidad
de Edimburgo y se convirtió en el alumno más aplicado de Grant. Grant era un defensor
entusiasta de las ideas transformistas de Lamarck y Geoffroy y especuló que la
«transformación» podía afectar a todos los organismos que evolucionaban desde un modelo
primitivo, lo que sugería un origen común para plantas y animales.[12]
Matthew

En 1831, Patrick Matthew, terrateniente escocés y fruticultor, publicó un libro


titulado On Naval Timber and Arboriculture [Sobre madera para construcción naval y
arboricultura]. En el apéndice, Matthew amplió su idea sobre cómo la selección artificial
podía mejorar árboles cultivados hasta convertirla en una ley universal de selección natural
en la que la «progenie de los mismos padres, bajo grandes diferencias de circunstancias,
podría, en el transcurso de varias generaciones, convertirse incluso en especies distintas,
incapaces de co-reproducirse».[13]
Wallace[14]

Las dificultades financieras de la familia interrumpieron en seco la formación de


Alfred Russel Wallace en la escuela de enseñanza secundaria de Hertford, en el sudeste de
Inglaterra, cuando él tenía 14 años de edad. Consiguió, de todos modos, trabajo como
topógrafo e ingeniero y fue entonces cuando empezó a sentir fascinación por el mundo
natural. Inspirado por las crónicas de los naturalistas, incluyendo entre ellas el diario que
había publicado en 1839 Charles Darwin en el que relataba su viaje a bordo del Beagle, en
1848 decidió emprender también un viaje a América del Sur para recoger ejemplares de
plantas, insectos y animales.
Le había impresionado asimismo la obra Principles of Geology [Principios de
Geología], de sir Charles Lyell, donde el autor proponía que los procesos lentos y
continuados podían aportar grandes cambios, y Vestiges of the Natural History of Creation
[Vestigios de la historia natural de la Creación], una obra muy controvertida de ciencia
popular publicada de manera anónima en 1844[15] y que defendía un origen evolutivo del
sistema solar, la Tierra y todos los seres vivos. Al parecer, estas obras le convencieron de la
transmutación de las especies y se empeñó en investigar sus causas. Decidió financiar su
viaje vendiendo los ejemplares recogidos a coleccionistas cuando regresara al Reino Unido.
En 1854 inició una expedición de ocho años al archipiélago malayo (Malasia e
Indonesia actuales), durante la cual inició una correspondencia con Darwin. En 1858 envió
a Darwin un ensayo titulado «On the Tendency of Varieties to Depart Indefinitely From the
Original Type» (Sobre la tendencia de las variedades de alejarse indefinidamente de la
tipología original), solicitándole que lo revisara y se lo pasara a Lyell si lo consideraba
merecedor de ello.
Darwin estaba desolado. Dos años antes había escrito a su amigo Lyell
reconociendo que «Odio la idea de escribir por prioridades, pero me enojaría que alguien
publicara mis doctrinas antes que yo».[16] El 18 de junio de 1858, Darwin envió el ensayo
a Lyell con una carta de acompañamiento en la que decía: «Jamás vi una coincidencia más
sorprendente; de haber tenido Wallace el manuscrito de mi borrador escrito en 1842, ¡no
podría haber hecho un mejor resumen! […]. De este modo mi originalidad […] va a quedar
destruida».[17]
Una semana más tarde, Darwin le escribió otra carta a Lyell en la que le decía:
Nada hay en el borrador de Wallace que no esté escrito, mucho más completo, en mi
borrador, redactado en 1844, y leído por Hooker hace una docena de años. Hará cuestión de
un año, remití un breve resumen, del cual conservo copia, de mis teorías […] a Asa Gray,
con lo cual podría con toda exactitud decir y demostrar que no he tomado nada de Wallace
[…]. Me resultaría duro verme forzado a perder la prioridad de mi postura desde hace
tantos años.
Entre protestas por su falta de méritos, rogaba a Lyell que le diera su opinión sobre
si consideraría deshonroso por su parte publicar en aquel momento y le solicitaba que
remitiera el material a otro de sus confidentes, el botánico Joseph Hooker. Escribió luego,
en un tono similarmente auto-despectivo a Hooker, ofreciéndose a escribir una versión más
detallada de su borrador de 1844 para que fuese publicada en el Linnean Journal.[18]
Lyell y Hooker le respondieron ofreciéndole a Darwin la solución que este les había
solicitado de manera implícita. El 1 de julio de 1858, realizaron ambos una presentación
conjunta en la Linnean Society a la que pusieron por título «On the Tendency of Species to
form Varieties; and on the Perpetuation of Varieties and Species by Natural Means of
Selection» [Sobre la tendencia de las especies a formar variedades; y sobre la perpetuación
de las variedades y las especies por medio de la selección natural]. La presentación incluía
extractos del borrador de 1844 que Darwin había enviado a Hooker más parte de la carta
que Darwin había escrito a Asa Gray en 1857, seguido todo ello por el ensayo de veinte
páginas de Wallace. Los comentarios introductorios de Lyell y Hooker dejaban claro que no
solo querían dejar constancia de las reivindicaciones de prioridad de Darwin y Wallace,
sino que además estaban presentando el material por el interés de la ciencia en general.[19]
Sin Darwin presentándose personalmente para reclamar su prioridad, obtuvo el resultado
deseado de registrar públicamente que él había sido el primero en tener la idea de la
selección natural y reconocer que Wallace, de un modo independiente aunque también
posterior, había llegado a la misma conclusión.
Wallace no fue consultado al respecto, pero se quedó aparentemente satisfecho
cuando fue informado sobre el acto. Otorgaba a un profesional carente de formación
universitaria, que se ganaba la vida recogiendo y vendiendo ejemplares, el reconocimiento
de los miembros de la clase científica y el acceso a ellos. En la Inglaterra victoriana, esta
clase estaba integrada por caballeros de clase alta con medios económicos, como Lyell y
Darwin.
Darwin ofreció su amistad al joven y Wallace respondió convirtiéndose en uno de
los defensores más acérrimos de Darwin, apoyando On the Origin of Species by Means of
Natural Selection, or The Preservation of Favoured Races in the Struggle for Life [Del
origen de las especies por medio de la selección natural, o la preservación de las razas
favorecidas en la lucha por la existencia], el libro que Darwin publicaría el año después de
la presentación en la Linnean Society.
Esta amistad no impidió que Wallace no coincidiera con Darwin en diversos
aspectos, incluyendo el grado hasta el cual la selección natural podía explicar el desarrollo
del sentido ético y las facultades intelectuales del hombre, el grado hasta el cual la
selección sexual podía explicar el dimorfismo sexual, la creencia de Darwin en la herencia
de caracteres adquiridos y su concepto de la pangénesis (véase más adelante).
En 1864, Wallace publicó un documento titulado «The Origin of Human Races and
the Antiquity of Man Deduced from the Theory of “Natural Selection”» [El origen de las
razas humanas y la antigüedad del hombre deducidos a partir de la teoría de la «selección
natural»], con temas que Darwin no había abordado públicamente, y en 1889 un libro
Darwinism [Darwinismo], en el que explicaba y defendía la selección natural. En él
proponía que la selección natural podía llevar al aislamiento reproductivo de dos variedades
animando el desarrollo de barreras contra la hibridación, ayudando con ello a generar
nuevas especies.
Charles Darwin

¿Un pensador original?

Tal y como demostraron las celebraciones del doscientos aniversario de su muerte y


el ciento cincuenta aniversario de la publicación de El origen de las especies, Charles
Darwin se presenta en general como la primera persona que desarrolló la teoría de la
evolución biológica y que propuso la selección natural como su causa.
Darwin finalizó su viaje de cinco años alrededor del mundo a bordo del HMS
Beagle en 1836, y pasó los veintitrés años siguientes intentando dar sentido a los
ejemplares que había recogido y a todo lo que había visto, buscando más ejemplares de
especímenes y relatos de otros naturalistas, llevando a cabo experimentos y leyendo con
avidez. Los cuadernos de trabajo que llenó durante este periodo hacen repetidas referencias
a «mi teoría» y no dan pistas de que se inspirara en ideas de otros. Pero aun así, Paul
Pearson, profesor de la Universidad de Cardiff, señala que es posible que no fuera una
coincidencia que Wells, Matthew y Darwin hubieran estudiado en Edimburgo, la ciudad de
Hutton, famosa por sus sociedades intelectuales y sus pensadores radicales, y «parece
posible que un concepto medio olvidado de sus tiempos de estudiante resurgiera de nuevo
en su cabeza [la de Darwin] al intentar explicar las observaciones de especies y las
variedades que había recogido durante el viaje del Beagle».[20] Además, su gran amigo y
confidente, el geólogo sir Charles Lyell, era el principal defensor de la teoría geológica
anti-bíblica de Hutton, el uniformismo.[21] Grant, el mentor de Darwin en Edimburgo, era,
por otro lado, «un transmutacionista lamarquiano entusiasta e introdujo al joven Darwin en
las enseñanzas tanto del transformismo de Lamarck como de su zoología de invertebrados».
[22] Cuatro años después de marchar de Edimburgo, Darwin se reunió con Grant, entonces
profesor de Anatomía comparativa en la recién fundada Universidad de Londres,[23] antes
de zarpar a bordo del Beagle.
Aparte de reconocer que se había visto inducido a publicar al enterarse de que
Wallace había llegado de forma independiente a sus mismas conclusiones, en las dos
primeras ediciones de El origen de las especies, Darwin no hace mención alguna de las
ideas evolucionistas de nadie más. La tercera edición, que vio la luz en 1861, incluía un
breve prefacio para esbozar los «Recientes avances de opinión sobre el origen de las
especies». Allí declara no conocer los escritos de Buffon, ofrece un breve resumen de los de
Lamarck (solo después de que Lyell le instara a hacerlo para reconocer de este modo el
trabajo de Lamarck[24]) y ofrece un sutil resumen de las ideas de Geoffroy aportadas por
su hijo, diciendo que Geoffroy era cauteloso a la hora de extraer conclusiones y que no
creía que las especies contemporáneas estuvieran experimentando modificación.
No hace ninguna referencia a Hutton. Menciona a su abuelo en una única ocasión y
en una nota a pie de página diciendo que «anticipó los fundamentos erróneos de la opinión
y los puntos de vista de Lamarck».
Entre otras referencias en el esbozo histórico que realiza, menciona un párrafo del
documento que publicó Grant en 1826 en el Edinburgh Philosophical Journal donde
«declara con claridad su creencia de que las especies descienden de otras especies y que
mejoran en el transcurso de la modificación».[25]
Darwin reconoce los méritos de Matthew por tener, en 1831,
Precisamente el mismo punto de vista sobre el origen de las especies que […] el
propuesto por el señor Wallace y por mí mismo en el Linnean Journal, y que se amplía en
el presente volumen. Por desgracia, el señor Matthew presentó su propuesta muy
brevemente en párrafos diseminados en un Apéndice a un trabajo sobre un tema distinto.
Continúa citando una carta de Matthew, en la que su autor dice:
En mi caso, el concepto de esta ley de la Naturaleza llegó de forma intuitiva como
un hecho obvio, casi sin esfuerzo de reflexión y concentración. El señor Darwin merita más
el descubrimiento que yo […]. Lo ha trabajado a partir del razonamiento inductivo,
lentamente y con la precaución que conlleva ir abriéndose sintéticamente camino de hecho
en hecho.[26]
En la cuarta edición, publicada en 1866, Darwin admite que Wells fue el primero en
reconocer, en 1813, el principio de selección natural, «pero lo aplica únicamente a las razas
del hombre, y solo a determinados caracteres».
Comparando los textos escritos por sus predecesores con lo que Darwin explica
sobre ellos, resulta difícil no llegar a la conclusión de que Darwin entra en un juego
característico del siglo xix: minimizar las contribuciones de los demás[27] para reivindicar
las ideas de la evolución biológica, o la descendencia con modificación, como él la
denominaba, y de la selección natural como su causa.
La contribución de Darwin

La contribución de Darwin a la teoría de la evolución biológica consta de cuatro


partes. En primer lugar, recopiló una cantidad importante de evidencias que socavaron el
punto de vista ortodoxo de que Dios había creado todas las especies por separado y
argumentó de forma persuasiva, aunque en absoluto concluyente, que todas las especies de
todos los géneros habían evolucionado gradualmente a partir de un antepasado común. En
segundo lugar, planteó la hipótesis de que la selección natural era la causa principal, aunque
no única, de la evolución. En tercer lugar, propuso que la selección sexual era otra causa. Y
en cuarto lugar, la promoción que hizo del fenómeno de la evolución biológica y de la
hipótesis de la selección natural como su causa, fue crucial para la aceptación de estas ideas
en el seno de la comunidad científica.
Después de regresar de su periplo a bordo del Beagle, Darwin dedicó más de
cuarenta años a estudiar y experimentar con plantas y animales, publicando durante este
periodo diecinueve libros y centenares de documentos científicos. De su prolífica
producción, que sirvió para establecer su reputación como naturalista, destacan On the
Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in
the Struggle for Life [Del origen de las especies por medio de la selección natural, o la
preservación de las razas favorecidas en la lucha por la existencia], abreviado comúnmente
como El origen de las especies, publicado por primera vez en 1859 y seguido por otras
cinco ediciones, y The Descent of Man, and Selection in Relation to Sex [El origen del
hombre y la selección en relación con el sexo], publicado por primera vez en 1871 con una
edición revisada en 1874 y una edición final que incorporaba el artículo que había
publicado en 1876 en Nature, titulado «Sexual Selection in Relation to Monkeys»
[Selección sexual con relación a los monos].
Evidencias
Las evidencias de la descendencia con modificación (no es hasta 1872, con la
edición final de El origen de las especies, que Darwin utiliza el término «evolución»)
presentadas en El origen de las especies pueden agruparse en nueve categorías:
1. Variaciones de plantas y animales domésticos, especialmente mediante crianza
selectiva.
La rápida alteración en los caracteres de las plantas y los animales domésticos, en
especial cuando se crían o cultivan selectivamente en busca de caracteres concretos,
demuestra el cambio evolutivo; entre las variaciones heredadas está la conducta,
ejemplificada por los instintos de ejemplares jóvenes de retriever y perro pastor sin
entrenamiento.
Darwin crio selectivamente palomas y determinó de que las distintas variedades
descienden de la paloma bravía (Columba livia). Sin embargo, llegó a la conclusión de que
la gran variedad de razas del perro doméstico da a entender que descienden de antepasados
salvajes distintos.
Todos sus ejemplos demuestran más bien las variaciones dentro de una misma
especie que el origen de las distintas especies.
2. Variaciones en la naturaleza.
Después de presentar las distintas definiciones y clasificaciones de especies
propuestas por botánicos, zoólogos y naturalistas, Darwin reflexiona sobre «lo
completamente vago y arbitrario de la distinción entre especies y variedades».[28] En los
grandes géneros, las especies estrechamente relacionadas suelen formar pequeños grupos
alrededor de otras especies y tienen categorías restrictivas. Esto, defiende Darwin, es
consistente con aquellas especies que se originan a partir de variedades primitivas, pero el
patrón no funciona si cada especie es una creación independiente.
3. Registro fósil.
Darwin defiende que la aparición repentina de fósiles y la ausencia de formar
intermedias no es un argumento en contra de la evolución. Aporta varias razones,
incluyendo la imperfección del registro fósil (ya que los fósiles solo se forman durante la
subsidencia) y la extinción de las especies intermedias en manos de aquellos sucesores
mejor modificados que ganaron la batalla por la vida. Cita ejemplos de fósiles cuyas formas
muestran relación con especies vivas, como los fósiles de mamíferos encontrados en
Australia y los marsupiales actuales de ese continente, y defiende que la mayor variedad de
especies vivas a partir de tipologías fósiles ancestrales corrobora la descendencia con
modificación.
4. Clasificación de las especies.
La clasificación de las especies en grupos relacionados «funciona si reconocemos el
parentesco común de formas afines, junto con su modificación a través de la variación y la
selección natural, teniendo en cuenta las contingencias de la extinción y la divergencia de
caracteres».
5. Similitud entre órganos que realizan funciones distintas en especies de la misma
clase.
Estos órganos —como la mano de un hombre, la mano de un topo, la pata de un
caballo, la aleta de una marsopa y el ala de un murciélago— están construidos siguiendo el
mismo patrón e incluyen huesos similares en localizaciones relativamente similares. Todo
ello sugiere que descienden del órgano de un antepasado común y que fueron
modificándose para adaptarse a distintos entornos.
6. Similitud de embriones.
Los embriones de mamíferos, aves, lagartos y serpientes son sorprendentemente
similares, tanto en su aspecto general como en el modo de desarrollo de sus partes; carecen
de las variaciones que aparecen en un momento posterior de su vida. Estos embriones,
defiende Darwin, son similares en estructura a los progenitores adultos del grupo, menos
modificados, más antiguos y normalmente extintos. Se trata, sin embargo, de una
especulación, puesto que no existen evidencias para sustentarlo.
7. Cambios en el desarrollo.
Darwin extiende este argumento al desarrollo de los ejemplares jóvenes, sobre todo
en sus etapas de transición. Destaca, por ejemplo, que durante el tiempo en que los jóvenes
confían en sus padres para conseguir el alimento, no suelen mostrar las variaciones
adaptativas que adquieren en la edad adulta. Por ejemplo, los plumajes de las aves jóvenes
de géneros relacionados son muy similares. Su línea de argumentación incorpora la
metamorfosis, como en el caso de la transición de la oruga a mariposa o de la larva a
mosca.
8. Órganos rudimentarios, atrofiados y abortados.
Detalles como los dientes en los fetos de ballenas, mamíferos cuyos ejemplares
macho poseen glándulas mamarias rudimentarias, las alas del avestruz y otros ejemplos,
apuntan hacia caracteres que debían de tener los antepasados a partir de los cuales
evolucionaron. La teoría de la creación, por el contrario, tiene dificultades para explicar
tales caracteres.
9. Distribución geográfica de las especies.
Darwin consideró que las evidencias más convincentes de la descendencia con
modificación y su causa principal la aportaban las variaciones de especies halladas en
localizaciones geográficas separadas por barreras de migración y halladas también en
distintos entornos.
El ejemplo icónico de lo que hoy en día se conoce como biogeografía es el pinzón
de Darwin. La edición de 2008 del Encarta World English Dictionary los define como:
Pinzones de las islas Galápagos: las aves de las islas Galápagos en las que Charles
Darwin basó su teoría de la selección natural a partir de la observación de sus hábitos
alimenticios y las diferencias en la estructura de su pico. Subfamilia Geospizinae.
Así se amplía y se enseña en muchas escuelas y universidades. Por ejemplo, un
tutorial del Palomar College de California dice lo siguiente:
Darwin identificó trece especies de pinzones en las islas Galápagos. Lo cual le
resultó sorprendente, puesto que él conocía tan solo una especie de esta ave en el continente
sudamericano, a prácticamente 600 millas al este, donde presuntamente se originaron todas
[…].
Cada isla tenía su propia especie de pinzón y se diferenciaban entre ellas de
diferentes maneras, en particular por la forma del pico. Darwin planteó la idea de que todos
los pinzones descendían de un único pinzón ancestral y que los diferentes entornos de las
distintas islas habían favorecido caracteres distintos en su población de pinzones. Si en una
isla había abundancia de insectos para alimentarse, por ejemplo, pero las semillas y los
frutos secos eran relativamente escasos, aquellos pinzones que hubieran nacido con un pico
fino que les facilitara el acceso a los insectos escondidos en las grietas habrían sobrevivido
mejor que las aves con pico más voluminoso y duro. Las aves de pico fino habrían criado
con éxito más camadas que los pinzones con el pico voluminoso y, teniendo en cuenta de
que la descendencia suele heredar los caracteres de sus progenitores, esa forma de pico se
habría ido extendiendo gradualmente entre la población de pinzones de la isla. Y lo
contrario habría sucedido en aquellas islas donde hubiera más semillas que insectos, donde
prosperarían las aves con el pico mejor adaptado para triturar semillas. Al final, las
poblaciones se habrían diferenciado hasta tal punto que les habría resultado imposible
cruzarse entre ellas y se habrían convertido en especies distintas.[29]

Esto, por desgracia, es otro mito darwinista.


Cuando Darwin realizó su viaje en el Beagle, no consideró que todos los ejemplares
de aves que había capturado fueran pinzones; a algunos los etiquetó como mirlos, a otros
como «pico grueso» y a otros como chochines; además, cometió el fallo de no etiquetar qué
ave había sido capturada en qué isla. A su llegada, donó las aves a la Zoological Society de
Londres, que a su vez las donó a John Gould, un ornitólogo, para que se encargara de su
identificación. Fue Gould quien identificó los ejemplares como especies distintas de pinzón
(la figura 16.1 reproduce sus dibujos). Posteriormente, Darwin examinó las colecciones de
tres compañeros de a bordo del Beagle, entre ellos la del capitán FitzRoy.[30]
El mito fue promulgado por el ornitólogo británico David Lack en un libro
publicado en 1947 titulado Darwin’s Finches [Los pinzones de Darwin].[31] Sin embargo,
Frank Sulloway, de la Universidad de Harvard, examinó las fuentes originales. En 1982
demostró, entre otras cosas, que Lack había asumido erróneamente que el detallado
etiquetado de los ejemplares que había llevado a cabo FitzRoy era obra de Darwin y había
confundido además la localización de diversos ejemplares.
Cuando Darwin visitó las islas Galápagos no solo no se dio cuenta de que en
distintas islas había pinzones distintos, sino que además tampoco emparejó las distintas
formas de pico con tipos distintos de alimentación. Según sus biógrafos, Adrian Desmond y
James Moore, a su regreso a Inglaterra, Darwin
Siguió confuso con los pinzones de las Galápagos […] sin ser consciente de la
importancia de los distintos tipos de pico […]. No percibió que un se especializara y
adaptara a diferentes nichos medioambientales.[32]
A pesar de que las imágenes de estos pinzones fueran utilizadas como símbolo en
muchas de las celebraciones del 150 aniversario de la primera publicación de El origen de
las especies, Darwin nunca los mencionó en ninguna edición del libro.
Dos capítulos de El origen de las especies, no obstante, ofrecen ejemplos de
biogeografía, la principal fuente de evidencias de Wallace para sustentar la evolución
biológica. En ellos, Darwin destaca las similitudes entre especies que viven en un amplio
rango de condiciones climáticas distintas del continente americano y lo diferentes que son
estas especies de las que viven en condiciones comparables en África y Australia. Atribuye
las diferencias a las barreras naturales a la migración.
Y por lo que a las islas Galápagos se refiere, Darwin observa que prácticamente
todas las especies terrestres y acuáticas muestran una afinidad muy próxima a las especies
del continente sudamericano, que se encuentra entre 500 y 600 millas de distancia de las
islas, a pesar de las importantes diferencias geológicas, topográficas y climáticas que
existen. En lugares con condiciones similares, como el archipiélago volcánico de Cabo
Verde, en la remota costa africana occidental, las especies son muy distintas.
Una explicación creacionista exige que Dios creara de manera independiente
innumerables variaciones de especies para situarlas en lugares distintos. Una explicación
más razonable es que las especies del continente sudamericano migraran hacia el
archipiélago de las Galápagos y una vez allí desarrollaran sus relativamente leves
variaciones en comparación con las variaciones más destacadas que presentan con respecto
a especies de localizaciones mucho más remotas.
Selección natural
Darwin defendía que la causa principal, aunque no única, de estas variaciones era la
selección natural, un principio según el cual los mejores competidores de cualquier
población de organismos presentan mejores probabilidades de sobrevivir y criar,
transmitiendo de este modo sus caracteres a las generaciones posteriores.
Este punto de vista estuvo muy influenciado por la sexta edición revisada del
Ensayo sobre el principio de la población, de Thomas Malthus, clérigo y economista
inglés, que se publicó en 1826. Básicamente, Malthus sostiene que mientras que las
reservas de alimento se incrementan en proporción aritmética, la población se incrementa
naturalmente en proporción geométrica; de ahí que si no se ejerce ningún tipo de control,
cualquier población acabará superando su reserva de alimento y se producirán hambrunas.
Todas las ediciones de El origen de la especies ofrecen una ilustración imaginativa
del funcionamiento de la selección natural. En una manada de lobos, los más rápidos y los
más agiles serán los predadores de venados más efectivos y tendrán mayores probabilidades
de supervivencia.[33] Se trata de una ilustración sorprendentemente similar a la que
acompañaba a la explicación de la supervivencia del mejor adaptado de Hutton,
mencionada anteriormente, que argumentaba que si la supervivencia de unos perros se
basaba en la velocidad de sus patas y en su agudeza visual, los que estuvieran mejor
equipados con estas cualidades serían los mejor adaptados para la supervivencia y se
multiplicarían, mientras que aquellos que carecieran de ellas, perecerían.
En la edición final de El origen de las especies, Darwin definió la selección natural
como sigue:
Gracias a esta lucha [por la supervivencia], las variaciones, por pequeñas que sean,
y cualquiera que sea la causa de la que procedan, si son útiles en cualquier grado a los
individuos de una especie […] tenderán a preservar a dichos individuos y serán, en general,
heredadas por su descendencia. Estos descendientes tendrán, a su vez, en virtud de este
hecho, una mayor probabilidad de sobrevivir, ya que, entre los muchos individuos de una
especie cualquiera, nacidos periódicamente, solo un pequeño número llega a sobrevivir. He
dado a este principio, en virtud del cual una variación, por insignificante que sea, se
conserva y perpetúa si es útil, el nombre de Selección Natural, para indicar su relación con
el poder de selección del hombre.[34]
Darwin desconocía las causas de estas variaciones pero, a diferencia de la ortodoxia
actual, consideraba que no eran al azar.
Hasta el momento, he hablado a veces como si las variaciones —tan comunes y
multiformes con los seres orgánicos en estado de domesticación y en menor grado en
aquellos que están en la naturaleza— fueran debidas al azar. Pero esto, por supuesto, es una
expresión completamente incorrecta.[35]
La selección natural actúa sobre estas variaciones.
Hemos visto que el hombre, por selección, puede producir ciertamente grandes
resultados y puede adaptar seres orgánicos a sus propias aplicaciones, mediante la
acumulación de variaciones leves pero útiles, dada a él por la mano de la Naturaleza. Pero
la Selección Natural, como veremos de aquí en adelante, es un poder incesantemente listo
para la acción, e inmensamente superior a los débiles esfuerzos del hombre, como las obras
de la Naturaleza lo son con respecto a las obras de Arte.[36]
Darwin reivindica que la selección natural no solo es un poder inmensurablemente
superior a la selección artificial (a diferencia de la postura de la biología ortodoxa actual),
sino que además es la causa de la mejora evolutiva.
Conduce a la mejora de todas las criaturas en relación con sus condiciones de vida
orgánicas e inorgánicas; y en consecuencia, en la mayoría de los casos, a lo que debemos
considerar como un avance en organización.[37]
Especiación
A pesar de su título, podría decirse que el libro más famoso de Darwin no aborda el
tema del origen de las especies. Y ello se debe principalmente a que Darwin considera que
la selección natural es lenta y gradual y que, por lo tanto, existe poca distinción entre
variedades y especies.[38] No llega a definir qué es lo que distingue las variaciones entre
especies del mismo género y únicamente observa que las especias están «tolerablemente
bien definidas» cuando las variedades intermedias han sido «suplantadas y exterminadas»
durante el proceso de selección natural.[39]
Supervivencia del mejor adaptado
Darwin se muestra ambiguo cuando comenta lo que entiende por supervivencia del
mejor adaptado. Dice por un lado que habla en sentido metafórico.
Utilizo este termino en un sentido amplio y metafórico, que incluye la dependencia
de un ser respecto a otro y, lo que es más importante, no solo la vida del individuo sino su
éxito en cuanto a dejar descendencia.[40]
Esto se repite en una sección de El origen del hombre donde, después de dar
ejemplos de sociabilidad y cooperación en especies animales y entre los humanos, comenta
que:
Las comunidades que incluyeran el mayor número de miembros empáticos, serían
sin duda las que más prosperarían y, por lo tanto, criarían la descendencia más abundante.
[41]
Pero, con diferencia, la mayor parte de estos libros es una compilación de «hechos»
que muestran que la lucha es real, no metafórica. Efectivamente, solo nueve páginas
después de la cita anterior de El origen de las especies, dice Darwin:
Ya que las especies del mismo género suelen presentar, aunque no obligatoriamente,
mucha semejanza en costumbres y constitución, y siempre en estructura, la lucha será
normalmente más severa entre ellas, en el caso de que entren en competición, que entre las
especies de distinto género.[42]
La realidad de esta lucha competitiva para la supervivencia queda clara en The
Variation of Animals and Plants under Domestication [La variación de los animales y las
plantas bajo domesticación], que escribió como un capítulo de un gran libro sobre
evolución del que El origen de las especies no era más que un esbozo.
Ciertamente se ha dicho que todo en la naturaleza está en guerra; los más fuertes
prevalecen al final, los más débiles fracasan; y sabemos bien que miríadas de formas han
desaparecido de la faz de la tierra. Y si los seres vivos en estado natural varían ni que sea en
un grado mínimo […] entonces, la dura y a menudo recurrente lucha por la existencia
determinará que las variaciones favorables, por sutiles que sean, sean conservadas o
seleccionadas, y las desfavorables sean eliminadas.[43]
Y:
A esta preservación, durante la batalla por la vida, de aquellas variedades que
poseen alguna ventaja en estructura, constitución o instinto, la he llamado Selección
Natural; y el señor Herbert Spencer ha expresado muy bien esta misma idea como la
«Supervivencia del mejor adaptado».[44]
Esta interpretación en el sentido más literal fue ampliamente aceptada.
Selección sexual
Como respuesta a las críticas de que cosas como las plumas de la cola del pavo real
eran más una desventaja que una ventaja en la lucha por unos recursos limitados, Darwin
propuso que la selección sexual también era una causa de la evolución biológica, sobre todo
para los machos de las especies.
Según esta hipótesis, las plumas de la cola cada vez más grandes y coloridas atraen
a las hembras y permiten que los machos mejor dotados produzcan más descendencia que
los pavos menos espléndidos.
En el caso de los humanos,
Llego a la conclusión de que de entre todas las causas que han conducido a
diferencias en el aspecto externo de las razas humanas, y hasta cierto punto entre el hombre
y los animales inferiores, la más eficiente es la selección sexual.[45]
El uso y el desuso del lamarquismo
Cuando Lyell le instó a reconocer el trabajo de Lamarck, Darwin accedió a
regañadientes y respondió a Lyell diciéndole:
Alude usted a menudo al trabajo de Lamarck; no sé qué piensa usted al respecto,
pero a mí me parece extremadamente pobre; no consigo obtener del mismo ni un hecho ni
una idea.[46]
Pero eso no le impidió emplear las cuatro categorías de evidencias de la evolución
biológica que Lamarck había utilizado. Y más aún, en la primera edición de El origen de
las especies, comenta, sin mencionar atribución alguna, los «Efectos del uso y el desuso»
cuando escribe
Creo que no hay duda de que, en nuestros animales domésticos, el uso refuerza y
agranda determinadas partes, y de que las disminuye el desuso; y que estas modificaciones
son hereditarias. En los animales que gozan de la completa libertad de la Naturaleza […]
muchos presentan estructuras que pueden explicarse por los efectos del desuso.[47]
Se trata de un lúcido resumen de la ley por la que es más conocido Lamarck. En el
prefación de la edición de 1882 de El origen del hombre y la selección en relación con el
sexo, dice Darwin:
Aprovecharé esta oportunidad para remarcar que mis críticos suelen dar por sentado
que atribuyo todos los cambios de estructura corporal y poder mental única y
exclusivamente a la selección natural […] cuando, incluso en la primera edición de El
origen de las especies, expuse con claridad que debemos atribuir un gran peso a los efectos
heredados del uso y el desuso.[48]
Promoción
A diferencia de la Philosophie zoologique de Lamarck, El Origen de las especies es
breve y más legible. Además, aun socavando el modelo creacionista, igual que hizo
Lamarck, Darwin evitó en todo momento ofender a la jerarquía cristiana sirviéndose de
estratagemas como incluir una cita de Bacon debajo del título:
Que nadie […] piense o sostenga, que un hombre puede indagar en exceso o
aprender demasiado en el libro de la palabra de Dios, o en el libro de las obras de Dios; en
la teología o en la filosofía.
Y concluye la obra con una alusión a uno de los relatos de la creación del Génesis:
Hay grandeza en esta concepción de que la vida, con sus diversas fuerzas, fue
originariamente alentada por el Creador en unas pocas formas o en una sola.[49]
Aunque en la autobiografía publicada con carácter póstumo, recuperadas las
referencias religiosas que su esposa había eliminado, afirma:
Poco a poco llegué a la conclusión en aquel momento [enero de 1839, treinta y tres
años antes de la edición final de El origen de las especies] de que no había que dar más
crédito al Antiguo Testamento, con su manifiestamente falsa historia del mundo […], que a
los libros sagrados de los hindúes o las creencias de cualquier barbaro.[50]
Darwin utilizó su condición de miembros de la Royal Society, la Linnean Society y
la Geological Society para cultivar la amistad con miembros influyentes de la clase
científica. Sus muchas cartas solicitando apoyo para El origen de las especies son un
modelo para los lobistas: adulación hasta rozar casi el servilismo, afecto, menosprecio a sí
mismo, ansiedad y críticas hacia su propio trabajo con la excusa frecuente de problemas de
salud.[51] Pero las cartas fueron tremendamente efectivas, puesto que uno de sus
oponentes, John Grey, el conservador de la colección de zoología del Museo Británico, se
lamenta:
Ha reproducido simplemente la doctrina de Lamarck, y nada más, y Lyell y otros
llevan atacándolo veinte años, y por el simple hecho de que usted (con una mueca de
desdén y una risotada) diga exactamente lo mismo, todos cambian de opinión; es una
inconsistencia de lo más ridículo.[52]
La aversión de Darwin a la controversia, junto con su terca determinación, le fueron
de gran provecho. Convenciendo a personajes como Lyell, Hooker y al combativo y joven
anatomista Thomas Henry Huxley para que defendieran su causa entre la clase científica
mientras él se mantenía alejado de la refriega en su retiro rural de Down House, en Kent,
Darwin promocionó sus ideas sin caer en el desgracia de su antiguo mentor. Robert Grant
fue expulsado de su puesto en la Zoological Society por su postura materialista y por negar
las verdades del cristianismo, y fue dejado de lado por la comunidad científica, dominada
por la mentalidad cristiana, durante la mayor parte del tiempo que estuvo ejerciendo como
profesor mal remunerado en el University College de Londres.[53]
Tal y como sugiere la cita de su hijo que aparece debajo del título del capítulo,
Darwin se merece sin duda ser reconocido por iniciar el proceso que llevó a que la
evaluación biológica y su causa, la selección natural, fueran adoptadas por la clase
científica como la nueva ortodoxia.
Los problemas de la hipótesis de Darwin

El origen de las especies se convirtió en un libro popular y, en cuestión de veinte


años, la comunidad científica internacional aceptó el fenómeno de la evolución biológica
(la descendencia con modificación). Sin embargo, la aceptación de la causa principal del
fenómeno que había propuesto Darwin, la selección natural, no se hizo realidad hasta
pasados sesenta años. Fue así por dos razones. En primer lugar, a pesar de que Darwin
había sugerido la razón por la cual el registro fósil no sustentaba el enfoque gradualista que
formaba parte esencial de su hipótesis, destacados paleontólogos, como su antiguo mentor
Adam Sedgwick, y Louis Agassiz, fundador y director del Museo de zoología comparativa
de Harvard, declararon que la evolución gradualista carecía por completo de evidencias
fósiles. Incluso T. H. Huxley se mostró escéptico con respecto al enfoque gradualista de
Darwin.[54] Los paleontólogos de finales del siglo xix y principios del xx defendían la
saltación: el registro geológico muestra la aparición de nuevas formas fósiles que
permanecen básicamente invariables hasta que desaparecen y son sustituidas por nuevas
formas fósiles; por lo tanto, concluían, la evolución biológica avanzaba a saltos, no de
forma gradual.
En segundo lugar, la postura ortodoxa de aquel momento era que la herencia era un
proceso de fusión, es decir, que la descendencia mostraba una combinación de los
caracteres de los progenitores. Así, la descendencia de un padre alto y una madre baja
tendría una altura intermedia. Lo cual suponía que, a menos que ambos progenitores
estuvieran en posesión de la variación favorable, la descendencia solo recibiría la mitad de
dicha variación, y esa descendencia transmitiría luego la mitad de su mitad de la variación.
En consecuencia, la variación quedaría diluida a lo largo de las generaciones y nunca
llegaría a dominar la especie.
Para superar esta objeción, Darwin propuso la pangénesis, una idea originaria de los
filósofos de la antigua Grecia y desarrollada posteriormente por Buffon. En la versión de
Darwin, las gémulas —o gérmenes invisibles— que contienen la información hereditaria de
todas las partes del cuerpo, se fusionan en los órganos reproductivos y transmiten los
atributos hereditarios. Pero Galton no localizó estas gémulas en la sangre del conejo y la
comunidad científica rechazó, en consecuencia, la idea. Del mismo modo que Lamarck
estaba equivocado en cuanto a la generación continua de vida a partir de la materia
inanimada y en que la adaptación interrumpe el proceso de aumento de la complejidad,
Darwin se equivocó en su hipótesis de cómo se heredaban los caracteres favorables y
conseguían cambiar una población en un entorno determinado.
El darwinismo

Darwin se ha convertido en un santo secular e, igual que sus homólogos religiosos,


se ha convertido en un mito. Los muchísimos libros publicados y programas de televisión
emitidos en 2009 con motivo del ciento cincuenta aniversario de la primera publicación de
El origen de las especies transmitieron la impresión de que el darwinismo o, lo que es lo
mismo, la teoría de la evolución de Darwin, es una teoría sin ambigüedades como, por
ejemplo, la teoría de la gravedad de Newton. Pero en realidad, darwinismo y darwiniano
significan cosas distintas para gente distinta. Considero de utilidad diferenciarlo de
posteriores modificaciones y extensiones, como el neodarwinismo y el ultradarwinismo.
Darwinismo: la hipótesis de que todas las especies del mismo género han
evolucionado a partir de un antepasado común. La causa principal de esta evolución
biológica es la selección natural, o la supervivencia del mejor adaptado, por la cual los
descendientes cuyas variaciones los hagan mejor adaptados para competir con los demás
miembros de su especie para la supervivencia en un determinado entorno, vivirán más
tiempo y producirán más descendientes que los peor adaptados. Estas variaciones
favorables son hereditarias y, en el transcurso de sucesivas generaciones, acabarán
gradualmente dominando la población de ese entorno, mientras que las variantes peor
adaptadas perecerán en manos de los demás, morirán de hambre o se extinguirán. La
selección sexual de caracteres favorables al apareamiento, y el uso y desuso de órganos, son
también hereditarios y causa de la evolución biológica.
Ortogénesis

La ortogénesis es también un término que significa cosas distintas para distintas


personas. Se define básicamente como sigue:
Ortogénesis: la hipótesis de que la evolución biológica posee una dirección causada
por fuerzas intrínsecas; su versiones van desde aquellas que sostienen que la adaptación
juega también un papel destacado en la evolución de las especies, hasta la postura de que la
adaptación solo influye las variaciones dentro de una misma especie, pasando por la que
defiende que esa dirección demuestra la existencia de un fin o propósito en la evolución
biológica.
Como hemos visto, Erasmus Darwin y Jean-Baptiste Lamarck propusieron que la
evolución biológica se produce debido a una tendencia intrínseca de incremento de la
complejidad.
El zoólogo y anatomista alemán, Theodor Eimer, utilizó el término «ortogénesis» en
1895 para explicar por qué en distintos linajes se producen secuencias evolutivas similares.
Eimer creía que la evolución no adaptativa de formas similares era algo generalizado y que
la evolución biológica seguía direcciones predecibles ordenadas por leyes naturales no
especificadas similares a las que rigen el desarrollo de los organismos desde el estado
embrionario simple hasta el de adulto complejo.
Esta degradación de la selección natural darwinista fue adoptada por muchos
paleontólogos, como los norteamericanos Edwan Cope y Alpheus Hyatt, basándose en las
evidencias fósiles que mostraban que miembros sucesivos de una serie evolutiva se habían
ido modificando progresivamente en una única dirección constante y con caracteres que
tenían escaso valor, si alguno, y que a menudo llevaban a la extinción. Varios de ellos
aceptaron la explicación lamarquiana de una tendencia intrínseca, así como la herencia de
caracteres adquiridos, como causal.[55]
Kropotkin y el apoyo mutuo

Peter Kropotkin es conocido en Occidente como el hijo de un príncipe ruso que se


hizo anarquista y revolucionario. Era también científico, y en 1871 fue propuesto para el
prestigioso puesto de secretario de la Sociedad geográfica imperial de San Petersburgo.
Pero él declinó la oferta, renunció a sus privilegios y se consagró a aplicar las lecciones que
había extraído de sus observaciones científicas para aliviar la explotación y las penurias que
sufría el pueblo ruso bajo el gobierno zarista. Sus armas no fueron las bombas, sino la
pluma.
Observaciones fundamentales

Nueve años antes, con veinte años de edad, había viajado a Siberia y al norte de
Manchuria, ansioso por ser testigo directo de la lucha por la vida planteada en El origen de
las especies, que había sido publicado tres años antes y le había dejado tremendamente
impresionado. Lo que descubrió, sin embargo, lo llevó a la conclusión de que la hipótesis
evolucionista de Darwin había sido distorsionada por los seguidores del mismo Darwin.
Las detalladas observaciones que realizó Kropotkin de la vida humana y animal le
revelaron pocos casos de competencia despiadada entre miembros de la misma especie.
Entre las poblaciones rebosantes de vida de zonas aisladas sujetas a condiciones muy duras,
donde la competencia por los escasos recursos tendría que haber sido salvaje, descubrió en
cambio apoyo mutuo «llevado hasta el extremo que me hace sospechar que se trata de un
carácter de enorme importancia para mantenerse con vida, conservar las especies y procurar
por su evolucion».[56]
Observó asimismo apoyo mutuo entre los campesinos siberianos que vivían en
comunidades independientes, lo que lo llevó a la creencia de que un sistema de gobierno de
aquel estilo debería sustituir el estado centralizado, represivo y brutal.
Apoyo mutuo

En 1883, durante una de sus estancias en la cárcel, leyó una conferencia ofrecida
por el profesor Karl Kessler, respetado zoólogo y más importante que la competencia en la
evolución de las especies. Aquello corroboraba sus descubrimientos y en cuanto salió de la
cárcel, Kropotkin se instaló en Inglaterra para seguir con su trabajo e inspirarse tanto en sus
propias observaciones como en las de otros naturalistas de campo y antropólogos, de un
modo similar a lo que había hecho Darwin en su día.
En 1888, Thomas Huxley, el principal defensor de Darwin, publicó un ensayo muy
influente titulado «The Struggle for Existence» [La lucha por la existencia] en el que
argumentaba que la vida era una «continua lucha libre» y que la competencia entre
individuos de la misma especie no era simplemente una ley de la naturaleza, sino la fuerza
que impulsaba el progreso.
El mundo animal está prácticamente al mismo nivel que un espectáculo de
gladiadores. Las criaturas están preparadas y listas para luchar; razón por la cual el más
fuerte, el más rápido y el más astuto vivirá para luchar un día más. El espectador no
necesita mover el pulgar hacia abajo, puesto que la compasión no existe.[57]
Kropotkin consideró que las opiniones de Huxley, cuya experiencia se basaba en la
anatomía comparativa y la paleontología, no estaban respaldadas por las evidencias de los
naturalistas de campo y los zoólogos. Replicó a Huxley en una serie de artículos que
formarían la base de un libro. Mutual Aid: A Factor of Evolution[58] fue publicado en
1902, con una edición revisada en 1904 y una edición final en 1914, que es la que utilizo
aquí.
En ella, dice Kropotkin:
Si nos referimos al parágrafo [de El origen de las especies] titulado “Lucha por la
vida es rigurosísima entre individuos y variedades de la misma especie”, no encontramos en
él la riqueza de pruebas e ilustraciones que estamos acostumbrados a encontrar en todo lo
que Darwin escribió. La lucha entre individuos que se explica bajo ese encabezamiento no
queda ilustrada ni con siquiera un ejemplo.[59]
Koprotkin no discrepa de la selección natural ni niega que la lucha por la vida
juegue un papel importante en la evolución de las especies. Declara de manera inequívoca
que «la vida es una lucha; y en esa lucha sobrevivirá el mejor adaptado».[60] Pero no se
trata de una lucha competitiva entre miembros de la misma especie. Apoyo mutuo acumula
una gran riqueza de evidencias obtenidas a partir de estudios de campo de insectos, aves y
mamíferos criando y entrenando a su descendencia, protegiendo a los individuos de los
elementos dañinos y obteniendo comida para apoyar la conclusión de que «los animales
que adquieren los hábitos del apoyo mutuo son, sin duda alguna, los mejor adaptados [para
sobrevivir y evolucionar].»[61], [62]
Base empírica

Entre los muchos ejemplos de insectos, Kropotkin describe la conducta de las


hormigas y las termitas, que colaboran siguiendo un modelo de división de trabajo para
buscar comida y construir sofisticados nidos comunitarios con graneros y guarderías para
las crías. A pesar de que las hormigas de distintas especies libran terribles guerras entre
ellas, en el seno de la comunidad, el apoyo mutuo, e incluso el sacrificio de la vida por el
bien común, son la regla. Si una hormiga con el cuerpo lleno de comida a medio digerir se
niega a regurgitarla para compartirla con una hormiga hambrienta, es tratada como una
enemiga. La colaboración permite que las colonias superen a insectos más poderosos, como
los escarabajos e incluso las avispas.
Las abejas colaboran de un modo similar. Kropotkin observa que en condiciones de
escasez o de abundancia, hay abejas que prefieren robar antes que trabajar por el bien
común, pero que a largo plazo la colaboración es más ventajosa para las especies.
Esta colaboración suele extenderse solo a la colmena, el nido o la colonia de
insectos, sin abarcar toda la especie, pero Kropotkin destaca haber observado colonias de
hormigas integradas por más de doscientos nidos y pobladas con dos especies distintas,
mientras que en algunas sabanas de América del Sur hay nidos de termitas que incluyen dos
y hasta tres especies distintas, conectados mediante túneles o galerías.
Muchas especies de aves exhiben conducta social no solo para cazar y migrar,
proceso en el cual las bandadas pueden incluir distintas especies, sino también por placer.
Los milanos colaboran en tareas de caza y gracias a ello pueden robar la presa de aves más
fuertes que ellos, como el águila marcial. Cuando se acerca el invierno, las aves que han
vivido durante meses en pequeños grupos repartidos por un territorio extenso, se reúnen en
un lugar concreto durante varios días para esperar a las aves que puedan llegar con retraso.
Luego, las bandadas emigran siguiendo «una dirección perfectamente elegida» hacia climas
más cálidos y con comida abundante. Los más fuertes se turnan para liderar el grupo. En
primavera, regresan al mismo lugar y se dispersan, normalmente hacia los mismos nidos
que antes abandonaron.
Y en cuanto a las actividades placenteras, varias especies de aves cantan en
concierto. Kropotkin habla de un observador que informó de que numerosos grupos de unos
quinientos ejemplares de perdices chucar cada uno, se instalaron alrededor de un lago. El
primer grupo empezó a cantar durante tres o cuatro minutos y se calló cuando el siguiente
empezó a cantar, y así sucesivamente, turnándose hasta que el canto dio la vuelta completa
al lago y el primer grupo empezó otra vez a cantar.
Kropotkin explica que los loros son las aves más sociables e inteligentes. Por
ejemplo, las cacatúas blancas de Australia envían exploradores en busca de maizales. A su
regreso, el grupo vuela hasta el mejor maizal y aposta centinelas para alertar a los
campesinos mientras el resto se alimenta con el maíz. Atribuye la longevidad de los loros a
su vida social.
La compasión no es una característica esperada en la lucha despiadada por la vida
que podría librarse entre miembros de la misma especie, pero Kropotkin ofrece varios
ejemplos de ella, incluyendo el de un grupo de pelícanos que recorre 50 kilómetros para
alimentar a un pelícano ciego.
Kropotkin apunta ejemplos de cooperación similar, aunque más avanzada, entre
mamíferos, la mayoría de los cuales viven en sociedad, desde los nidos de roedores hasta
las manadas de elefantes y ballenas pasando por las tropas de monos y chimpancés.
Las ardillas son más individualistas, y encuentran y almacenan su propia comida en
sus nidos, pero mantienen contacto con otras ardillas y cuando el alimento escasea, emigran
en grupo. La rata almizclera de Canadá vive pacíficamente y juega en comunidades, habita
poblados con construcciones hechas con barro mascado entretejido con juncos que
disponen de rincones separados para los desechos orgánicos. La vizcacha, un roedor
parecido al conejo, vive pacíficamente en madrigueras que comparten entre diez y cien
individuos. Las colonias se visitan mutuamente durante la noche. Si un granjero destruye
una madriguera de vizcachas, sus compañeras se desplazan desde lejos para sacar del
interior a las que puedan haber quedado enterradas vivas.
Los mamíferos colaboran para obtener comida, protegerse mutuamente y proteger a
los miembros más débiles de los predadores. Los lobos cazan en manada mientras que
muchas especies de caballos salvajes, como los mustangos y las cebras, forman un círculo
de sementales alrededor del grupo para impedir los ataques de lobos, osos y leones. Cuando
la comida escasea, las manadas de rumiantes que suelen vivir dispersas se reúnen para
formar una manada grande que emigra hacia otra región en busca de sustento.
Este patrón es típico de todas las especies: la colaboración es más fuerte en el seno
de la familia, después en el seno del grupo y luego con la asociación de grupos dispersos
que se unen para hacer frente a una necesidad común.
Kropotkin apunta que los darwinistas consideran que la inteligencia es la
característica más poderosa del individuo que lucha por su existencia. Destaca que la
inteligencia se fomenta mediante la sociabilidad, la comunicación, la imitación y la
experiencia, hábitos que el animal insociable no puede disfrutar.
Kropotkin describe esta evolución como progresiva. Dentro de cada clase, los más
evolucionados combinan elevada sociabilidad con mayor inteligencia: las hormigas entre
los insectos, los loros entre las aves y los monos entre los mamíferos.
Para Kropotkin, la principal lucha por la vida no es la representada por la
competencia entre individuos de la misma especie por hacerse con los recursos, que
escasean como consecuencia de un incremento malthusiano de la población. Sino la lucha
contra sus circunstancias: un entorno cambiante, recursos alimenticios limitados,
condiciones climáticas duras y presencia de depredadores. Las especies favorecidas por la
selección natural —aquellas cuyos miembros sobreviven más tiempo y engendran mayor
descendencia— adoptan estrategias para evitar la competencia: hacen su propia comida,
como en el caso de las hormigas; la almacenan, como las ardillas; hibernan, como muchos
roedores; agrandan su hábitat; emigran temporal o permanentemente a un nuevo hábitat; o
cambian su dieta y sus costumbres y, en el transcurso de las generaciones, evolucionan
hacia una nueva especie mejor adaptada al nuevo entorno. Los que no adoptan estas
estrategias, fracasan en la lucha por la supervivencia y desaparecen con el tiempo de forma
natural sin que nadie los haya matado y sin que los competidores malthusianos los maten de
hambre, como proponía Darwin.
Kropotkin desafía pues la idea de que la competencia entre miembros de una misma
especie es la única causal, o la causa principal, de la evolución y defiende que el apoyo
mutuo juega un papel más relevante.
Simbiogénesis

Mientras el naturalista ruso Kropotkin estudiaba la conducta de los animales y


desarrollaba luego sus ideas en Inglaterra, el botánico ruso Konstantin Mereschkosky
estudiaba los líquenes y desarrollaba en su país natal una hipótesis a la que puso el nombre
de simbiogénesis, un proceso evolutivo que se inicia con la simbiosis.
Según el historiador especializado en biología Jan Sapp,[63] la simbiosis es un
medio de innovación evolutiva que se lleva discutiendo desde finales del siglo xix. La
naturaleza dual de líquenes como los hongos y las algas, las bacterias que fijan el nitrógeno
en los nódulos de las raíces de las legumbres, los hongos que se asientan en las raíces de los
árboles de los bosques y de las orquídeas, y las algas que viven en el cuerpo de los
protistas, muestran lo íntimas que pueden llegar a ser las relaciones fisiológicas entre
organismos apenas emparentados y que a veces conducen, como en el caso de los líquenes,
a la evolución de organismos completamente nuevos.
La simbiosis quedó definida en 1878 por el alemán Anton de Bary, que estudió los
hongos y las algas como «los organismos de nombre distinto que viven juntos», lo cual
podía conducir a un cambio evolutivo tipo saltación. El botánico francés Andreas Schimper
acuñó el término «cloroplasto» en 1884 y sugirió que las plantas verdes tenían su origen en
la simbiosis. En 1893, el biólogo celular japonés Shosaburo Watase, que trabajaba en los
Estados Unidos, utilizó el concepto para explicar el origen de las células con núcleo. Según
él, se habían formado a partir de un grupo de pequeños organismos vivos de origen distinto
que, en su lucha por la supervivencia, habían realizado un intercambio recíproco de sus
productos metabólicos; la profunda interdependencia fisiológica entre el núcleo de la célula
y el citoplasma era muestra de ello.
En 1909, Mereschkovsky propuso una teoría detallada para el origen del núcleo de
la célula y del citoplasma a partir de dos tipos de organismo y dos tipos de protoplasma que
habían sido las primeras formas de vida de la Tierra. Afirmaba asimismo que los
cloroplastos de las células se habían originado como algas azuladas y acuñó el término
«simbiogénesis» para describir el proceso mediante el cual dos tipos distintos de
organismos simbióticos se fusionan para formar un nuevo organismo más complejo.
Mereschkosky sostenía que la simbiogénesis explicaba mejor la evolución biológica que la
teoría de Darwin.
La idea de que las mitocondrias de las células tuvieran un origen simbiogenético
similar, se remonta al trabajo realizado por el histólogo alemán Richard Altmann en 1890.
En 1918, y en el libro titulado Les Symbionts [Los simbiontes], Paul Portier desarrolló el
concepto de las mitocondrias como antiguos simbiontes. En 1927, el biólogo
norteamericano Ivan Wallin presentó una perspectiva similar en Symbiotism and the Origen
of Species [Simbiotismo y el origen de las especies], donde proponía que las mitocondrias
adquiridas eran el origen de nuevos genes. Para Wallin, la evolución biológica estaba
gobernada por tres principios: las especies originadas mediante simbiosis; la selección
natural que regía su supervivencia y extinción; y un principio desconocido que era el
responsable del patrón de incremento de complejidad.
La mayoría de biólogos rechazó o ignoró estas ideas, siguió favoreciendo la
competencia darwinista por encima de la colaboración y consideró que la simbiogénesis
carecía de base empírica.
Mendel y la herencia

La herencia, uno de los problemas que perjudicaba la hipótesis de Darwin, quedó


solucionada en 1865 por un monje agustino, Gregor Mendel. Su trascendental documento,
«Experiments in Plant Hybridization» [Experimentos sobre hibridación de plantas], fue
publicado al año siguiente en Proceedings of the Natural History Society of Brunn,
Bohemia (hoy en día Brno, en la república checa) y sentó las bases de la genética moderna.
Experimentos

Mendel no era simplemente un monje, como a menudo se le describe, sino que,


siguiendo la tradición de la abadía de Brunn, era también profesor y científico. Entre 1856
y 1863, se dedicó a verificar el relato ortodoxo de la herencia que afirmaba que la
descendencia combinaba los caracteres de los dos progenitores. Eligió el guisante, una
planta que posee diversos caracteres sencillos como la altura de la planta, el color del
guisante y la textura lisa o rugosa del guisante.
Empezó cultivando ejemplares de pura raza, plantas que siempre producían
guisantes amarillos y plantas que siempre producían guisantes verdes. Luego, cruzó ambos
tipos de plantas de pura raza y descubrió que, en este ejemplo, la primera generación de
plantas solo producía guisantes amarillos. Cuando cruzó las plantas de esta primera
generación entre ellas, obtuvo una segunda generación con plantas con guisantes amarillos
y plantas con guisantes verdes en una proporción de tres a uno.

Los experimentos con guisantes con caracteres distintos ofrecieron el mismo tipo de
resultados. Con ello, Mendel llegó a la conclusión de que los caracteres no se mezclaban,
sino que cada uno de ellos estaba representado por un factor (posteriormente denominado
«gen») que se presenta en formas alternadas (posteriormente denominadas «alelos»); en
este ejemplo, un alelo produce el color amarillo del guisante y otro alelo produce el color
verde. Los alelos se presentan en parejas; cuando los dos alelos de la pareja son distintos,
uno es el «dominante» (en este caso, el alelo que produce el color amarillo) y enmascara el
efecto del otro alelo, el alelo «recesivo» (en este caso, el alelo que produce el color verde).
Solo cuando se transmiten dos alelos recesivos, aparece en la planta el caracter
correspondiente.
Las leyes de Mendel

A partir de sus experimentos, Mendel dedujo unas leyes de la herencia que podrían
resumirse como sigue:
1. Los caracteres de un individuo están determinados por factores hereditarios
(genes) que se presentan por parejas.
2. Cada pareja de genes se separa durante la reproducción y cada progenitor
transmite al descendiente un solo gen de esa pareja de genes.
3. Hay genes dominantes capaces de enmascarar los efectos de los genes recesivos.
4. Para determinados caracteres no existe gen dominante.
La transmisión del gen funciona al azar. Como consecuencia de las leyes de
Mendel, cabe la posibilidad de que nuevas combinaciones de genes den lugar a nuevas
combinaciones de caracteres que no están presentes en ninguno de los dos progenitores.
Además, un individuo puede no mostrar un determinado caracter que sí aparecerá en una
generación posterior porque se habrá transmitido inalterado.
Esto solucionó el problema de la hipótesis de Darwin porque permite que los genes
responsables de los caracteres favorables de un individuo se hereden inalterables y sean
seleccionados en una población que compite por sobrevivir.
Darwin y la mayoría de naturalistas nunca leyeron el documento de Mendel, aunque
sí fue incorporado a la Enciclopedia Británica y apareció citado varias veces en una
publicación de 1881 sobre el cultivo de plantas escrita por el botánico Wilhelm Olbers
Focke, una copia de la cual, al parecer, Darwin sí tenía.
Neodarwinismo

El documento de Mendel fue redescubierto en 1900 por tres botánicos cuya


investigación los llevó a alcanzar de forma independiente las mismas conclusiones.
En la década de 1920 y 1930, el estadístico y genetista Ronald Fisher, el genetista
inglés J. B. S. Haldane, y el genetista norteamericano Sewall Wright desarrollaron de
manera independiente, y aplicando técnicas estadísticas, una base matemática para la teoría
biológica; esta nueva especialidad de la biología acabó conociéndose como «genética de
poblaciones». Su marco teórico integraba la genética mendeliana en las hipótesis de
Darwin, demostrando matemáticamente que la selección natural, actuando de manera
acumulativa en pequeñas variaciones, podía producir gradualmente grandes cambios de
forma y de funcionalidad.
Wright introdujo además el concepto de deriva genética.
Deriva genética: la variación en la frecuencia de alelos (juegos de genes) en una
población pequeña que tiene lugar como consecuencia del azar y no a través de la selección
natural. Puede dar como resultado la pérdida de rasgos genéticos en una población, o la
difusión de otros, independientemente del valor de supervivencia o el valor reproductivo de
dichos rasgos genéticos.
Sin embargo, su trabajo tuvo poco impacto en los biólogos porque era teórico y se
expresaba principalmente con fórmulas matemáticas; además, únicamente mostraba cómo
podían producirse los cambios dentro de una especie y no cómo podía evolucionar una
nueva especie.
Lo que acabó conociéndose como «síntesis moderna», o Neodarwinismo,[64] fue
desarrollado a finales de la década de 1930 e inicios de la de 1940 por el genetista
norteamericano de origen ruso y zoólogo experimental Theodosius Dobzhansky, en el libro
que publicó en 1937 y que tituló Genetics and the Origin of Species [Genética y el origen
de las especies], el zoólogo inglés y defensor del enfoque matemático a la genética, Julian
Huxley en Evolution: The Modern Synthesis [Evolución: La síntesis moderna], publicado
también en 1942, y el norteamericano que aplicó las técnicas estadísticas de genética de
poblaciones a la paleontología, George Gaylord, en Tempo and Mode in Evolution [Tempo
y moda en la evolución], publicado en 1944.
El objetivo era integrar la selección natural darwinista, surgida a partir de la
competencia, con los descubrimientos de la genética teórica y experimental, la zoología y la
paleontología, bajo el paraguas de una teoría de la evolución biológica. Cambió el
protagonista de la evolución, que pasó de los organismos individuales a las poblaciones.
Según lo expresó Dobzhansky, «La evolución es un cambio en la composición genética de
las poblaciones. El estudio de los mecanismos de la evolución cae dentro del campo de la
genética de poblaciones».
Neodarwinismo: la síntesis de la selección natural darwinista con las teorías
mendelianas y la genética de poblaciones, en la que variaciones genéticas aleatorias son las
responsables de los caracteres que hacen que los individuos de la población de una especie
estén mejor adaptados para competir por los recursos de su entorno, sobrevivir más tiempo
y producir más descendencia. Estos genes favorables se heredan en cantidades cada vez
mayores, haciendo que el acervo génico —el total de genes de la población— varíe
gradualmente en el transcurso de muchísimas generaciones hasta que se produce la
emergencia de una nueva especie. Los miembros de la población que carecen de las
variaciones genéticas responsables de estos caracteres adaptativos acaban pereciendo en
manos de los demás, mueren de hambre o se extinguen gradualmente en ese entorno.
Biología molecular

En paralelo a los avances en macrobiología que siguieron el redescubrimiento del


trabajo de Mendel, los microbiólogos intentaron identificar qué genes son los responsables
de los caracteres hereditarios y cómo funcionan como agentes de estos caracteres.
La investigación de la Drosophila melanogaster, la mosca de la fruta o del vinagre,
un insecto de rápida reproducción, que llevaron a cabo el zoólogo experimental de la
Universidad de Columbia, Thomas H. Morgan y sus colegas, demostró en 1914 que los
genes están dispuestos en los cromosomas siguiendo un orden lineal; además, los genes
experimentan a veces cambios espontáneos y permanentes (mutaciones) que dan como
resultado un cambio en los caracteres hereditarios, por ejemplo, de ojos blancos a ojos
rojos.
Este trabajo le valió a Morgan el Premio Nobel en 1933.[65] Los biólogos
adoptaron la idea de que la mutación genética era la principal causa de las variaciones en
los caracteres de los individuos.
Teniendo en cuenta que estaba demostrado que los cromosomas de los eucariotas
estaban compuestos por proteínas y ácidos nucleicos, habitualmente ADN, se planteaban
tres posibilidades: que los genes estuvieran compuestos por ADN, por proteínas, o por una
combinación de ambas cosas. Para averiguar cuál de las tres posibilidades era la correcta,
los científicos tenían que demostrar cómo transmitían los genes la información que
determina los caracteres de la descendencia y también cómo construían las células que dan
lugar a la descendencia.
Para la primera función, el físico Erwin Schrodinger especuló en 1943 que los genes
transportan su información hereditaria en un código que consiste en un pequeño número de
entidades repetitivas, de un modo similar al modo en que los puntos y las rayas del código
Morse transportan una cantidad inmensa de informacion.[66]
Al año siguiente, Oswal Avery, del Rockefeller Institute Hospital de Nueva York,
junto con sus colegas Colin MacLeod y Maclyn McCarty, demostraron que el agente que
causaba en cambio en las bacterias para que fuese transmitido a generaciones sucesivas era
el ADN; lo cual implicaba que los genes estaban compuestos por ADN.
La mayoría de biólogos se mostraron escépticos, puesto que consideraban que la
secuencia de nucleótidos de la molécula de ADN carecía de la variedad suficiente como
para transmitir toda la información genética y, por lo tanto, defendían que los genes tenían
que estar compuestos por proteínas. Sin embargo, en 1952, Alfred D. Hershey y Martha
Chase, de la Unidad de investigación genética del Carnegie Institute de Washington,
demostraron que el material hereditario responsable de los caracteres fundamentales de los
virus que atacan y matan las células bacterianas es el ADN. Esto dio pie a la idea de que la
secuencia de las bases de la cadena de polinucleótidos de una molécula de ADN podía
formar el código de Schrodinger.
A aquellas alturas ya había quedado claro que, para demostrar cómo se replica el
ADN para transmitir genes a la descendencia y cómo determina las reacciones bioquímicas
que sintetizan esa descendencia, era necesario conocer no solo la composición química del
ADN, sino también su estructura tridimensional. «Biología molecular» fue el nombre que
recibió esta ciencia emergente, que recurrió a la técnica de la cristalografía de rayos X para
descubrir la arquitectura molecular en la dura carrera para demostrar cómo funcionaba el
ADN de los genes.
Y la dura carrera fue ganada en 1953 por un joven genetista norteamericano llamado
James Watson, que acababa de obtener su doctorado, y por un físico inglés algo mayor que
él, Francis Crick, que aún no había obtenido el suyo. Formando equipo en el Cavendish
Laboratory de Cambridge, Inglaterra, utilizaron los resultados de la difracción de rayos X
obtenidos por dos físicos del King’s College de Londres, Maurice Wilkins y Rosalind
Franklin, que habían querido trabajar como equipo y no lo habían conseguido. A partir de
estos resultados, construyeron un modelo tridimensional que mostraba el ADN como dos
cadenas helicoidales complementarias enrolladas sobre sí mismas y especularon que las
cadenas podían desplegarse para actuar a modo de plantillas y producir réplicas dos
cadenas helicoidales complementarias de sí mismas.[67], [68]
El breve artículo que publicaron en el número de abril de 1953 de la revista Nature,
junto con otros documentos de Wilkins y de Franklin, seguidos por artículos más detallados
en los que ampliaban sus ideas, abrieron una nueva era en la biología molecular. En este
campo, los veinticinco años siguientes estuvieron dominados por trabajos consagrados a
comprender en detalle los mecanismos y proporcionar base experimental al descubrimiento
de Watson y Crick sobre el carácter fisicoquímico de los genes.
Las mutaciones genéticas espontáneas observadas por Morgan quedaron explicadas
por los excepcionales errores de copia de la plantilla de ADN. Comprender con detalle
cómo las distintas secuencias de los cuatro nucleótidos del ADN funcionan a modo de
código de Schrodinger para transmitir la información genética llevó más tiempo. Y más
tiempo aún se necesitó para determinar los detalles de la segunda función del ADN, es
decir, para entender cómo su secuencia de nucleótidos acaba constituyendo, a través de
moléculas intermediarias de ARN mensajero, las proteínas y otros elementos bioquímicos
que integran las células de las que están compuestos todos los organismos.[69]
Pero las conjeturas de Watson y Crick acabaron justificándose. Fue un triunfo
espectacular para el método reduccionista y su foco en los genes, que pasó a dominar la
biología.
En 1958, Crick articuló un supuesto clave, que reafirmó en 1970 como «el dogma
central de la biología molecular», a saber, que los genes de la molécula de ADN transportan
toda la información necesaria para construir una proteína que, actuando a modo de enzima,
controla una reacción química en la célula y que se trata, además, de un proceso
unidireccional: la información no puede volver a transmitirse desde esa proteína a la
proteína o al ácido nucléico.[70] Hoy en día esto se entiende como que la información no
puede volver a fluir desde el entorno o el organismo hacia el ADN o el ARN de la célula.
Principios de la biología ortodoxa

Estas conclusiones clave de la biología molecular fueron incorporadas al


neodarwinismo y dieron lugar a la ortodoxia actual.
En 2006, Jerry Coyne, que viene de la escuela de los genetistas de poblaciones y
zoólogos experimentales que dieron forma a la síntesis neodarwinista, resumió la teoría
moderna de la evolución biológica. Los principios 1, 2, 3 y 5 que se muestran a
continuación derivan del resumen de Coyne,[71] el principio 4 queda explícito en otras
publicaciones del autor y de otros neodarwinistas, mientras que el principio 6 es un
resumen actualizado del dogma central de la biología molecular de Crick. A pesar de que no
todos los biólogos evolucionistas coinciden con todos ellos, estos seis principios definen el
paradigma[72] que suscribe la inmensa mayoría.
1. Las especies vivas son descendientes de otras especies que vivieron en el pasado.
2. Las nuevas formas de vida surgen a partir de la división de un linaje en dos, un
proceso conocido como especiación en el que los miembros de un linaje son incapaces de
reproducirse con éxito con miembros del otro linaje. Esta división continua produce una
estructura anidada de especies, un «árbol genealógico» cuya raíz es la primera especie que
surgió y cuyas ramas vivas son la inmensa cantidad de especies actuales. Rastreando
cualquiera de las ramas de las especies modernas llegamos a un antepasado común,
representado por el nudo del árbol en el que las ramas coinciden.
3. Esta evolución de nuevas especies se produce mediante una transformación
genética gradual de las poblaciones a través de los miembros individuales de la especie y a
lo largo de miles de generaciones.
4. Esta transformación da como resultado mutaciones genéticas aleatorias en los
individuos, la combinación de genes los progenitores en la reproducción sexual que lleva a
que cada descendiente posea una combinación de genes distinta a la de sus padres, y la
posterior diseminación de estas mutaciones genéticas a lo largo de las sucesivas
generaciones a través del acervo génico de la población.
5. Aquellas mutaciones genéticas aleatorias, o variaciones, responsables de los
caracteres que permiten que determinados individuos de la población compitan con éxito
por los recursos en un entorno determinado, y con ello logren sobrevivir más tiempo y tener
más descendientes, se seleccionan naturalmente al ser heredadas en mayores cantidades,
mientras que los miembros de la población que no presentan las mutaciones genéticas
responsables de los caracteres adaptativos para el entorno, acaban pereciendo en manos de
los demás, mueren de hambre o se extinguen gradualmente.
6. La información es un flujo unidireccional que va desde el gen hasta la proteína de
la célula.
Consecuencias del paradigma actual

Este paradigma, centrado en el gen, que asume que la selección natural surge de la
competencia, tiene cuatro consecuencias destacadas para el relato que da la ciencia sobre la
evolución de la vida.
En primer lugar, rechaza o ignora otras posibles causas de la evolución, entre ellas;
a. La selección sexual, que Darwin había defendido.
b. La herencia lamarquiana de caracteres adquiridos, que Darwin había aceptado.
c. La deriva genética, que Sewall Wright había considerado de importancia en
poblaciones pequeñas.
d. La simbiogénesis, la hipótesis desarrollada por Mereschkovsky, Wallin y otros
que defendía que la fusión de distintos tipos de organismos que viven juntos para obtener
un beneficio metabólico propio ofrece una explicación mejor para la innovación biológica y
la evolución que la competencia y la selección natural gradualista de Darwin.
e. La cooperación, que Kropotkin dedujo a partir de observaciones de campo de
animales y que defendió como causa más importante para la evolución que la competencia.
f. La ortogénesis, en el sentido de que la evolución biológica progresa como un
incremento de complejidad causado por una ley natural o una tendencia intrínseca, que fue
defendida por el paleontólogo, visionario y jesuita francés Teilhard de Chardin en su obra
póstuma Le Phenomene Humain [El fenómeno humano] (1955). Cabe resaltar que, de entre
los cuatro arquitectos del neodarwinismo a finales de los años 30 y principios de los años
40, Julian Huxley escribió una Introducción a la edición inglesa publicada en 1959
suscribiendo la mayoría de las ideas de Teilhard salvo el intento de reconciliación con el
cristianismo, mientras que Theodosius Dobshansky fue miembro fundador y presidente,
entre 1968 y 1971, de la American Teilhard de Chardin Association.
En segundo lugar, su foco reduccionista en los genes conduce a la postura, liderada
por Carl Woese, de que el análisis genético es el único método preciso para trazar un mapa
de la evolución de las especies: las diferencias moleculares en los genes supuestamente
conservados de las distintas especies representan sus relaciones evolutivas en el árbol
genealógico de evolución a partir de un antepasado común.[73] En palabras de Woese:
«Las secuencias moleculares pueden revelar relaciones evolutivas de un modo, y con un
detalle, que los criterios fenotípicos clásicos, e incluso las funciones moleculares, son
incapaces de hacerlo».[74]
En tercer lugar, produce una hipótesis de la evolución centrada en el gen que afirma
que el gen a nivel individual, y no el organismo, es la unidad de la selección natural.
En cuarto lugar, cuando en los años 70 se descubrió que cerca de un 98 por ciento
del genoma humano no estaba integrado por genes, definidos entonces como secuencias de
ADN para la codificación de proteínas, empezó a hablarse del «ADN basura», que parecía
un punto de vista osado, sino arrogante, de referirse a la inmensa mayoría de ADN que no
encajaba con el modelo.
En los capítulos que siguen consideraré hasta qué punto esta biología ortodoxa y sus
cuatro consecuencias siguen siendo válidas.
[1] El término «científico», tal y como lo entendemos en la actualidad, no empezó a
utilizarse hasta el siglo xix, pero recurriré a él de todos modos para referirme a aquellos que
practicaron lo que ahora reconocemos como ciencia, es decir, un enfoque de base empírica
que se distingue del enfoque puramente conceptual de la filosofía natural.
[2] Véase página 43.
[3]«Carolus Linnaeus», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/342526/Carolus-Linnaeus, consultado el 20 de
diciembre de 2008.
[4]Maillet (1968).
[5]«Georges-Louis Leclerc, Comte de Buffon», Gale Encyclopedia of Biography,
2006.
[6]Darwin, Erasmus (1796) y «Erasmus Darwin», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/151960/Erasmus-Darwin, consultado el 16 de
febrero de 2010.
[7]Darwin, Erasmus (1803).
[8]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003, pp. 665–665.
[9]Clifford, David, «Jean-Baptiste Lamarck», (2004)
http://www.victorianweb.org/science/lamarck1.html, consultado el 16 de febrero de 2010;
Shanahan (2004), pp. 14-23; Graur, Dan, et al., «In Retrospect: Lamarck’s Treatise at 200»,
Nature, 460: 7256, 2009, pp. 688–689;
http://www.ucmp.berkeley.edu/history/lamarck.html, consultado el 16 de febrero de 2010.
[10]Etienne Geoffroy Saint Hillaire Collection, American Philosophical Society,
http://www.amphilsoc.org/mole/view?docId=ead/Mss.B.G287p-
ad.xml;query=;brand=default, consultado el 20 de febrero de 2010.
[11]Green, J. H. S., «William Charles Wells, F.R.S. (1757–1817)», Nature 179,
1957, pp. 997–999.
[12]Desmond, Adrian, «Robert E. Grant: The Social Predicament of a Pre-
Darwinian Transmutationist», Journal of the History of Biology, 17, 1984, pp. 189–223, y
Desmond, Comunicación personal, 2 de abril de 2010.
[13]http://www.ucmp.berkeley.edu/history/matthew.html, consultado el 3 de
diciembre de 2009.
[14]Smith (1998, 2000–14).
[15] En la décimosegunda edición, publicada en 1884, apareció el nombre del autor,
Robert Chambers, LL. D.
[16]Darwin, Francis (1887), p. 68.
[17]Ibíd, p. 116.
[18]La correspondencia de Darwin anterior a la presentación a la Linnean Society se
encuentra en ibid, pp. 116–127.
[19]http://www.linnean.org/index.php?id=380, consultado el 20 de febrero de 2010.
[20]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003.
[21] La teoría de que los procesos físicos y químicos que se producen en la
superficie de la Tierra son los mismos desde su origen y son los responsables de todos los
fenómenos geológicos.
[22]Desmond, Adrian y Parker, Sarah E., «The Bibliography of Robert Edmond
Grant (1793–1874): Illustrated with a Previously Unpublished Photograph», Archives of
Natural History 33: 2, 2006, pp. 202–213.
[23] Fundada en 1826, fue la primera universidad de Inglaterra que admitió alumnos
que no fueran miembros de la iglesia anglicana, y en 1836 se constituyó oficialmente como
University College London.
[24]Darwin, Francis (1887), vol. 2, pp. 206–207.
[25]Darwin, Charles (1861), p. iv.
[26]Ibíd, pp. xiv–xv.
[27] Por ejemplo, a pesar de que las ideas de Matthew están integradas en un
Apéndice, ni están diseminadas ni son breves en comparación con su artículo del Linnean
Journal.
[28] A menos que se diga lo contrario, las citas que aparecen de El origen de las
especies se basan en la sexta edición, publicada en 1872, puesto que es la edición final e
incorpora los puntos de vista más tenidos en cuenta de Darwin. Todas las ediciones, y todas
las demás obras de Darwin, están disponibles online gracias al sobresaliente trabajo de John
van Whyhe, director de The Complete Works of Charles Darwin online, http://darwin-
online.org.uk/
[29]http://anthro.palomar.edu/evolve/evolve_2.htm, consultado el 16 de diciembre
de 2008.
[30]Steinheimer, Frank D., «Charles Darwin’s Bird Collection and Ornithological
Knowledge During the Voyage of HMS ‘Beagle’, 1831–1836», Journal of Ornithology,
145: 4, 2004, pp. 300–320; Sulloway, Frank J., «The Beagle Collections of Darwin’s
Finches (Geospizinae)», Bulletin of the British Museum of Natural History (Zoology), 43
(2), 1982, pp. 49–94; Sulloway, Frank J., «Darwin and His Finches: The Evolution of a
Legend», Journal of the History of Biology, 15: 1, 1982, pp. 1–53.
[31]Lack (1947).
[32]Desmond y Moore (1992), p. 209.
[33]Darwin, Charles (1872), pp. 70–71.
[34]Ibíd, p. 49.
[35]Ibíd, p. 106.
[36]Ibíd, p. 49.
[37]Ibíd, p. 103.
[38]Véase, por ejemplo, ibid, p. 42 y p. 47.
[39]Ibíd, p. 137.
[40]Ibíd, p. 50.
[41]Darwin, Charles (1882), p. 107.
[42]Darwin, Charles (1872), p. 59.
[43]Darwin, Charles (1868), pp. 5–6.
[44]Ibíd, p. 6.
[45]Darwin, Charles (1882), p. 606.
[46]Darwin, Francis (1887), p. 215.
[47]Darwin, Charles (1859), p. 134.
[48]Darwin, Charles (1882), p. v.
[49]Darwin, Charles (1872), p. 429.
[50]Darwin, Charles (1958), p. 85.
[51]Darwin, Francis (1887), Vol. 2.
[52]Ibíd. Vol. 2, pp. 243–244.
[53]Desmond (1989).
[54]Lyons, Sherrie L., « “The Origins of T H Huxley’s Saltationism: History in
Darwin’s Shadow», Journal of the History of Biology, 28: 3, 1995, pp. 463–494.
[55]Gould (2002), pp. 355–395.
[56]Kropotkin (1972), p. 18.
[57]Huxley, T. H., «The Struggle for Existence: A Programme», Nineteenth
Century, 1888, p. 165.
[58] Publicado en español bajo el título El apoyo mutuo: un factor de la evolución,
Editorial Dharana, Lugo, 2012.
[59]Kropotkin (1972), p. 71.
[60]Ibíd.
[61]Ibíd, p. 30.
[62] En la tercera parte consideraré las observaciones de Kropotkin sobre las
sociedades humanas.
[63]Sapp (2009), pp. 115–120.
[64] Mayr quiso restringir el término «neodarwinismo» a su uso inicial, que era
básicamente el darwinismo sin la herencia de caracteres adquiridos y, en consecuencia,
distinguirlo de la «síntesis moderna». Pero la distinción no llegó a adoptarse y «síntesis
moderna» no es un término evidente para los no biólogos. El «neodarwinismo» hace una
distinción útil del «ultradarwinismo», que definiré más adelante.
[65]http://nobelprize.org/nobel_prizes/medicine/laureates/1933/morgan-bio.html,
consultado el 20 de diciembre de 2008.
[66]Schrodinger (1992), basado en conferencias impartidas en 1943.
[67]Watson y Stent (1980); Crick (1990).
[68] Véase diagrama en página 356.
[69] Los resultados, incluyendo el papel de intermediario del ARN mensajero, están
descritos en las páginas 353-362.
[70]Crick, Francis, «Central Dogma of Molecular Biology», Nature, 227: 5258,
1970, pp. 561–563.
[71]Coyne (2006).
[72] Véase el glosario para la definición de «paradigma».
[73] Véase página 348.
[74]Woese, C. R., et al., «Towards a Natural System of Organisms: Proposal for the
Domains Archaea, Bacteria, and Eucarya», Proceedings of the National Academy of
Sciences of the United States of America, 87: 12, 1990, pp. 4576–4579.
CAPÍTULO 17. EVIDENCIAS DE LA EVOLUCIÓN BIOLÓGICA 1:
FÓSILES

Renunciaré a mi fe en la evolución si alguien encuentra un fósil de conejo en el


precámbrico.

Atribuido a J. B. S. Haldane

Combinar el fenómeno de la evolución biológica con solo una de sus varias posibles
causas puede llevar a un sesgo subconsciente a la hora de seleccionar e interpretar las
evidencias. Intentaré evitar caer en esto examinando solo el fenómeno y viendo si existe o
no un patrón en las evidencias. En los capítulos siguientes consideraré hasta qué punto el
modelo ortodoxo neodarwinista, junto con las hipótesis que modifican o desafían este
modelo, explican la existencia de un patrón de este tipo.
En este capítulo examinaré las evidencias fósiles y en el capítulo siguiente las
evidencias en especies vivas. Teniendo en cuenta que todas las evidencias hacen referencia
a especies, es necesario ante todo aclarar el significado del término.
Especies

Se estima que el número de especies eucariotas vivas oscila entre cinco y treinta
millones,[1] de las cuales aproximadamente dos millones están descritas.[2]
Solo se han descrito unas 4.500 especies procariotas (bacterias y arqueas),[3] pero
se estima que su número total encima de un simple kilómetro de corteza terrestre se sitúa
entre 108 y 1017 (entre un millardo y un trillón).[4] No existen en la actualidad
estimaciones disponibles de especies procariotas en otros lugares pero, para hacernos una
idea de su importancia en la biosfera, se calcula que el número total de células procariotas
que contienen los océanos es de unos 1029 (un millón de cuatrillones), al menos el doble
que en el suelo y 50 veces más que en la profundidad de las superficies oceánica y terrestre.
[5]
Una de las razones de la amplia discrepancia en las estimaciones es la falta de
acuerdo en cuanto a lo que es una especie. Como señaló Nick Isaac, de la Zoological
Society de Londres, «Existen casi tantos conceptos distintos del término “especies” como
biólogos dispuestos a discutirlos».[6]
Igual que Darwin, varios biólogos sostienen que las especies son conceptos
arbitrarios. Jim Mallet, un especialista en mariposas del University College de Londres,
cuya investigación se centra en la especiación, sostiene que «las especies consideradas
esencialmente como una “realidad” entran en grave conflicto con lo que entendemos como
especiación gradual y, en general, es algo que ya no está aceptado».[7] Y prosigue
defendiendo que «recientes estudios genéticos […] apoyan la existencia de un continuo
darwinista entre variedades y especies».[8]
Los biólogos especializados en evolución, Jerry Coyne y H. Allen Orr, discuten esto
en el libro que publicaron en 2004 y que titularon Speciation [Especiación], un extensivo
estudio sobre la investigación llevada a cabo en este ámbito.
Tal y como lo articuló Ernst Mayr, uno de los arquitectos del modelo neodarwinista:
Lo que se conoce como el «problema de las especies» puede reducirse a una sencilla
elección entre dos alternativas: ¿son las especies una realidad en la naturaleza o son
simplemente una invención de la mente humana?[9]
Teniendo en cuenta que un ser humano es claramente distinto a un ratón, una carpa
dorada, una bacteria E coli o un roble, existe una necesidad práctica, diferenciada de
cualquier tipo de necesidad ontológica, de definir aquello sobre lo que los científicos hablan
y estudian. Este fue uno de los principales motivos del desarrollo de la taxonomía: la
clasificación jerárquica de los organismos en grupos según los caracteres que tienen en
común, empezando por los más generales hasta llegar a los más específicos.
Independientemente de las diferencias que mantengan con respecto al significado
del término, la mayoría de científicos utiliza las especies —no un taxón de categoría
inferior a la especie, como la variedad, o un taxón de categoría superior a la especie, como
el género, el orden, la clase o el filo—, para describir a los organismos y sus relaciones con
otros organismos. Pero el modo en que taxonomistas, especialistas en el estudio de
sistemas, naturalistas, bacteriólogos, botánicos, entomólogos, zoólogos, biólogos
evolutivos, biólogos moleculares, genetistas, especialistas en el estudio del genoma,
ecologistas y otros especialistas definen el término «especie» es muy distinto porque no se
ponen de acuerdo en cuáles son los caracteres definitorios.
Preguntados por lo que entendían como «especie», los arquitectos del
neodarwinismo coincidían en que el caracter taxonómico tradicional, es decir, la morfología
—estructura y forma—, era inadecuada porque muchas difieren muy poco
morfológicamente mientras que otras especies exhiben una amplia variedad de morfologías.
Además, el macho y la hembra de todas las especies suelen ser distintos en cuanto a tamaño
y forma, y a menudo también en cuanto a color, igual que los ejemplares jóvenes y los
maduros, mientras que los adultos suelen mostrar formas distintas dependiendo de la
disponibilidad de alimento.
Para los neodarwinistas, el caracter clave era la capacidad de los miembros de una
población para poder intercambiar genes: el flujo genético dentro de una población define
una especie y distingue esa especie de otra población con la que no existe flujo genético, y
el flujo genético se consigue mediante la unión de miembros de la especie para producir
descendencia fértil. Ernst Mayr materializó este punto de vista en 1940 como el «concepto
biológico de especie», que definió sin apenas cambios más de cincuenta años después como
«grupos de poblaciones naturales de individuos que pueden cruzarse entre sí, o que
potencialmente pueden hacerlo, y que están reproductivamente aislados de otros grupos
afines».[10]
Como que los neodarwinistas defienden que la selección natural de caracteres de la
población de una especie en un entorno particular es la causa de la evolución biológica,
sostienen que el aislamiento geográfico es la vía principal hacia la especiación. Una
población se divide en dos bien por la migración de una parte de la misma o por la
formación de una barrera geográfica entre distintas partes de la población, como sucedió
cuando el istmo de Panamá se cerró hará cuestión de tres millones de años y separó los
organismos marinos que vivían en las costas del Atlántico y del Pacífico. El acervo génico
de las poblaciones aisladas geográficamente se altera en el transcurso de generaciones
cuando la selección natural favorece a los miembros mejor adaptados para competir por la
supervivencia y reproducirse en ese entorno. Al final, los miembros de las distintas
poblaciones ya no son capaces de intercambiar genes ni en el caso de que se produjera el
contacto. Es lo que se conoce como especiación alopátrica, a diferencia de la simpátrica, en
la que una población se divide en dos o más especies que comparten el mismo territorio.
El concepto biológico de especie neodarwinista fue ampliamente aceptado como
ortodoxia hasta los años 80, cuando los botánicos empezaron a rebatirlo alegando que no
aplicaba a muchas plantas.
Coyne y Orr, los zoólogos que investigaron la especiación mediante la mosca de la
fruta Drosophila melanogaster, siguieron a Mayr considerando que la alopátrica es la
principal vía hacia la especiación. Modificaron levemente su definición reconociendo que
la especiación darwinista es un proceso que exige mucho tiempo y que existen fases
intermedias en las que no es posible hacer una distinción de especies clara. Su actualización
del concepto biológico de especie, que se ha convertido en la ortodoxia actual, pero que no
por ello está aceptado unánimemente, lo define como «grupos de poblaciones que se
reproducen entre sí y que muestran un aislamiento reproductivo sustancial, aunque no
necesariamente completo, con respecto a otras poblaciones afines».[11]
Su revisión de las diversas barreras divide el aislamiento entre precopulatorio y
postcopulatorio. El aislamiento precopulatorio puede ser:
a. Ecológico, cuando las poblaciones ocupan o se reproducen en hábitats distintos.
b. Temporal, cuando las poblaciones se reproducen en momentos distintos, ya sea
del día o del año.
c. Conductual, cuando los miembros de la población eligen si emparejarse o no o
con quién hacerlo, lo que se conoce también como emparejamiento selectivo.
d. Mecánico, cuando diferencias morfológicas o fisiológicas impiden el
emparejamiento.
El aislamiento poscopulatorio implica que el resultado del emparejamiento es
inviable (aborto o mortinato), estéril (como la mula que resulta del emparejamiento de un
caballo y un asno) o no está tan bien adaptado como cualquiera de sus progenitores para
sobrevivir o reproducirse y, en consecuencia, se ve abocado a la extinción.
Pero la definición del término especie que sostiene la ortodoxia actual presenta
cuatro problemas principales.
1. Imposibilidad de verificación
Si la vía principal hacia la especiación es la separación geográfica de partes de una
población, al quedar dos partes aisladas entre sí se hace imposible observar si los miembros
de una parte son capaces de emparejarse con los miembros de la otra. La rara excepción se
produce cuando los miembros de una parte de la población migran de nuevo hacia el
territorio donde vive la otra parte.
2. Reproducción asexual
La definición se apuntala sobre la reproducción sexual, pero la mayoría de especies
se reproduce asexualmente. Uno de estos métodos de reproducción es la partogénesis,
conocida también como nacimiento virgen.
Partogénesis: desarrollo de un óvulo hasta convertirse en cría sin que se produzca
la fecundación por parte de un macho.
Muchos invertebrados, como los insectos, producen descendencia de esta manera.
Por ejemplo, la bdilloidea rotifers, un invertebrado acuático microscópico, es siempre
hembra pero se reproduce y ha desarrollado unas 300 especies reconocidas. La mayoría de
animales que se reproduce por partogénesis se reproduce también sexualmente. Entre ellos
destacan las abejas y las hormigas, además de algunos vertebrados como determinadas
especies de serpientes, peces, anfibios, reptiles y aves, aunque ningún mamífero. El
fenómeno es más excepcional entre las plantas, donde la reproducción partogenética natural
se produce en la rosa y el naranjo.
Otro método asexual de reproducción es la fisión binaria.
Fisión binaria: división de una célula en dos, en la que cada célula resultante es
idéntica a la célula original y suele alcanzar su mismo tamaño.
La abrumadora mayoría de especies del planeta —bacterias y arqueas— se
reproduce de esta manera.
Coyne y Orr defienden que la reproducción bacteriana es consistente con su
definición porque los genes se intercambian entre las bacterias a través de un proceso
conocido como transferencia genética horizontal, o lateral, que «puede causar
transferencias genéticas raras y recombinación»; este equivalente bacteriano de la
recombinación genética sexual produce incluso «una forma de aislamiento reproductivo».
Por otro lado, el informe de la Evaluación de los Ecosistemas del Milenio dice que:
«Los conceptos de especies que están basados en el flujo genético y sus límites,
como el concepto biológico de especie, no son aplicables a los taxones asexuales. Tampoco
son adecuados para taxones “pansexuales”, como es el caso de algunas bacterias, donde el
flujo de genes puede ser común entre tipos incluso muy distintos[12]».
3. Hibridación exitosa
La actual definición neodarwinista deja implícito que del emparejamiento entre
miembros de dos especies distintas resulta una descendencia que es inviable, estéril o tan
poco adaptada para sobrevivir y reproducirse, que su descendencia se extingue.
Sin embargo, el 25 por ciento de las plantas vasculares (que incluyen todas las
plantas con flor) de Gran Bretaña, el 16 por ciento de todas las mariposas de Europa, el
nueve por ciento de todas las aves del mundo y el seis por ciento de todos los mamíferos de
Europa (incluyendo el ciervo), hibrida y produce descendencia fértil.[13]
4. Hibridación poliploide
La hibridación no solo es exitosa en muchas plantas, sino que además puede generar
nuevas especies casi de inmediato en vez de hacerlo de forma gradual a lo largo de miles de
generaciones. En el capítulo siguiente trataré sobre este tipo concreto de hibridación,
conocida como poliploide, en la que el híbrido y su descendencia no pueden reproducirse
con miembros de las especies de sus progenitores.
Coyne y Orr hablan de un mínimo de 25 definiciones alternativas del término
«especie» vigentes hoy en día. Cada una de ellas, sin embargo, presenta tantos problemas
como la definición ortodoxa actual.
Lo cual me obliga a llegar a la conclusión de que, después de revisar las evidencias
de la evolución biológica, no queda otra alternativa que aceptar la definición de especie y
los caracteres que se utilicen para clasificar a un individuo dentro de una especie en
particular, que los especialistas más relevantes utilicen. Lo cual, de todos modos, produce
inconsistencias considerables. Por ejemplo, los caracteres utilizados para clasificar las
especies de hormigas son muy distintas de las que se emplean para clasificar las especies de
mariposas. El lobero irlandés, que tiene una altura a la cruz de 90 centímetros, se clasifica
como la misma especie (Canis lupus familiaris) que el chihuahua de 15 centímetros de
altura, mientras que la longitud media de una gaviota mediterránea (Larus melanocephalus)
adulta es de 39 centímetros y se clasifica como una especie distinta de la gaviota común
(Larus canus), que tiene una longitud media en edad adulta de 41 centímetros, es algo más
larga, tiene las patas más rojas y la cabeza negra solo en verano. Si únicamente
dispusiéramos de fósiles de ambos ejemplares, las gaviotas serian indistinguibles, mientras
que los dos perros quedarían clasificados como especies distintas.
Fósiles
El registro fósil se ha ampliado enormemente desde tiempos de Darwin, y muy en
especial en los últimos treinta años. Pero, de todos modos, la evaluación de fósiles para
comprender la evolución biológica presenta dos problemas principales.
Escasez del registro fósil

Las razones geológicas y fisiológicas ofrecidas en el capítulo 14 para la ausencia de


fósiles de las primeras formas de vida[14] aplican a todas las formas de vida. Además, los
movimientos tectónicos y la erosión han destruido gran parte de los fósiles de las especies
más jóvenes que se hallaban depositados en los estratos más jóvenes de las rocas.
Richard Leakey y Roger Lewin estiman que el registro fósil ha conservado tan solo
unas 250.000 especies eucariotas de las aproximadamente 30 mil millones de especies que
deben de haber vivido durante los últimos 600 millones de años.[15] Esta estimación da a
entender que solo ha quedado fosilizada una de cada 120.000 especies eucariotas; no tiene
en cuenta la cantidad inmensamente superior de especies procariotas.
Y estos fósiles tampoco pueden considerarse representativos. Las partes duras de los
organismos, como los dientes y los huesos, presentan más probabilidades de quedar
fosilizadas que las partes de organismos blandos. Además, cerca del 95 por ciento del
registro fósil está compuesto por restos de criaturas que vivieron bajo el agua,
principalmente en mares poco profundos.[16]
Interpretación

La interpretación sigue siendo un problema clave incluso en los casos excepcionales


en los que se ha descubierto el fósil de un organismo entero. Por ejemplo, después de
estudiar los fósiles del esquisto de Burgess, que datan del periodo cámbrico, Simon
Conway Morris interpretó en 1977 un ejemplar de 25 centímetros de longitud como los
restos de un animal que caminaba por el fondo marino sobre unos zancos espinosos y con
siete tentáculos dorsales, similar a la imagen que muestra la figura 17.1. Se trataba de un
ejemplar único y Conway Morris lo clasificó como una nueva especie, Hallucigenia sparsa,
una especie que apareció repentinamente en el cámbrico y que nunca más volvió a verse.

Una interpretación alternativa consideró que la Hallucigenia era una apéndice de un


animal más grande y desconocido. Posteriormente, en 1991, Lars Ramskold y Hou
Xianguang examinaron las especies descubiertas en Chengjiang, China, y llegaron a la
conclusión de que la reconstrucción de Conway Morris estaba invertida: la Hallucigenia
caminaba sobre pares de patas similares a tentáculos y se protegía con una terrible
empalizada de espinas, como muestra la figura 17.2.
La Hallucigenia fue entonces reclasificada en el filo de las Onychophora,
convirtiéndola así en un antepasado lejano de los animales similares a las orugas que viven
en la actualidad en las selvas tropicales y alejándola del protagonismo de ser única en su
especie.[17] Esta interpretación fue aceptada por Conway Morris y la mayoría de
paleontólogos, aunque nunca han llegado a ponerse de acuerdo en lo referente a qué
extremo corresponde a la cabeza y cuál a la cola.
Normalmente, los fósiles no corresponden a animales completos sino solo a
fragmentos de huesos o dientes, y los problemas de interpretación, reconstrucción y
clasificación son, por lo tanto, muy complicados.
Todo esto crea un terreno fértil para la Ley de interpretación de los datos sugerida
en el capítulo 6 como consecuencia de las reivindicaciones de algunos cosmólogos. Por
ejemplo, a finales de 2006, el paleontólogo Jorn Hurum convenció al Museo de Historia
Natural de Oslo para que pagara un millón de dólares por un pequeño fósil que no había
estudiado en detalle. Apenas dos años más tarde, sir David Attenborough, el decano de los
presentadores de televisión especializados en historia natural, anunció a los medios de
comunicación reunidos en presencia del alcalde de Nueva York, Michael Bloomberg y con
un fondo publicitario de un futuro libro y una serie documental vinculada al mismo titulada
The Link, que el eslabón perdido había dejado de estar perdido. Hurum, que había
clasificado aquel fósil de 47 millones de años de antigüedad excepcionalmente bien
conservado como Darwinius masillae, explicó que se trataba de «el primer eslabón con los
humanos». Y añadió con modestia que «su imagen aparecerá seguramente en todos los
libros de texto de los próximos cien años».
Menos de cinco meses más tarde, Erik Seiffert, de la Stony Brook University de
Nueva York, que lideraba un estudio publicado en Nature sobre un fósil similar, pero 10
millones de años más joven, dijo que «Nuestros análisis no sustentan la afirmación de que
el Darwnius es un eslabón en el origen de los primates superiores».[18]
Como mínimo, el Darwinius no era una falsificación, pero los problemas de
interpretación hacen que a menudo las falsificaciones pasen desapercibidas. Desde el
Hombre de Piltdown, desenterrado en 1912 y cuyo origen fraudulento no fue descubierto
hasta cuarenta años más tarde, los fraudes han sido frecuentes. Uno de los casos más
recientes y amplio fue la falsificación sistemática de datos fósiles perpetrada durante treinta
años por el entonces distinguido antropólogo Reiner Protsch, después de lo cual, en 2005,
se vio obligado a renunciar a su puesto como profesor de la Universidad de Frankfurt. El
arqueólogo Thomas Terberger, descubridor del fraude, manifestó que:
La antropología tendrá que revisar por completo su imagen del hombre moderno
durante el periodo comprendido entre 40.000 y 10.000 años atrás. El trabajo del profesor
Protsch parecía demostrar que el hombre anatómicamente moderno y el hombre del
Neandertal habían coexistido y que incluso podían haber engendrado hijos conjuntamente.
Pero ahora todo esto queda al nivel de basura.[19]
Evidencias genéticas más recientes, que se considerarán en la tercera parte, sugieren
que algunos neandertales se reprodujeron con los primeros humanos, pero este hecho no
valida las evidencias fósiles falsas de Protsch.
El registro fósil

Teniendo en cuenta estos problemas, la figura 17.3 se inspira en los capítulos 12 y


14 y en los estudios citados más adelante en esta sección para ilustrar, mediante un reloj de
24 horas, las estimaciones actuales de la escala de tiempo del registro fósil.

Esta imagen general muestra que si la formación de la Tierra que se produjo hace
aproximadamente 4,5 miles de millones de años puso en marcha el reloj, el supuesto
bombardeo de asteroides o cometas que tuvo lugar en la última parte del eón hádico
terminaría a las 3.12 h. (hace 3,9 miles de millones de años). A pesar de que nunca
sabremos con exactitud en qué momento apareció la vida a partir de los elementos químicos
inanimados de la superficie terrestre, las estimaciones menos discutidas sitúan los primeros
fósiles microbianos a las 5.20 h. (hace 3,5 miles de millones de años). Estos microbios,
principalmente bacterias y arqueas, fueron la única forma de vida durante casi tres mil
millones de años. Los animales no emergieron hasta aproximadamente las 20.32 h. (hace
0,65 miles de millones de años), mientras que los humanos lo hicieron solo 29 segundos
antes de medianoche.
Los análisis químicos y radiométricos de rocas indican que durante la mayor parte
de historia de la Tierra ha habido muy poco oxígeno en los océanos, profundos y no
profundos, y en la atmósfera (véase tabla 17.1).
Las correlaciones con el registro fósil sugieren que los primeros microbios eran
extremófilos que se mantenían ingiriendo elementos químicos, probablemente componentes
sulfurosos e hidrógeno procedentes de la descomposición del agua. Al final, los
antepasados de las cianobacterias evolucionaron para utilizar la luz del sol como fuente de
energía. El oeste de Australia posee uno de los registros más continuos y mejor estudiados
de estromatolitos, estructuras laminadas compuestas principalmente por cianobacterias,
organismos que dominaron el registro fósil en el periodo comprendido entre dos mil y un
millón de años antes de nuestros días.[20]
Algunas cianobacterias excretan oxígeno a modo de producto de desecho
metabólico. Pese a que el oxígeno era venenoso para las bacterias primitivas (anaeróbicas),
algunas especies se adaptaron para utilizar este oxígeno para su metabolismo (bacterias
aeróbicas).
El primer fósil de eucariota —una célula nucleada que contiene orgánulos tipo
mitocondrias, que utilizan oxígeno para generar energía para la célula— fue descubierto en
forma de finas películas de carbono en unas rocas de 2,1 miles de millones de años de
antigüedad localizadas en Empire Mine, cerca de Marquette, Michigan. Pudo haber sido
una colonia bacteriana, pero su tamaño superior a un centímetro y su forma de tubo
sugieren que podría tratarse de Grypania spiralis, una alga eucariota.[21]
En 2010, un equipo interdisciplinario liderado por Abderrazak El Albani, de la
Universidad de Poitiers, anunció el descubrimiento de más de 250 fósiles macroscópicos
bien conservados, de 2,1 miles de millones de años de antigüedad, en esquistos negros del
sudeste de Gabón que interpretaron como una representación de vida pluricelular. La
datación isotópica con carbono y azufre indican que las estructuras, que alcanzan un
tamaño de hasta 12 centímetros, eran biogénicas y los patrones de crecimiento deducidos a
partir de la morfología fósil sugieren la señalización celular y las respuestas coordinadas
que normalmente se asocian a una organización pluricelular. Además, los análisis de
especiación sugieren que los organismos utilizaron probablemente oxígeno para respirar.
Igual que sucede con la supuesta Grypania spiralis, la datación de estos fósiles coincide
con los inicios de la oxigenación de los océanos poco profundos y de la atmósfera (véase
tabla 17.1). Los investigadores no descartan la posibilidad de que estos fósiles representen
las eucariotas pluricelulares más antiguas.[22] Sin embargo, según señalan Philip
Donoghue y Jonathan Antcliffe, del departamento de Ciencias de la tierra de la Universidad
de Bristol, a falta de más evidencias, hay que suponer que representan colonias
bacterianas.22
Más ampliamente aceptados como los primeros fósiles eucariotas es la abundante
población de microfósiles esféricos conservados en los esquistos costeros del grupo
Ruyang, en el norte de china, clasificados como Shuiyousphaeridium macroreticulatum, un
organismo unicelular de entre 1,6 y 1,26 mil millones de años de antigüedad.[23]
Mientras que los niveles de oxígeno en los océanos y la atmósfera permanecieron
bajos durante casi tres mil millones de años, hace entre 0,85 y 0,54 miles de millones de
años, la oxigenación de los océanos de escasa profundidad se incrementó de manera
significativa y la atmósfera alcanzó el nivel actual de un 20 por ciento de oxígeno,
presumiblemente como consecuencia de la rápida diseminación de cianobacterias que
excretaban oxígeno. Todo esto es consistente con la aparición, hace aproximadamente 600
millones de años, de animales marinos simples que extraían oxígeno del agua para su
metabolismo, después de peces y, finalmente, de animales terrestres que metabolizaban
respirando oxígeno de la atmósfera.
En agosto de 2010, el geocientífico de Princeton, Adam Maloof y sus colegas,
afirmaron haber descubierto la primera evidencia de animales invertebrados de cuerpo
duro. Descubrieron fósiles con caparazón debajo de un depósito glacial en el sur de
Australia, lo que sugería que hace 650 millones de años en los acantilados vivían criaturas
semejantes a esponjas. De confirmarse, significaría que la vida animal existía, y sobrevivió,
antes de que la Tierra se convirtiera en un enorme copo de nieve como consecuencia del
suceso conocido como la glaciación marinoana, que dejó gran parte del planeta cubierta de
hielo.[24]
Por todo el mundo se han localizado huellas fosilizadas en arenisca de un amplio
rango de animales primitivos de cuerpo blando datados hace aproximadamente 600
millones de años. Marcan la aparición de la fauna ediacárica, que recibe su nombre por las
montañas Ediacara del sur de Australia, donde fueron descubiertos por primera vez.
Desaparecen en su mayoría del registro fósil hace 542 millones de años, aunque
descubrimientos más recientes indican que hubo organismos ediacáricos que siguieron
existiendo en el periodo cámbrico. A pesar de ser organismos que no se parecen a nada que
conviva en la actualidad con nosotros, las huellas sugieren algunos cnidarios semejantes a
las actuales medidas, líquenes, corales blandos, anémonas de mar, pennatulaceos y gusanos
anélidos, aunque sigue siendo controvertido si son ancestrales a especies extinguidas.[25]
A efectos prácticos, los paleontólogos conocen el primer periodo geológico
cámbrico, que se inició hace 545 millones de años, como la explosión cámbrica, pues
marcó la repentina aparición de una amplia variedad de miembros del reino animal, tanto
de cuerpo blando como de cuerpo duro —las eucariotas unicelulares que consumen otros
organismos y necesitan oxígeno para sobrevivir—, seguida por una desaparición
igualmente súbita de la mayoría de ellos al finalizar el periodo, hace 485 millones de años.
Sin embargo, teniendo en cuenta que los estratos del último 10 por ciento de la historia de
la Tierra están datados por su contenido fósil, estamos ante un argumento circular.
Descubrimientos más recientes, además de la posterior datación radiométrica de los estratos
rocosos, sugieren que muchas especies y linajes aparecieron antes, o desaparecieron
después, de este periodo de tiempo.
Fósiles de transición
Los creacionistas afirman que la ausencia de fósiles de transición entre una especie
y otra refuta la evolución biológica.
Richard Dawkins contraataca aseverando que «prácticamente todos los fósiles
descubiertos pueden describirse como algo intermedio entre dos cosas». Haciéndose eco del
comentario de Haldane que aparece como cita al principio de este capítulo, dice que no hay
nada en el registro fósil que falsee la evolución biológica.[26]
Las bacterias, aparte de las que evolucionaron hacia eucariotas, han conservado su
sencilla tipología corporal durante tres mil millones de años. Pero en el caso de los
animales, la primera aparición en el registro fósil de una especie más compleja nunca ha
sido datada antes de la primera aparición de una especie menos compleja. Me aventuro a
sugerir, de todos modos, que afirmar que cualquier fósil es un paso intermedio entre dos
cosas es tal vez simplificar la situación en exceso.
Para responder a los creacionistas, los biólogos evolutivos suelen señalar la escasez
inherente del registro fósil y emplean un argumento ya utilizado por Darwin: los
organismos transicionales que Estan peor adaptados al entorno que sus sucesores, acabarán
perdiendo la lucha por la supervivencia y la reproducción y se extinguirán rápidamente en
relación al tiempo geológico; de ahí que la probabilidad de encontrar fósiles de organismos
en transición sea todavía inferior que la de encontrar fósiles de aquellos que se adaptaron
con éxito.
Una serie de fósiles, de todos modos, presenta un caso factible para la evolución
biológica. La familia del caballo posee un registro fósil relativamente rico que va desde el
Hyracotherium, el caballo amanecer, un mamífero del tamaño aproximado de un zorro con
varios dedos terminados con pezuña y dentadura idónea para la alimentación omnívora,
datado aproximadamente hace 50 millones de años, hasta la única especie superviviente, el
caballo moderno con una sola pezuña y extremidades largas, Equus, con dentadura
adecuada para el pastoreo. La figura 17.4 ilustra los cambios anatómicos que este linaje ha
experimentado con el paso del tiempo.
El diagrama no representa una única sucesión lineal. Se han encontrado fósiles de
muchos más équidos extintos, lo que sugiere un árbol genealógico evolutivo en el que solo
el linaje que lleva hasta el caballo moderno sobrevivió hasta la actualidad.
Las transiciones anatómicas son consistentes con la hipótesis de que un pequeña
mamífero se adaptó para caminar sobre el suelo suave y húmedo de los bosques
primigenios y alimentarse de follaje blando y frutas y evolucionó a medida que los bosques
cedieron paso a la sábana; en el nuevo paisaje, solo las variedades más veloces podían
escapar de los predadores, lo que condujo a extremidades más largas y una única pezuña
para adquirir mayor velocidad y a la adaptación de la dentadura al pastoreo.
Las ballenas representan otro caso favorable para la evolución biológica. Como
todos los mamíferos, respiran aire y producen leche para alimentar a las crías. Sn embargo,
no salen nunca del agua, tienen los oídos cerrados, aletas en vez de piernas, y poseen un
metabolismo que retiene el oxígeno no en forma de gas, sino de compuesto químico, lo que
permite que algunas de ellas puedan sumergirse a 1.500 metros de profundidad y
permanecer bajo el agua durante dos horas; algunas, como la ballena azul, son gigantescas
y pueden alcanzar un peso de hasta 150 toneladas.
Según el paleontólogo y anatomista Hans Thewissen, de la facultad de Medicina de
las Northeastern Ohio Universities, una de las autoridades más destacadas en el estudio de
las adaptaciones acuáticas de las ballenas, sus primeros antepasados conocidos son la
familia de las Pakicetidae (ballenas en paquistana), que incluye los géneros Pakicetus,
Ichthyolestes y Nalacetus. Junto con su equipo, realizó el seguimiento de un primer
descubrimiento y encontró muchos huesos fosilizados en Pakistán y el noroeste de India,
zona que se cree que se localizaba cerca del antiguo mar de Tetis antes de que la placa india
colisionara contra la costa de Cimeria y diera lugar a las montañas más altas del mundo.
Las Pakicetidae fueron encontradas juntas y, por lo tanto, son de la misma época.
Pero siendo tan complicada la datación de las rocas, Thewissen solo está dispuesto a
estimarles una edad de 50 +/- 2 millones de años, aunque «con escasa seguridad».[27]
La figura 17.5 muestra los huesos del Pakicetus y el Ichthyolestes, mientras que la
figura 17.6 muestra una reconstrucción del primero, que tendría el tamaño aproximado de
un lobo.

Vivían en tierra, pero Thewissen asegura que tienen caracteres que no comparten
con otros mamíferos, sino única y exclusivamente con cetáceos arcaicos y recientes
(ballenas, delfines y marsopas): una reducción de la parte de la corona dental que tritura el
alimento, un aumento de la velocidad de cierre de las mandíbulas y una forma de la región
post-orbital y temporal del cráneo que afecta el oído y la visión. Lanza la hipótesis de que
estos ungulados cambiaron a una dieta de presas acuáticas cuando empezaron a adentrarse
en ríos de aguas poco profundas. Evolucionaron rápidamente. La transición de paquicétidos
a mamíferos marinos se realizó en menos de ocho millones de años vía los ambulocétidos
(ballena que camina), cuyo aspecto parecería el de un cocodrilo mamífero de tres metros de
longitud y cuyos fósiles se descubrieron en lo que se cree que fueron unas marismas, los
protocétidos con extremidades mucho más reducidas, los basilosauridos con cuerpos
enormes de aspecto serpenteo y cola similar a la de las ballenas y los dorudóntidos,
similares a los delfines.[28]
La interpretación de los huesos fosilizados y la reconstrucción del ejemplar a partir
de los mismos, junto con inferencias sobre cómo debían de funcionar estos animales, las
deducciones alcanzadas a partir de análisis de ADN calibrados utilizando la técnica del
reloj molecular, más la datación de los estratos rocosos por su contenido fósil, nunca
podrán proporcionar pruebas concluyentes. Sin embargo, las evidencias son consistentes
con la hipotética evolución de pequeños mamíferos terrestres ungulados hacia ballenas de
vida acuática. Son también consistentes con los mamíferos actuales adaptados en distintos
grados tanto a la vida terrestre como acuática, como la nutria, la nutria marina y la foca.
Otros fósiles llamados de transición son los descubiertos en la década de los 90,
sobre todo en la formación de Yixian, China; se trata de más de veinte géneros distintos de
dinosaurios con plumas fósiles datados con una antigüedad de entre 150 y 120 millones de
años.[29] Desde entonces se han descubierto muchos más dinosaurios alados de gran
tamaño, incluyendo la especie descubierta en 2012 bautizada como Yutyrannus huali, de
entre siete y ocho metros de longitud y alrededor de 1.400 kilos de peso. Además, las
secuencias de aminoácidos extraídas de los restos de un Tyrannosaurus rex más reciente
recuerdan las de un pollo actual. Todas estas evidencias son consistentes con la hipotética
evolución de las aves a partir de dinosaurios reptiles.
Finalmente decir que la explicación alternativa creacionista del registro fósil no solo
carece de evidencias falsables, sino que totalmente inconsistente con las evidencias que
tenemos; además, es internamente inconsistente.[30]
Extinción de especies

La abundancia en capas de rocas antiguas de especies fósiles que no encontramos en


capas de rocas posteriores implica extinciones. La estimación de la proporción de especies
que hay existido y quedaron extinguidas oscila entre el 99[31] y el 99,9[32] por ciento de la
totalidad.
Pero como hemos visto al principio de este capítulo, no existe acuerdo en la
definición del concepto de especie. Además, no sabemos cuántas especies existen hoy en
día y ni siquiera nos aproximamos a su orden de magnitud. Sería un desafío a la lógica
cuantificar con precisión a partir del escaso registro fósil y querer determinar el número de
especies que existieron hace tres mil millones, mil millones, cien millones, diez millones o
incluso hace diez mil años, por muy sofisticados que fueran los modelos matemáticos
empleados. Lo único que podemos hacer es deducir que una gran mayoría de especies
acabó extinguiéndose.
Además, los biólogos evolutivos diferencian entre:
Extinción terminal: la especie deja de existir sin dejar ningún descendiente
evolucionado.
Y:
Extinción filética o pseudoextinción: la especie evoluciona en una o más nuevas
especies; la primera especie se ha extinguido, pero el linaje evolutivo continúa.
El consenso científico es que la mayoría de las extinciones de especies que se
observa en el registro fosil, y todas las observadas en la actualidad, son terminales.
Extinción de especies a nivel individual
Según el modelo neodarwinista, la extinción de especies a nivel individual puede
ser tanto filética como terminal. La extinción filética se produce cuando la población de una
especie en un nicho ecológico evoluciona de forma muy gradual por la acumulación de
mutaciones genéticas aleatorias que codifican caracteres que permiten a sus miembros
competir de forma más efectiva para la supervivencia y la reproducción en ese nicho, o en
otro nicho, hasta el punto en que la población se transforma en una nueva especie.
La extinción terminal se produce cuando miembros de una especie invaden la
totalidad del territorio de otra y matan a esa especie o se muestran mejor adaptados para
explotar sus recursos alimenticios, forzando a los miembros de la especie original a morir
de hambre o a debilitarse para reproducirse menos y acabar muriendo a lo largo de
generaciones, o cuando un cambio importante en las condiciones medioambientales se
produce a tal velocidad que la especie no puede evolucionar adaptativamente.
Extinción en masa de especies
El relato ortodoxo de la paleontología dice que la Tierra ha experimentado un
mínimo de diez extinciones en masa en la que han desaparecido muchas especies en un
periodo de tiempo geológicamente breve. La tabla 17.2 recopila los periodos acordados de
las cinco principales extinciones en masa que se cree que han tenido lugar durante los
últimos 500 millones de años.

Estos sucesos se producen en la frontera entre distintos periodos geológicos, puesto


que esos periodos están principalmente definidos por su contenido fósil.
Mientras que los paleontólogos se muestran de acuerdo en que estas extinciones en
masa se produjeron, no coinciden en cuál pudo ser su causa, además de un drástico cambio
medioambiental. Entre las numerosas causas propuestas destacan las glaciaciones
periódicas con descensos simultáneos de los niveles globales del mar producidos por
cambios en la inclinación axial de la Tierra,[33] un estallido letal de partículas de alta
energía provocada por una gigantesca llamarada solar que superó la magnetosfera
protectora de la Tierra, la radiación ionizante que pudo producirse durante pérdidas
temporales de la magnetosfera protectora debido a la inversión del campo magnético de la
Tierra,[34] la radiactividad letal de una supernova, la actividad tectónica, el enfriamiento
global producido por grandes erupciones volcánicas que generaron nubes que ofuscaron la
luz del sol, el calentamiento global producido por grandes erupciones volcánicas que
generaron nubes que crearon un efecto invernadero, el enfriamiento global producido por el
impacto de un gigantesco meteorito que generó nubes que impidieron el paso de la luz del
sol y/o desencadenaron grandes erupciones volcánicas, el envenenamiento global de
animales y plantas cuyo metabolismo dependía del oxígeno producido por las bacterias y
arqueas anaeróbicas que dominaron la Tierra durante la práctica totalidad de sus primeros
tres mil millones de años de vida, etc. Algunas de estas conjeturas son mutuamente
contradictorias y no existen evidencias suficientes para confirmarlas y, mucho menos, para
favorecer unas por encima de otras.
La extinción del Cretácico-Terciario (K-T) es la más reciente y la que más
evidencias nos ha dejado. Los museos y los libros de ciencia popular suelen presentar como
un hecho científico demostrado el impacto de un asteroide gigantesco que barrió de la faz
de la Tierra los dinosaurios y muchas más especies generando incendios a nivel global,
terremotos y una nube de polvo rica en ácido sulfúrico que bloqueó la luz del sol durante
muchos meses y que, como consecuencia, desencadenó un enfriamiento global, lluvia acida
y la destrucción de las cadenas alimenticias. Según el científico planetario Walter Álvarez,
co-proponente de la hipótesis, esta extinción en masa se produjo en un periodo tan breve
como de uno a diez años.[35]
Muchos científicos cuestionaron este relato, pero los medios de amplia difusión
especializados en ciencias informaron en 2010 de que el tema estaba cerrado:[36] un panel
interdisciplinario de científicos había revisado veinte años de investigaciones y había
llegado a la conclusión de que el impacto de un gran asteroide, que se había producido en la
península del Yucatán, México, había desencadenado la extinción en masa.[37]
Pero los geofísicos Vincent Courtillot y Frederic Fluteau acusaron al panel de
cometer «un error sustancial y una interpretación fundamental y errónea de nuestro
documento».[38] La geocientífica de Princeton, Gerta Keller, y otros acusaron al panel de
haber utilizado
Una revisión selectiva de los datos y las interpretaciones de los proponentes de este
punto de vista. Han ignorado el gran cuerpo de evidencias inconsistente con su conclusión;
evidencias acumuladas por científicos de todo tipo de disciplinas (paleontología,
estratigrafía, sedimentología, geoquímica, geofísica y vulcanología) que documentan un
complejo escenario a largo plazo que involucra una combinación de impactos, vulcanismo
y cambio climático.[39]
El biólogo evolutivo J. David Achibald y veintidós científicos más señalaron que el
panel «obvió de manera perceptible el nombre de los investigadores en la especialidad de
los vertebrados terrestres» y que «el escenario de extinción simplista presentado en el
artículo no está al nivel de los innumerables estudios que versan sobre el comportamiento
de los vertebrados y otros organismos terrestres y acuáticos a finales del Cretacido».[40]
Si la causa de la extinción K-T es debatible, ¿qué sucede con el fenómeno en sí?
Nos han llegado muy pocos ejemplares fósiles del millar aproximado de especies de
dinosaurios que se cree que existían, y solo se ha examinado un área, que se extiende desde
Alberta, Canadá, hasta el noroeste de los Estados Unidos, con transiciones sedimentarias
con restos de dinosaurios del límite K-T. El registro de dinosaurios en esta área
correspondiente a la última parte del Cretáceo muestra un declive gradual en su diversidad,
con un descenso de treinta a siete géneros en el transcurso de los últimos ocho millones de
años del Cretácico, lo que sugiere una extinción más gradual. Además, si un suceso de
extinción en masa devastador y repentino hubiera barrido de la faz de la tierra todos los
dinosaurios, ¿por qué los demás reptiles —como cocodrilos, lagartos, serpientes y tortugas
— no se vieron afectados?
El registro fósil es rico en organismos marinos, pero la única imagen detallada del
periodo correspondiente al límite K-T nos la ofrecen las foraminíferas planctónicas y el
nanoplancton calcáreo, cuya extinción se produjo a lo largo de un periodo extenso que se
inició mucho antes y término mucho después del límite K-T. Los braquiópodos sufrieron
durante el límite pero, a pesar de que se dice que los ammonites corrieron la misma suerte,
la escasez de secciones con muestras de ammonites impide demostrar si su extinción fue
gradual o abrupta.[41]
Si quedan aún tantas preguntas abiertas sobre la naturaleza y la causa de la extinción
en masa K-T, ¿hasta qué punto son fiables los detalles presentados en relación a los sucesos
de extinción en masa que tuvieron lugar previamente?
Estasis y especiación súbita

Como vimos en el último capítulo, una de las razones que retrasó la aceptación por
parte de la comunidad científica de la hipótesis de la selección natural de Darwin fue el
gradualismo que llevaba implícito, que no estaba sustentado por un registro fósil que
mostraba especies completamente formadas que permanecían invariables hasta su
desaparición. Las evidencias eran consistentes con el saltacionismo, la hipótesis de que la
evolución biológica se producía por saltos.
Sin embargo, la adopción del neodarwinismo por parte de los biólogos en la década
de 1940, consolidó los argumentos teóricos de los genetistas de la población a favor de un
proceso de evolución basado en el gradualismo darwinista e influyó las interpretaciones del
registro fósil.
Pero en 1972, un documento titulado «Punctuated Equilibria: An Alternative to
Phyletic Gradualism» [Equilibrios puntuados: una alternativa al gradualismo filético][42],
escrito por los paleontólogos Niles Eldredge y Stephen Jay Gould, desafío la base de
evidencias que sustentaba la explicación neodarwinista. La publicación provocó un debate,
a menudo mordaz, que continúa en la actualidad. Gould, posteriormente, resumió sus
conclusiones como sigue:
La historia de la mayoría de especies fósiles incluye dos características
especialmente inconsistentes con el gradualismo: (1) Estasis. La mayoría de especies no
exhibe un cambio direccional durante su estancia en la tierra. Aparecen en el registro fósil
básicamente con el mismo aspecto que tienen en el momento de su desaparición; el cambio
morfológico suele ser limitado y carente de dirección. (2) Aparición súbita. En toda área
localizada, la especie no surge gradualmente a partir de la transformación continuada de sus
antepasados; sino que aparece de repente y «completamente formada».[43]
Examinaré la hipótesis del equilibrio puntuado en un capítulo posterior. Lo que aquí
quiero ver es lo que muestran las evidencias fósiles.
Los neodarwinistas basan su modelo en el estudio llevado a cabo en 1987 por el
geólogo Peter Sheldon con 3.458 ejemplares de trilobites —el grupo de artrópodos marinos
extintos, parientes lejanos del cangrejo herradura y los insectos— recogidos en siete
estratos de roca sedimentaria de la zona central de Gales y que representaban un periodo de
alrededor de tres millones de años. Una característica que diferencia las especies es el
número de «costillas» pigidiales (segmentos fusionados de la cola). Sheldon descubrió que
en ocho géneros de trilobites la media de número de costillas pigidiales aumentaba con el
paso del tiempo. Llegó con ello a la conclusión de que, debido al cambio gradual, que a
veces se invertía temporalmente, era imposible asignar la mayoría de ejemplares a una
especie linneana concreta. Teniendo en cuenta que los taxonomistas incluyen diversas
formas morfológicas dentro de una misma especie, las asignaciones previas a taxones
linneanos podían haberse interpretado erróneamente como una evidencia de interrupción y
estasis.[44]
Eldredge, sin embargo, presenta una interpretación distinta de los datos de Sheldon.
En primer lugar, sostiene que la falta de costillas no significa que las divisiones de la cola
de un ejemplar de trilobites hayan desaparecido; sino que no se expresan en la superficie
exterior de la cola, igual que les sucede a los cangrejos herradura actuales antes de alcanzar
la edad adulta. En segundo lugar, en dos linajes de trilobites, el número de costillas
pigidiales oscila en vez de aumentar gradualmente, mientras que en tres linajes más el
número de costillas se mantiene constante durante varios estratos, después aumenta de
manera significativa y luego se estabiliza, todo lo cual es consistente con la inmigración, en
ese estrato en concreto, de linajes relacionados pero distintos. En tercer lugar, este
«trapicheo anatómico menor relacionado con el número de costillas —que básicamente no
conduce hacia ninguna dirección acumulativa concreta— no puede ser responsable de las
diferencias anatómicas mucho más sustanciales que se observan entre linajes estrechamente
relacionados».[45]
Alan Cheethan, paleontólogo del Museo Nacional de Historia Natural del Instituto
Smithsoniano, apoya este punto de vista. En 1986 llevó a cabo el estudio sobre un género,
el Metrarabdotus, integrado por invertebrados sésiles acuáticos cuyos fósiles han sido
descubiertos en estratos de rocas depositadas en un periodo que se extiende entre once y
cuatro millones de años atrás. Algunas especies de este género siguen vigentes en la
actualidad y ofrecen, por lo tanto, posibilidad de comparación morfológica. Cheetham
estudió hasta 46 caracteres morfológicos por ejemplar en un total de aproximadamente mil
especies de un centenar de poblaciones. Llegó a la conclusión de que la mayoría de estas
especies no experimentó cambios durante periodos de varios millones de años y que la
mayoría de nuevas especies apareció súbitamente, sin una población intermedia
transicional; si hubo formas intermedias, duraron menos de 160.000 años como media. En
al menos siete de los casos estudiados, las especies antecesoras continuaron vigentes
después de haber originado descendientes. Todo esto, defiende, apoya el modo de evolución
con equilibrio puntuado.[46] Posteriormente, sin embargo, advirtió sobre el peligro de basar
los argumentos en el cambio de un único carácter (como Sheldon había hecho con el
número de costillas pigidiales).[47]
Eldredge concede que las especies exhiben variación, pero comenta que el registro
fósil rara vez muestra una transformación progresiva en una única dirección que se
prolongue durante mucho tiempo. Los estudios de Bruce Lieberman sobre la historia
evolutiva de dos especies de moluscos arcaicos demuestran que ambas especies cambiaron
un poco, pero que transcurridos seis millones de años, las dos terminaron con un aspecto
muy similar al que tenían cuando aparecieron por vez primera en el registro fósil. Esto,
según Eldredge, es muy típico. «Lo que apreciamos […] es oscilación. Los caracteres
variables suelen girar en torno a un valor medio».[48]
Sostiene, además, que el pequeño y progresivo cambio en el seno de las especies
que observamos en el registro fósil es demasiado lento como para ser responsable de los
grandes cambios adaptativos evolutivos. Los primeros murciélagos y ballenas necesitaron
aproximadamente unos 55 millones de años para alcanzar su actual morfología. Pero si
extrapolamos este ritmo de cambio hacia atrás, los murciélagos y las ballenas habrían
tenido que divergir de los mamíferos terrestres primitivos mucho antes de que hubieran
evolucionado los mamíferos placentarios.
Por lo que se refiere a los puntos de vista actuales, en la edición de 2014 de la
Encyclopedia Britannica Online, el antiguo presidente de la American Association fort he
Advancement of Science, Francisco José Ayala, presenta el argumento de la ortodoxia
neodarwinista.
El registro fósil indica que la evolución morfológica es, en líneas generales, un
proceso gradual. Los grandes cambios evolutivos se deben normalmente a una acumulación
de cambios relativamente pequeños que se produce a lo largo del tiempo […]. Los
paleontólogos suelen atribuir las aparentes discontinuidades morfológicas del registro fósil
a […] los sustanciales vacíos temporales comprendidos en los límites entre estratos. El
supuesto es que, si los depósitos de fósiles fueran más continuos, mostrarían una transición
gradual en la forma [la cursiva es mía].[49]
Ayala, que está especializado en genética molecular, basa el caso en un supuesto.
Eldredge, que es paleontólogo, se muestra claramente en desacuerdo.
El mismo Darwin […] profetizó que generaciones futuras de paleontólogos
llenarían estos vacíos con su diligente investigación […], pero ha quedado abundantemente
claro que el registro fósil no confirmará esta parte de las predicciones de Darwin. Que el
registro fósil sea miserablemente pobre tampoco es el problema. El registro fósil muestra,
simplemente, que esta predicción es errónea […]. La observación de que las especies son
entidades que se muestran asombrosamente conservadoras y estáticas a lo largo de
prolongados periodos de tiempo presenta todas las cualidades del cuento del traje nuevo del
emperador: todo el mundo lo sabía, pero él prefería ignorarlo. Los paleontólogos,
enfrentados a un registro que de forma recalcitrante y obstinada se niega a confirmar el
patrón pronosticado por Darwin, se han limitado a mirar hacia el otro lado.[50]
Es indiscutible que el registro fósil contiene muchos ejemplos de animales fósiles
que se han mantenido morfológicamente invariables durante muchos millones de años. Las
bacterias no han experimentados cambios morfológicos importantes desde hace más de tres
mil millones de años.
Ayala reconoce que:
Las formas fósiles suelen mantenerse virtualmente sin cambios a lo largo de varios
estratos geológicos, y cada uno de ellos representa millones de años […]. Encontramos
ejemplos de ello en los linajes de lo que se conoce como «fósiles vivos»; por ejemplo, el
molusco Lingula, un género de braquiópodo (un filo de invertebrados con dos valvas) que
ha permanecido aparentemente inalterable desde el periodo ordovícico, hace 450 millones
de años; o el tuatara (Sphenodon punctatus), un reptil que ha mostrado escasa evolución
morfológica en 200 millones de años, desde los inicios del mesozoico.[51]
Lo mismo aplica a muchos cocodrilos (aligátores, cocodrilos, caimanes, gaviales),
que se han mantenido sin cambios importantes durante 200 millones de años, mientras que
los restos perfectamente conservados de crustáceos triopsidos de 220 millones de años de
antigüedad no se distinguen en nada del actual camarón de herradura, Triops cancriformis.
Estos, y otros, son ejemplos vivos de especies que han permanecido inalterables durante
millones de años, a pesar de los supuestos cambios catastróficos en el entorno que
produjeron sucesos de extinción en masa. Muchas más especies se muestran inalterables en
el registro fósil a lo largo de decenas de millones de años.
La ausencia de evidencias no es evidencia de ausencia. Debido a la escasez del
registro fósil, a los distintos caracteres morfológicos utilizados por distintos taxonomistas
para clasificar las especies, y a la posibilidad de que la aparición aparentemente súbita (en
tiempo geológico) de nuevas especies totalmente formadas fuera causada por la
inmigración de una nueva especie, podría obtenerse un patrón de estasis si el mecanismo
subyacente fuera gradual o de equilibrio puntuado. Sin embargo, no hay aparentemente
ejemplos fósiles indiscutibles de cambios graduales y acumulativos que produzcan especies
claramente distintas. Por otro lado, hay muchos ejemplos indiscutibles de estasis evolutiva.
Podemos concluir que el patrón normal de las evidencias fósiles de animales es de
estasis morfológica con cambios menores, y a menudo oscilantes, puntuados por la
aparición geológicamente súbita (decenas de miles de años) de nuevas especies, que
permanecen luego en estado básicamente invariable hasta que desaparecen del registro fósil
o siguen vigentes hasta la actualidad en forma de lo que conocemos como «fósiles vivos».
Registro fósil de animales y plantas

La figura 17.7 describe el patrón actualmente aceptado del registro fósil para
animales y plantas, que se origina hace aproximadamente 650 millones de años.
Evolución de los mamíferos

Muchos biólogos evolucionistas sostienen que después de las extinciones en masa


de especies se produjeron explosiones de especies, puesto que se había creado la
oportunidad para que los supervivientes explotaran hábitats dominados anteriormente por
las especies extintas. Las especies supervivientes evolucionaron con nuevos caracteres
adaptados a esos hábitats y, en consecuencia, dieron lugar a una amplia variedad de nuevas
especies.
Si la extinción de los dinosaurios no aviarios se produjo de forma súbita en el límite
K-T y ello permitió una explosión de especies mamíferas es un tema debatible. Pero lo que
es evidente es que los mamíferos vivos muestran una gran diversidad morfológica, desde el
murciélago abejorro que tiene una longitud que oscila entre los 30 y los 40 milímetros y un
peso entre 1,5 y 2 gramos, hasta los humanos, pasando por la ballena azul que pesa más de
cien toneladas. Forman una clase taxonómica caracterizada por el hecho de que las hembras
alimentan a sus crías con leche de sus glándulas mamarias. Se diferencian también de otros
vertebrados por su sangre caliente: mantienen una temperatura corporal relativamente
constante independientemente de cual sea la temperatura ambiental, y lo consiguen a través
de procesos metabólicos internos, lo que les permite sobrevivir en una amplia gama de
entornos.
Ninguna de estas características se fosiliza, razón por la cual los paleontólogos
tienen que utilizar otros identificadores, y recurren a los mamíferos vivos para ello. Estos
identificadores son principalmente una cadena de tres huesos minúsculos que transmiten
ondas de sonido a través del oído medio para facultar la escucha y una mandíbula inferior
que se mueve unida directamente a la barbilla en vez de hacerlo a través de un hueso
independiente, como en todos los demás vertebrados. Al ser detalles que se observan muy
raramente en fósiles, los paleontólogos utilizan también otras características, algunas de las
cuales se comparten con reptiles similares a mamíferos, lo que hace que la distinción entre
ambos resulte problemática. En consecuencia, la clasificación de los primeros mamíferos
fósiles es polémica.
A partir de las evidencias actualmente disponibles, solo podemos concluir con que
las primeras especies de mamíferos emergieron probablemente a partir de reptiles
terápsidos hace entre 250 y 200 millones de años,[52] con que la inmensa mayoría están
extintas, que un linaje de los mamíferos primitivos con algunas características de los
reptiles —monotremas, como el ornitorrinco con pico de pato— sobrevive en pequeñas
cantidades hasta la actualidad, que el antepasado común de los mamíferos marsupiales —
como el canguro— y los mamíferos placentarios probablemente emergieron hace
aproximadamente 165 millones de años,[53] mientras que el antepasado directo de los
mamíferos placentarios —la inmensa mayoría de los mamíferos vivos, entre ellos el
hombre— probablemente emergió hace alrededor de 65 millones de años.[54]
El seguimiento de la evolución humana a partir del registro fósil

El foco de este viaje es comprender qué sabemos empíricamente sobre la evolución


del hombre. Ofrecer un calendario con los principales sucesos de la evolución biológica que
dieron como resultado la aparición del hombre es complicado por tres razones. En primer
lugar, los problemas de evaluación del registro fósil aumentan cuanto más retrocedemos en
el tiempo. En segundo lugar, la aparición de una especie es resultado de un proceso
evolutivo; no es posible determinar con precisión cuándo empieza y termina cada proceso.
Pero esto no significa que el resultado no sea algo radicalmente distinto de lo que había en
su estado inicial. Una analogía sería la dificultad de identificar con precisión el momento en
que el capullo de rosa se trasforma en flor, aunque esto no quiere decir que una flor no sea
distinta de un capullo. Y en tercer lugar, no hay manera de saber, a partir del registro fósil,
hasta qué punto la hibridación dio como resultado transferencias de partes de genomas que
dieron lugar a caracteres morfológicos nuevos y súbitos, en vez de ser adquiridos a través
de la acumulación lenta y gradual de mutaciones genéticas en el acervo genético de una
población, tal y como asume el modelo neodarwinista.
La tabla 17.3 es un intento de plasmar la mejor estimación que puede ofrecerse hoy
en día sobre la aparición de algunos de los muchos taxones destacados del linaje que
termina en el hombre moderno. En consecuencia, lo he calificado como «indicativo»: una
iniciativa para averiguar si existe la posibilidad de encontrar un patrón a partir de las
evidencias disponibles, sin reivindicar en ningún momento su carácter exhaustivo o su
veracidad.

Conclusiones
1. El registro fósil es extremadamente pequeño en comparación con la estimación
del número de especies que han existido; está fragmentado y no es representativo de todas
las especias, además de ser extremadamente difícil de interpretar con un nivel elevado de
confianza. Teniendo en cuenta este telón de fondo, en las evidencias discernimos el
siguiente patrón.
2. Las procariotas fosilizadas muestran pocos cambios morfológicos a lo largo de
3,5 miles de millones de años; desde hace unos dos mil millones de años, suelen
encontrarse en colonias.
3. La extensión del registro fósil a lo largo del tiempo va de lo más sencillo a lo
complejo: las procariotas aparecen antes que las eucariotas, las eucariotas unicelulares antes
que las pluricelulares, la simetría radial antes que la bilateral y la cefalización, los
invertebrados antes que los vertebrados, los peces antes que los anfibios, los reptiles antes
que las aves, los mamíferos antes que los primates, y los monos antes que los humanos.
4. No se trata de una progresión lineal: la agrupación de fósiles animales a lo largo
del tiempo a partir de algunos caracteres morfológicos comunes sugiere un árbol
genealógico con muchísimos linajes que, en su inmensa mayoría, terminan con la extinción.
5. Estos linajes evolutivos están sustentados por algunas series de especies
transicionales.
6. A pesar de que los límites entre organismos cada vez más complejos son
indistinguibles (como hemos visto en todos los casos), estas apariciones de nuevas especies,
o transiciones evolutivas, son irreversibles: el registro fósil no presenta evidencias
convincentes de que organismos complejos se transformen en organismos más simples.
7. El ritmo del incremento de la complejidad biológica aumenta en general con el
tiempo, aunque dicho ritmo es distinto para cada linaje.
8. El patrón normal de la evidencia fósil de animales es de estasis, con cambios
menores y a menudo oscilantes salpicados por la aparición geológicamente súbita —
decenas de miles de años— de nuevas especies que luego permanecen invariables durante
decenas e incluso centenares de millones de años hasta desaparecer del registro fósil o, lo
que es menos común, seguir presentes hasta la actualidad.
9. A pesar de no ofrecer una prueba indiscutible, el registro fósil proporciona
evidencias contundentes del fenómeno de la evolución biológica, de la que el ser humano
es un producto.
[1]May, R. M., «How Many Species Inhabit the Earth?», Scientific American, 267:
4, 1992, pp. 42–48.
[2]UNEP (2007), p. 164.
[3]Torsvik, Vigdis, et al.,«Prokaryotic Diversity—Magnitude, Dynamics, and
Controlling Factors», Science, 296: 5570, 2002, pp. 1064–1066.
[4]Harwood y Buckley (2008).
[5]Whitman, William B., et al., «Prokaryotes: The Unseen Majority», Proceedings
of the National Academy of Sciences, 95: 12, 1998, pp. 6578–6583.
[6]Isaac, N. J. B., et al., «Taxonomic Inflation: Its Influence on Macroecology and
Conservation», Trends in Ecology & Evolution, 19: 9, 2004, pp. 464–469.
[7]Mallet, J., «The Speciation Revolution», Journal of Evolutionary Biology, 14: 6,
2001, pp. 887–888.
[8]Mallet, James, «Hybridization, Ecological Races and the Nature of Species:
Empirical Evidence for the Ease of Speciation», Philosophical Transactions of the Royal
Society B: Biological Sciences 363: 1506, 2008, pp. 2971–2986.
[9]Mayr (1982), p. 285.
[10]Mayr, Ernst, «What Is a Species, and What Is Not?», Philosophy of Science, 63:
2, 1996, pp. 262–277.
[11]Coyne (2004), p. 30.
[12]Mace, Georgina, et al., «Biodiversity», pp. 87-89 en Current State & Trends:
Millennium Ecosystem Assessment, 2005.
[13]Mallet, James (2008).
[14] Véase página 341.
[15]Leakey y Lewin (1996), p. 39 y p. 45.
[16]Ibíd. p. 45.
[17]Conway Morris (1998).
[18]Leake, Jonathan y Harloe, John, «Origin of the Specious», Sunday Times,
Londres, 24 de mayo de 2009, News, p. 16; Henderson, Mark, «Ida, the Fossil Hailed as
Ancestor of Man, “Wasn’t Even a Close Relative”», The Time, Londres, 22 de octubre de
2009, News, p. 25.
[19]Harding, Luke, «History of Modern Man Unravels as German Scholar Is
Exposed as Fraud», The Guardian, Londres 19 de febrero de 2005, News, p. 3.
[20]http://www.dmp.wa.gov.au/5257.aspx, consultado el 24 de marzo de 2010.
[21]Han, Tsu-Ming y Runnegar, Bruce, «Megascopic Eukaryotic Algae from the
2.1-Billion-Year-Old Negaunee Iron-Formation, Michigan», Science, 257: 5067, 1992, pp.
232–235.
[22]Albani, Abderrazak El, et al., «Large Colonial Organisms with Coordinated
Growth in Oxygenated Environments 2.1gyr Ago», Nature, 466: 7302, 2010, pp. 100–104.
[23]Donoghue, Philip C. J. y Antcliffe, Jonathan B., «Early Life: Origins of
Multicellularity», Nature, 466: 7302, 2010, pp.41–42.
[24]Knoll, A. H., et al., «Eukaryotic Organisms in Proterozoic Oceans»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 361: 1470, 2006,
pp. 1023–1038.
[25]http://www.princeton.edu/main/news/archive/S28/14/71M11/index.xml?
section=topstories#top, consultado el 17 de Agosto de 2010.
[26]http://www.simonyi.ox.ac.uk/dawkins/WorldOfDawkins-
archive/Dawkins/Work/Articles/alabama/1996-04-01alabama.shtml, consultado el 20 de
diciembre de 2008.
[27]Hans Thewissen, comunicación personal, 22 de Julio de 2010.
[28]Thewissen, J. G. M., et al., «Whales Originated from Aquatic Artiodactyls in
the Eocene Epoch of India», Nature, 450: 7173, 2007, pp. 1190–1194; Thewissen, J. G.M.,
et al., «Developmental Basis for Hind-Limb Loss in Dolphins and Origin of the Cetacean
Bodyplan», Proceedings of the National Academy of Sciences, 103: 22, 2006, pp. 8414–
8418; Thewissen, J. G. M., et al., «Eocene Mammal Faunas from Northern Indo-Pakistan»,
Journal of Vertebrate Paleontology, 21(2), 2001, pp. 347–366.
[29]Pallen (2009), p. 83.
[30] Véase página 43.
[31]«Extinction», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[32]«Dinosaurs», Museo Americano de Historia Natural,
http://www.amnh.org/exhibitions/dinosaurs/extinction/mass.php, consultado el 29 de
octubre de 2008.
[33] Véase página 312.
[34] Véase página 284.
[35]Alvarez (1997).
[36]Véase, por ejemplo, «Dinosaur extinction link to crater confirmed»,
http://news.bbc.co.uk/1/hi/sci/tech/8550504.stm, 4 de marzo de 2010.
[37]Schulte, Peter, et al., «The Chicxulub Asteroid Impact and Mass Extinction at
the Cretaceous-Paleogene Boundary», Science, 327: 5970, 2010, pp. 1214–1218.
[38]Courtillot, Vincent y Fluteau, Frederic, «Cretaceous Extinctions: The Volcanic
Hypothesis», Science, 328: 5981, 2010, pp. 973–974.
[39]Keller, Gerta, et al., «Cretaceous Extinctions: Evidence Overlooked», Science,
328: 5981, 2010, pp. 974–975.
[40]Archibald, J. David, et al., «Cretaceous Extinctions: Multiple Causes», Science,
328: 5981, 2010, p. 973.
[41]Elliott (2000); Officer, David K., «Victims of Volcanoes: Why Blame an
Asteroid?», New Scientist: 1861, 2003, p. 4.
[42]Eldredge y Gould (1972).
[43]Gould (1980), p. 182.
[44]Sheldon, Peter R., «Parallel Gradualistic Evolution of Ordovician Trilobites»,
Nature, 330: 6148, 1987, pp. 561–563.
[45]Eldredge (1995), pp. 70–74.
[46]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Rates of
Morphologic Change within and across Species Boundaries», Paleobiology 12: 2, 1986, pp.
190–202.
[47]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Are Trends
in Single Morphologic Characters Misleading?», Paleobiology, 13: 3, 1987, pp. 286–296.
[48]Eldredge, pp. 69–70.
[49]Ayala (2014).
[50]Eldredge y Tattersall (1982), pp. 45–46.
[51]Ayala (2014).
[52]http://www.britannica.com/EBchecked/topic/360838/mammal, consultado el 11
de enero de 2015.
[53]Luo, Zhe-Xi, et al., «A Jurassic Eutherian Mammal and Divergence of
Marsupials and Placentals», Nature 476, 2011, pp. 442–445.
[54]Wible, J. R., et al., «Cretaceous Eutherians and Laurasian Origin for Placental
Mammals near the K/T Boundary», Nature 447: 7147, 2007, pp. 1003–1006.
CAPÍTULO 18. EVIDENCIAS DE LA EVOLUCIÓN BIOLÓGICA 2:
ANÁLISIS DE LAS ESPECIES VIVAS

La evolución es una inferencia de miles de fuentes independencia, la única


estructura conceptual que puede dar un sentido unificado a toda esta información dispar.

Stephen Jay Gould, 1998

Durante los últimos cuarenta años apenas se han elaborado estudios sobre las
especies vivas que hayan sido diseñados para investigar si la evolución biológica es o no
una realidad. Los biólogos tienen asumido que lo es y, en su mayor parte, asumen además
que la evolución sigue el modelo neodarwinista. De ahí que hayan centrado sus
investigaciones en los detalles de dicho mecanismo o en avanzar hipótesis para explicar los
fenómenos que no coinciden con el modelo.
En consecuencia, solo encontramos las evidencias que sustentan el fenómeno de la
evolución en las especies vivas en forma de subproducto de estas investigaciones. En el
presente capítulo consideraré lo que, en un sentido general, pueden denominarse análisis,
que agruparé en ocho categorías: (a) estructuras homólogas, (b) vestigios, (c) biogeografía,
(d) embriología y desarrollo, (d) cambios en especies, (e) bioquímica, (f) genética y (g)
genómica. En el capítulo siguiente examinaré la conducta de las especies vivas.
Estructuras homólogas

Las evidencias actuales refuerzan los descubrimientos de Darwin relacionados con


partes del cuerpo con estructura similar utilizadas para fines muy distintos en distintas
especies. La figura 18.1 ilustra la similitud estructural de las extremidades anteriores que el
hombre utiliza para manipular, los gatos para caminar, los lagartos para correr, trepar y
nadar, las ranas para nadas, las ballenas como aletas para nadar y los murciélagos para
volar. Incluso las aves poseen una estructura similar en las alas, a pesar de que tienen tres
dedos en vez de cinco.

Ningún ingeniero sería capaz de diseñar estructuras tan similares para funciones tan
distintas. Las estructuras homólogas se hacen patentes en otras partes del cuerpo de los
animales. El grado de similitud refleja la proximidad de la primera aparición de la especie
en el registro fósil. Así pues, existen más similitudes entre humanos y chimpancés, menos
entre humanos y otros mamíferos, menos aún entre humanos y aves, y muchísimas menos
si cabe entre humanos y peces.
La explicación más razonable es que se trata de adaptaciones evolutivas a diferentes
entornos de distintas partes del cuerpo de antepasados comunes.
Vestigios

También, en este caso, las evidencias nos proporcionan más ejemplos de lo que
Darwin clasificó como estructuras rudimentarias, atrofiadas y abortadas. Las alas de aves
como los avestruces, los emús, los ñandúes y los pingüinos no sirven para volar; su diseño
sugiere que son alas degeneradas de antepasados que sí volaban. Los avestruces utilizan las
alas para equilibrarse y para exhibirlas en los rituales de cortejo, mientras que los pingüinos
las emplean para nadar bajo el agua, hechos consistentes con una adaptación evolutiva a un
nuevo entorno a partir de las alas de un antepasado volador. La explicación más frugal de
las pequeñas patas posteriores internas de las ballenas es que son restos de las patas
posteriores del mamífero terrestre cuya transición a la vida marina quedó examinada en el
anterior capítulo. De un modo similar, el coxis humano carece de función, pero podría
explicarse como los restos de una cola ancestral que degeneró y disminuyó por falta de uso
a medida que el linaje humano se adaptó a la bipedestación.
Los vestigios no se limitan a las estructuras anatómicas. Las lagartijas de cola de
látigo de la especie Cnemidophorus uniparens, que solo integra individuos hembra, exhibe
conductas de apareamiento complejas a pesar de reproducirse sin la fertilización del macho.
Las comparaciones entre el genoma humano y el del chimpancé muestran docenas de genes
homólogos en el hombre que no tienen ya ninguna función.
Biogeografía

Lo que hoy en día se conoce como biogeografía incorpora más evidencias a la


distribución geográfica de las especies utilizada por Darwin y Wallace para apoyar la
evolución biológica y emplea también los actuales descubrimientos geológicos sobre las
placas tectónicas para explicar algunas anomalías evidentes.
El patrón general es que las masas continentales poseen su propia gama de especies
de animales y plantas, mientras que las pequeñas islas remotas carecen de la mayoría de
especies animales continentales pero poseen grandes cantidades de especies nativas
estrechamente relacionadas sin importar cuáles sean las condiciones medioambientales.
Así pues, en África encontramos hipopótamos, cebras, jirafas, leones, hienas,
lémures, monos con nariz estrecha y cola no prensil, gorilas y chimpancés. En América del
Sur no existe ninguno de estos animales, pero encontramos tapires, armadillos, llamas,
pumas, jaguares, oposums y monos con nariz ancha y largas colas prensiles. En las islas
Hawái, a 3.200 kilómetros del continente más cercano, no existen especies nativas de
reptiles ni anfibios, tampoco de coníferas y solo hay dos especies nativas de mamíferos, un
murciélago y una foca. Albergan, sin embargo, cerca de mil especies de mosca de la fruta y
antiguamente unas 750 especies de caracol, aunque la mayoría de estas últimas se ha
extinguido.
América del Sur se separó de África hace 140 millones de años, mucho antes de que
el registro fósil muestre la diversificación de las primeras especies de mamíferos. Las
evidencias son consistentes con los primeros antepasados comunes de los mamíferos que
evolucionaron de forma distinta en distintas masas continentales separadas por océanos que
impiden la migración y la reproducción.
La cadena hawaiana de islas se formó como resultado de una serie de erupciones
volcánicas que se inició hace a próximamente 66 millones de años y que terminó hace
menos de medio millón de años. Las únicas especies que pudieron migrar allí fueron
insectos, aves y mamíferos capaces de volar grandes distancias, junto con sus parásitos y
las semillas alojadas en su plumaje o en sus patas, insectos arrastrados por el viento, y
semillas y mamíferos nadadores arrastrados por las corrientes oceánicas. Esto explica la
ausencia de grandes mamíferos terrestres, que no nadan ni vuelan, y sustenta la hipótesis de
la radiación adaptativa: las especies que llegaron a las islas encontraron nichos ecológicos
desocupados, con escasos competidores y predadores que les impidieran multiplicarse y
adaptarse a esos nuevos nichos, dando como resultado grandes cantidades de especies
similares.
Las islas indonesias parecen ser la excepción, pues contienen una fauna
marcadamente distinta en las islas occidentales, centrales y orientales. Sin embargo, se cree
que esto es resultado de la convergencia relativamente reciente de tres placas litosféricas: la
placa australiana, que se desplaza hacia el norte; la placa pacífica, que se desplaza hacia el
oeste; y la placa eurásica, que se desplaza hacia el sur-sudeste. Al haber estado unidas al
continente asiático, las islas occidentales presentan animales asiáticos como rinocerontes,
elefantes, leopardos y orangutanes, mientras que las islas orientales tienen animales y
plantas similares a los de Australia, de donde se separaron. Las islas centrales llevan tiempo
como entidades independientes y presentan una fauna y una flora diferenciadas.
La correlación de la distribución geográfica de las especies con lo que se conoce de
la formación geológica y el medioambiente de la zona, junto con el registro fósil,
proporcionan evidencias importantes de especies distintas evolucionando a partir de
antepasados comunes.
Embriología y desarrollo

Después de tomar nota de las similitudes entre los embriones de especies muy
distintas, durante su fase de desarrollo y también en los jóvenes ejemplares dependientes de
sus progenitores que carecen de las diferencias morfológicas y de color que aparecen al
alcanzar la edad adulta, Darwin consideró este hecho como «uno de los asuntos más
importantes de la totalidad de la historia natural».[1]
Sin embargo, hubo escasos avances en este ámbito hasta que los desarrollos
tecnológicos de finales del siglo xx hicieron más asequible la secuenciación genética. Así
fue como nació la sub-disciplina de la biología evolutiva del desarrollo (informalmente
«evo-devo», del inglés evolutionary developmental), que investiga los mecanismos
genéticos del desarrollo embrionario en las distintas especies. La disciplina ha producido
descubrimientos importantes e inesperados: los mismos genes controlan el desarrollo de los
mismos órganos en especies de forma, estructura y tamaño muy distintos. Por ejemplo, un
gen denominado Pax-6, de la mosca de la fruta Drosophila melanogaster, controla y
coordina los aproximadamente dos mil genes responsables de la creación de sus ojos,
dotados con múltiples lentes. Un gen Pax-6 prácticamente idéntico, pero en la rata tiene el
mismo papel y regula genes muy distintos que producen ojos muy distintos con una única
lente. Y lo más sorprendente de todo es que si insertáramos un único gen Pax-6 de rata en el
genoma de una mosca de la fruta, se produciría el desarrollo de un ojo de mosca de la fruta,
mientras que si insertáramos un gen Pax-6 de mosca de la fruta en una rana, obtendríamos
un ojo de rana.[2]
Paradójicamente, a pesar de contradecir las predicciones del modelo neodarwinista
(Mayr defendía que el ojo debe haber evolucionado al menos cuarenta veces
independientemente en el reino animal), la existencia de los mismos genes maestros
controlando el desarrollo de tipologías muy distintas del mismo órgano en un amplio rango
de especies apoya la hipótesis de que estos genes se conservan en la historia evolutiva y
proceden de un remoto antepasado común.
Cambios en especies

Selección artificial

Bacterias
El cambio biológico puede demostrarse en el transcurso de 24 horas con una
población de bacterias en el interior de una placa de Petri con un medio nutriente. Si se
incorpora un antibiótico letal se produce una muerte en masa. Sin embargo, una o más
variedades de las bacterias serán inmunes a ese antibiótico en particular y sobrevivirán.
Entonces, se replicarán rápidamente para sustituir a la población original. Si el resultado
constituye una nueva especie o una variedad de la especie original pasa a ser un tema
debatible. La definición ortodoxa actual no ayuda a solventarlo, puesto que lo hace
depender de la reproducción sexual y las bacterias suelen replicarse asexualmente mediante
fisión binaria y, por otro lado, los análisis genéticos de las bacterias están abiertos a
múltiples interpretaciones.
En 1988, Richard Lenski, que trabajaba por aquel entonces en la Universidad de
California, Irvine, inició un experimento con doce poblaciones de una cepa de Escherichia
coli derivada de una única bacteria. Siguió sus mutaciones genéticas y su adaptación
relativa —seleccionándolas por la velocidad con que crecían en el limitado azúcar
disponible en el medio nutriente— en el transcurso de 50.000 generaciones durante un
periodo de más de veinte años. La mayoría de las mutaciones no marcaron diferencia
alguna o fueron mortíferas, pero algunas se correlacionaron con un crecimiento ventajoso
de hasta un 10 por ciento por encima de sus predecesoras. En general, las mutaciones
aumentaron linealmente, mientras que la adaptación aumentó en saltos.
Cuando el experimento alcanzó la generación 33.127, los investigadores observaron
un gran incremento en la turbiedad de uno de los matraces. Las bacterias, a falta de azúcar,
habían empezado a recurrir al citrato, un amortiguador del ph presente en el medio
nutriente de todos los matraces, para metabolizar y el resultado había sido un enorme
incremento de la población. Es discutible si esta nueva cepa constituiría una nueva especie.
Pero lo que es evidente es que coexistió con una minoría que siguió utilizando el azúcar
para su metabolismo.[3]
Cambios reversibles
Según el biólogo evolucionista Francisco José Ayala, de la Universidad de
California, Irvine, la selección artificial suele producir variaciones de carácter reversible.
Los criadores eligen gallinas que producen huevos más grandes, vacas que dan más
leche y maíz con un contenido en proteínas más elevado. Pero la selección debe ser
continuada o restablecerse de vez en cuando, incluso después de haber alcanzado los
objetivos deseados. Si se detiene por completo, la selección natural vuelve a surtir efecto y
los caracteres regresan a su valor intermedio original.[4]
Hibridación
Los horticultores llevan tiempo utilizando la hibridación para producir nuevas
especies de plantas con caracteres específicos. Los híbridos producidos mediante el cruce
entre dos especies distintas reciben el nombre de híbridos F1; los híbridos producidos por el
cruce entre híbridos F1 reciben el nombre de híbridos F2, y así sucesivamente; los híbridos
retrocruzados se producen cuando un descendiente híbrido se cruza con un miembro de
cualquiera de su especies progenitoras; los híbridos retrocruzados que vuelven a cruzarse de
nuevo con miembros de la misma especie progenitora reciben el nombre de segunda
generación retrocruzada.
En promedio, los mamíferos híbridos son menos capaces de sobrevivir y
reproducirse. Muchos híbridos seleccionados artificialmente, como un asno macho con una
yegua para producir una mula que suele ser más fuerte que sus padres, son estériles. Pero,
contrariamente al supuesto generalizado, esto no es ni mucho menos una norma general; la
fertilidad suele ser distinta entre sexos. Por ejemplo, el cruce de una vaca doméstica con un
bisonte para incrementar la producción de carne produce lo que se conoce como un
«beefalo». El beefalo macho resultante del primer cruce suele ser esteril, pero cuando las
hembras parcialmente fértiles resultado de un retrocruce se retrocruzan de nuevo, los
machos resultantes suelen ser fértiles. El cruce de un perro con un chacal para crear un
híbrido con un olfato más sensible produce descendencia que aparentemente es tan fértil y
estable como la amplia variedad de perros domésticos producidos por criadores. Estos
híbridos muestran caracteres que caen fuera del rango de la variación parental, lo que se
conoce como heterosis, a pesar de que la mayoría de híbridos no es heterótica.
En zoológicos abiertos, se conocen híbridos entre distintas especies. Un ligre, el
producto del cruce de un león y una tigresa, suele ser más grande y más fuerte que sus
padres (heterosis positiva), mientras que un tigón, el producto del cruce de un tigre con una
leona, suele ser más pequeño que sus padres (heterosis negativa). No se han realizado
estudios sobre la fertilidad y la estabilidad de estos híbridos en el transcurso de
generaciones. Sin embargo, la descendencia del cruce entre osos polares y osos pardos
criados en cautividad es fértil.
Poliploidía
En 1912, los botánicos de los Kew Gardens demostraron el fenómeno de una
descendencia que poseía más de dos juegos de cromosomas en una misma célula después
de cruzar una especie de primavera, la Primula floribunda, con otra especie, la Primula
verticillata. El híbrido resultante era estéril, pero se propagaba mediante esquejes.
Posteriormente, en tres años distintos, este clon estéril produjo brotes que dieron lugar a
una planta fértil a la que pusieron por nombre Primula kewensis, que no podía cruzarse con
éxito con miembros de sus especies progenitoras. La razón era que sus células habían
doblado el número de cromosomas. Esta mutación cromosómica (a diferencia de la
genética) puede inducirse en plantas a través de un mutágeno como la colchicina.
El incremento del número de cromosomas en relacion con el de los progenitores de
una misma especie se conoce como autopoliploidía, mientras que el incremento de
cromosomas que resulta de la hibridación entre miembros de dos especies distintas se
conoce como alopoliploidía.
Especies en estado salvaje

Bacterias
En los capítulos anteriores se explicó que la bacteria más antigua claramente
reconocible data de hace aproximadamente 3,5 miles de millones de años. A pesar de todas
las mutaciones genéticas durante todo este tiempo, las bacterias actuales siguen siendo
unicelulares y morfológicamente idénticas a los antiguos fósiles.
Un cuerpo de investigación cada vez mayor ha dado la vuelta a la idea tradicional
de que las procariotas —bacterias y arqueas— y las eucariotas unicelulares —como la
ameba— han llevado vidas relativamente independientes y han evolucionado de manera
gradual mediante la selección natural neodarwinista, que ha actuado sobre las mutaciones
genéticas aleatorias que se han transmitido a lo largo de generaciones por replicación.
Muchas especies procariotas pueden incorporar, o perder, ADN, mientras que las
eucariotas unicelulares pueden incorporar ADN procariota mediante transferencia genética
horizontal por tres vías distintas:
1. Transformation natural
Absorción directa del ADN liberado en el entorno por células en descomposición,
células alteradas o partículas virales, o por excreción de las células vivas.
2. Transducción
Transferencia de ADN de una bacteria a otra a través de un agente, como podría ser
un virus.
3. Conjugación
Transferencia de elementos genéticos móviles, como los plásmidos, por contacto
directo a través de los pili.[5]
Estas transferencias entre la misma generación pueden tener lugar entre especies
muy distintas, como la Escherichia coli, una bacteria que normalmente habita en el
intestino de los animales, y la Synechocystis sp. PCC6803, una cianobacteria del agua. Las
transferencias pueden ser dañinas, neutrales o favorables para la supervivencia y la
replicación. Cuando son favorables, pueden generar nuevas capacidades o funciones en el
receptor, como la inmunidad a una toxina. Un análisis llevado a cabo en 2008 de 181
genomas procariotas secuenciados estimó que las transferencias genéticas horizontales eran
las responsables de 81 +/- 15 por ciento de los genes, lo que destaca la importancia de este
mecanismo en la evolución de las bacterias, las arqueas y las eucariotas unicelulares.[6]
Hibridación
En la actualidad se reconoce que la hibridación no solo juega un papel importante
en la especiación natural de las plantas, sino que se produce además entre peces, aves y
mamíferos.[7] En los últimos años, el cárabo norteamericano del medio oeste de los
Estados Unidos se ha desplazado hacia la costa Pacífica, donde se ha instalado en el hábitat
boscoso del búho manchado, con el cual se ha cruzado y ha producido descendencia fértil.
El oso pardo y el oso polar no solo se han cruzado con éxito en cautividad, sino también en
estado salvaje. En los últimos años, el oso pardo, que normalmente abunda en el noroeste
de los Estados Unidos, de Canadá y en Alaska, se ha desplazado hacia el norte,
probablemente como consecuencia del calentamiento global, adentrándose en el hábitat del
oso polar. En 2006, un cazador disparó contra lo que creía que era un oso polar, pero el
animal, a pesar de tener un grueso pelaje blanco, su lomo protuberante, su cara plana y unas
manchas marrones, junto con las pruebas genéticas que le fueron posteriormente realizadas,
demostraron que era un híbrido de un padre pardo y una madre polar.
Poliploidía
La cría con poliploidía ha producido nuevas especies fértiles, sobre todo entre las
plantas, pero este medio de especiación es seguramente más común en estado salvaje de lo
que se suponía. En 2005, en un estudio llevado a cabo sobre la literatura existente, Pamela
Soltis, especializada en taxonomía molecular, llegó a la conclusión de que todas las plantas
con flor son probablemente poliploides o descendientes de poliploides naturales,7 mientras
que en otro estudio de 2005, los genetistas evolutivos T. Ryan Gregory y Barbara Mable
destacan que:
La poliploidía no es tan común entre los animales como entre las plantas, pero
tampoco es tan excepcional como suele suponerse. En parte, el porcentaje relativamente
bajo de descubrimiento de poliploidía entre animales es un reflejo del escaso nivel de
esfuerzo dedicado a averiguarlo […]. Uno a uno, los supuestos sobre la poliploidía animal
han ido tambaleándose ante la aparición de nuevas evidencias.[8]
Entre estas evidencias destacan la poliploidía en peces, anfibios, reptiles y
mamíferos. Milton Gallardo y sus colegas de la Universidad Austral de Chile descubrieron
en 1999 que la rata vizcacha roja, Tympanoctomys barrerae, es tetraploide (posee cuatro
juegos de cromosomas en el núcleo de la célula), una evidencia que sugiere con fuerza que
es resultado de una hibridación poliploidal ancestral entre dos especies distintas.
Informaron posteriormente de que la rata vizcacha dorada, Pipanacoctomys aureus,
también es tetraploide y resultado de una poliploidía ancestral.[9]
La polilla del abedul
Muchos maestros y libros de texto presentan la polilla del abedul, o polilla moteada,
como el principal ejemplo de la evolución biológica en estado salvaje en tiempos del
hombre.
Antes de mediados del siglo xix, todos los ejemplares de Biston betularia de
Inglaterra eran polillas blancas con manchitas negras, una forma denominada typica. En
1848, se registró en Manchester, el corazón de la revolución industrial británica, una
variedad negra, la carbonaria. En 1895, el 98 por ciento de la Biston betularia de la zona
eran ejemplares negros. La carbonaria apareció también en muchas zonas más de Gran
Bretaña, alcanzando su mayor frecuencia en los centros industriales. En 1896, el
especialista en lepidópteros, J. W. Tutt, lanzó la hipótesis de que el incremento de
carbonaria era el resultado de una diferenciación de aves predatorias en las regiones
contaminadas.
Nadie, sin embargo, verificó nunca esta hipótesis, de modo que Bernard Kettlewell,
un médico que había obtenido una beca de investigación en el departamento de Genética de
la Universidad de Oxford, inició en 1952 una serie de estudios en busca de evidencias.
Según Kettlewell, este cambio de color estaba provocado por las aves que comían las
polillas que más destacaban en el lugar donde solían posarse, el tronco de los árboles. La
industrialización del norte de Inglaterra había generado hollín y lluvia ácida que habían
oscurecido los árboles, acabando en primer lugar con los líquenes que los adornaban y
ennegreciendo después los troncos desnudos. La typica, que quedaba antiguamente
camuflada por los líquenes, se volvió llamativa y se convirtió en presa fácil para las aves,
mientras que las mutantes negras quedaban ahora camufladas; con el transcurso de las
generaciones, las negras sobrevivieron más tiempo y se reprodujeron más, sustituyendo al
final a las typica. El fenómeno recibió el nombre de melanismo (oscurecimiento) industrial.
Después de la aprobación, en la década de 1950, de las leyes de calidad del aire, los árboles
recuperaron su aspecto anterior y la typica su predominio en el norte de Inglaterra.
Kettlewell apoyó sus conclusiones con estudios que demostraban la correlación
entre niveles de contaminación y frecuencias de la variedad negra. Y lo más sorprendente es
que sus experimentos demostraron que, después de liberar ejemplares de typica y
carbonaria en bosques tanto contaminados como no contaminados, se recapturaron muchos
más ejemplares de la variedad críptica, o camuflada, que de la variedad llamativa; esta
depredación diferencial quedó sustentada por la observación directa de las aves comiendo
las polillas de los árboles. Finalmente, Kettlewell demostró en el laboratorio que cada
forma tenía sus preferencias de conducta para instalarse sobre fondos similares a su color.
De este modo quedó demostrada la hipótesis que había lanzado Tutt en 1896, quedó
validado el modelo neodarwinista y los libros de texto reprodujeron las fotografías de
Kettlewell en las que se veían polillas posadas en los troncos de distintos árboles.
El genetista de la Universidad de Cambridge, Michael Majerus, que había trabajado
con mariquitas y polillas, recibió un encargo por parte de Oxford University Press para
escribir un libro, Melanism: Evolution in Action [Melanismo: Evolución en acción] que se
publicaría veinticinco años después de The Evolution of Melanism [La evolución del
melanismo], de Kettlewell. Mientras trabajaba en la crítica del libro para Nature,[10] Jerry
Coyne descubrió graves fallos en la obra de Kettlewell. Entre ellos el detalle de que «es
probable que la B. betularia no se pose en el tronco de los árboles; de hecho en más de
cuarenta años de investigación intensiva solo se han encontrado dos polillas en esa posición
[…]. Esto, por sí solo, invalida los experimentos de liberación y recaptura de Kettlewell,
puesto que, al ser liberadas, las polillas fueron colocadas directamente sobre troncos de
árboles donde son perfectamente visibles para las aves predadoras». Las fotografías eran de
polillas muertas, pegadas y clavadas a los troncos y utilizadas para ilustrar el camuflaje y la
vistosidad. Además, Kettlewell liberó las polillas durante el día, mientras que normalmente
buscan su lugar de descanso durante la noche; la resurgencia de la typica se produjo mucho
antes de que los líquenes recolonizaran los árboles contaminados; en paralelo, en áreas
industriales de los Estados Unidos donde no se había observado alteración en la abundancia
de líquenes, se produjo también tanto un incremento como una disminución de la forma
melánica; y los resultados de los experimentos de conducta de Kettlewell no se replicaron
en estudios posteriores: las polillas no presentan tendencia a elegir un fondo similar a su
aspecto.
Coyne refiere muchos fallos más en el trabajo descubiertos por Majerus más
problemas adicionales que él mismo encontró al leer por primera vez los documentos de
Kettlewell. «Mi reacción me recuerda la desilusión que sentí, con seis años de edad, cuando
descubrí que era mi padre, y no Santa Claus, quien me traía los regalos por Navidad».
Concluye diciendo que «por el momento, debemos descartar la Bisto como ejemplo
bien comprendido de selección natural en acción». Comenta además que «merece también
la pena reflexionar sobre por qué se ha producido una aceptación tan generalizada e
incontestable del trabajo de Kettlewell. Tal vez sea porque historias tan potentes como esta
desaniman el escrutinio detallado».
Majerus no coincidía con las conclusiones de Coyne y defendió su punto de vista
sobre el melanismo industrial haciendo referencia a otros estudios y añadiendo:
Dicho esto, mi convicción de que la depredación por parte de las aves es la gran
responsable del caso no se basa pura y simplemente en datos empíricos de publicados en la
literatura. Sino que «sé» que la hipótesis de la depredación diferencial de Tutt es correcta
porque «conozco» la polilla moteada. Sin embargo […], para los científicos, formados en el
rigor y en los controles estrictos y experimentales, esta afirmación, por diferentes motivos,
parece resultarles insuficiente e incluso herética. Yo, sin embargo, me aferro a ella.[11]
Poca distinción hay entre este «saber» y el «saber» de los creacionistas, que
defienden que Dios creó todas las especies. Tal vez sea una respuesta a la aceptación sin
críticas de Coyne del trabajo Kettlewell, pero es la antítesis de la ciencia.
El mismo año de la publicación del libro de Majerus, Theodore Sargent, biólogo
evolutivo de la Universidad de Massachusetts y sus colegas, publicaron una crítica de la
explicación clásica del melanismo industrial y llegaron a la conclusión de que «hay escasas
evidencias convincentes, en forma de observaciones y experimentos rigurosos y replicados,
que sustenten esta explicación [que la depredación por parte de las aves provoca una
mutación genética que acaba siendo dominante entre la población con el paso de las
generaciones] en estos momentos».[12] Sargent sugirió otras causas, como que algún tipo
de inducción desencadenada por un cambio medioambiental podría haber producido el
fenómeno del melanismo industrial en una población entera y que esto explicaría mejor la
velocidad con que la variedad melánica sustituyó la forma típica en diversos estudios.
Algunos creacionistas aprovecharon las revelaciones sobre el trabajo de Kettlewell
para acusar a los biólogos evolucionistas de complicidad para ofrecer pruebas fraudulentas
del darwinismo. Pero las revelaciones no refutan el fenómeno de la evolución biológica. Lo
que hacen es poner al descubierto un diseño experimental con fallos que, según la ley de la
interpretación de datos, intentar demostrar una hipótesis en la que el experimentador cree
en vez de someter dicha hipótesis a test. Los datos verificables suscitan preguntas, que
Sargent intentó plantear, sobre la causa y el mecanismo del melanismo industrial. Sargent,
sin embargo, no hizo más progresos porque los biólogos evolutivos cerraron filas alrededor
del modelo vigente como defensa contra los creacionistas.
La controversia oscureció un aspecto importante del fenómeno del melanismo
industrial: se produjo cuando el entorno cambió y se invirtió cuando el entorno volvió a
cambiar. Por lo tanto, el cambio fenotípico era reversible, y los cambios reversibles no
forman parte de la evolución de las especies. Lo que sucedió en el transcurso de 150 años
—un instante desde el punto de vista geológico— fue una oscilación en el color, que es
menos importante que las oscilaciones en torno a una morfología básica que Eldredge
describe como estasis evolutivo en el registro fósil.
Ecotipos
Ecotipo es el término que se aplica a la variedad de una especie que se adapta a
condiciones locales y exhibe un cambio morfológico o fisiológico como consecuencia de
ello y que, a pesar de ese cambio, puede reproducirse con éxito con otras variedades. Un
ejemplo es el pino escocés, cuyos veinte ecotipos se extienden desde Escocia hasta Siberia
y son capaces de cruzarse entre sí.
La categoría taxonómica de los delfines tucuxi (género Sotalia) ha sido cuestión de
controversia durante más de un siglo. El género comprendía en su día cinco especies, pero
en el siglo xx se agruparon en dos, Sotalia fluviatilis, que vivía en ríos, y Sotalia
guianensis, que vivía en mar abierto. Estudios posteriores concluyeron con que sus
diferencias eran solo de tamaño, y a principios de los 90, la mayoría de investigadores lo
clasificaron todo como una única especie, S. fluviatilis, con ecotipo marino y fluvial. Al
estar geográficamente separados, no puede decirse que los dos ecotipos puedan
reproducirse en estado salvaje. Pero ahora, recurriendo a la definición de especies
filogenética en vez de a la definición de especies biológica actualizada, los
conservacionistas defienden que se trata de especies distintas; citan los análisis moleculares
que muestran, por ejemplo, que su gen citocromo b difiere en 28 de 1.140 nucleotidos.[13]
Si una diferencia del 2,5 por ciento en los nucleótidos de este gen es suficiente para definir
una especie es debatible, por supuesto, y consideraré con mayor detalle los problemas que
presentan estos análisis moleculares en un capítulo posterior. Estos ecotipos podrían
hallarse en el proceso de constituir una nueva especie, pero este proceso podría ser
reversible, como en el caso de la polilla moteada.
«Los pinzones de Darwin»
Como hemos visto en el capítulo 16, Darwin nunca utilizó los pinzones de las islas
Galápagos como ejemplo de la evolución biológica,[14] pero el equipo formado por la
pareja Peter y Rosemary Grant, biólogos evolutivos de la Universidad de Harvard, dedicó
más de veinticinco veranos a estudiar estas aves, principalmente en la isla Daphne Mayor.
En su libro ganador del Premio Pulitzer de 1994, The Beak of the Finch: A Story of
Evolution in Our Time [El pico del pinzón: una historia de la evolución en nuestra época],
el escritor especializado en temas científicos, Jonathan Weiner, repite el desacreditado mito
de los pinzones de Darwin y describe la obra de los Grant como «la mejor y más detallada
demostración hasta la fecha del poder del proceso de Darwin». Sin embargo, Darwin
«desconocía la fuerza de su teoría. Infravaloró tremendamente el poder de la selección
natural. Su acción ni es lenta ni es una excepción. Sino que conduce hacia la evolución a
cada día y a cada hora que pasa»[15] en vez de hacerlo gradualmente, a lo largo de los
prolongados periodos de tiempo vaticinados por Darwin y el modelo neodarwinista.
De hecho, las meticulosas mediciones que realizaron los Grant de los picos de
pinzones muestran que las cantidades de pinzones con pico grande y con pico pequeño
oscilaron a lo largo de veinticinco años según si la sequía dejaba solo semillas grandes y
duras o las fuertes lluvias de otros años daban como resultado semillas más pequeñas y
blandas.
Esto no es evolución biológica. A lo largo de los veinticinco años no se produce un
cambio significativo. Los Grant, simplemente, descubrieron redistribuciones periódicas de
frecuencias de genes —variaciones genéticas ya presentes en el acervo genético— como
respuesta a condiciones medioambientales cambiantes. Se trata de un ejemplo más de
cambio adaptativo reversible dentro de la población de una especie.
Los miembros de las seis especies de pinzones de la isla Daphne Mayor y la isla
Genovesa no se emparejaban con miembros de especies que no fueran la suya debido a una
de las barreras pre-copulatorias de los neodarwinistas, la conductual (en este caso, el canto
de las aves). Pero cuando lo hacían, su descendencia era tan fértil como sus progenitores,
igual que las dos primeras generaciones descendientes de esos híbridos. Otros estudios de
campo realizados en Norteamérica han demostrado que la hibridación de especies de aves
que comparten territorio es posible y que los híbridos sobreviven y son fértiles en la
mayoría de los casos. Lo cual suscita la siguiente pregunta: ¿son estos pinzones,
clasificados básicamente por el tamaño y la forma del pico, especies distintas o variedades
de la misma especie? La pregunta resulta especialmente pertinente porque la investigación
de los Grant ha demostrado que los cambios en el tamaño y la forma del pico son
reversibles bajo distintas condiciones medioambientales.
Los Grant apuntan que el concepto de especie biológica que defiende la ortodoxia
actual deriva de los estudios de la Drosophila, la mosca de la fruta. Y que mientras que
según esta definición existen casi 10.000 especies distintas de aves,
Las interpretaciones de la especiación se han aplicado aproximadamente a 500 de
ellas. Pero la base genética de la variación en aquellos caracteres que producen el
aislamiento precopulatorio y que están implicadas en la especiación se conoce (y de forma
incompleta) en menos de 100 especies, mientras que la base genética del aislamiento
postcopulatorio se desconoce prácticamente para todas ellas. La base de conocimientos a
partir de la cual generalizamos sobre la genética de la especiación de las aves es
precariamente escasa.[16]
Definición de especie
Cualquier discusión sobre la evolución biológica se ve empañada por las distintas
definiciones del término «especie» que utilizan no solo los bacteriólogos, botánicos y
zoólogos, sino también los especialistas dentro de cada una de estas ramas de la biología,
definiciones que, además, están muy diferenciadas debido a los diferentes puntos de vista
sobre cuáles son los caracteres que definen una especie. Si la especie, y no la variedad
subespecie o el género subespecie, la clase o el orden, tiene que ser el elemento taxonómico
básico que marque una fase claramente definida de la evolución biológica que pueda
utilizarse para describir una población y su relación con otras poblaciones, me parece que el
principal caracter debería ser la irreversibilidad: nadie discutiría que el hombre moderno
pudiera evolucionar de nuevo hacia el Australopithecus afarensis (o cualquiera que fuera el
antepasado común de los humanos), un individuo con un tercio de nuestra actual capacidad
craneal.
En consecuencia, sugiero las siguientes definiciones genéticas para reducir la
confusión:
Subespecie, variedad o raza: población de organismos cuyos caracteres
hereditarios definitorios adultos han experimentado un cambio reversible con relación a los
de su población o poblaciones ancestrales.
Especie: población de organismos cuyos caracteres hereditarios definitorios adultos
han experimentado un cambio irreversible con relación a los de la población o poblaciones
a partir de las cuales ha evolucionado.
Especiación: proceso por el cual una población de organismos cambia de manera
irreversible sus cuyos caracteres hereditarios definitorios adultos con relación a los de la
población o poblaciones a partir de las cuales ha evolucionado.
La palabra «proceso» que aparece en la definición de la especiación reconoce las
fases intermedias durante las cuales puede producirse con éxito la reproducción entre
subespecies que pueden estar o no en camino de convertirse en una nueva especie.
Estas definiciones genéricas dejan en manos de los especialistas elaborar la lista de
los caracteres hereditarios definitorios adultos que definen una especie en particular; y
podría haber buenas razones para aplicar criterios distintos a distintos tipos de especies.
Estas definiciones no especifican si la causa de la transformación irreversible es la
selección artificial, las mutaciones genéticas generadas al azar y seleccionadas
naturalmente, la deriva genética, la poliploidía, la hibridación o cualquier otra causa posible
de las que examinaré en el siguiente capítulo. Confío, de todos modos, en que alcancen el
objetivo de ser lo bastante amplias como para abarcar todo tipo de organismos, incluyendo
bacterias y plantas, y poder distinguir entre especies y variaciones dentro de una especie.
Bioquímica

Todas las bacterias, plantas y animales están constituidos por elementos químicos
iguales o similares, estructurados de forma igual o similar y que experimentan reacciones
iguales o similares.
Las células de prácticamente todas las formas de vida conocidas (la excepción
serían las moléculas de ARN) utilizan moléculas de ADN estructuradas como una doble
hélice para su mantenimiento y reproducción. Comprenden una secuencia distinta de cuatro
nucleótidos iguales aun siendo químicamente posibles muchos más nucleótidos y
estructuras.
Los mismos tripletes de estos nucleótidos actúan a modo de patrón para la
producción de los mismos aminoácidos en todos los organismos. Las diversas proteínas
utilizadas para construir y mantener todos los organismos se sintetizan a partir de
combinaciones y secuencias distintas de esos veinte aminoácidos, prácticamente siempre
como isómeros-L,[17] a pesar de que existen varios centenares más de aminoácidos.
La serie de reacciones químicas, conocidas como vías metabólicas, por las cuales se
sostienen formas de vida muy diversas, son también muy similares.[18]
La explicación más razonable para que una bioquímica igual opere en todas las
formas de vida es que deriva de la primera forma de vida que hubo en la Tierra, a partir de
la cual evolucionaron todas las formas de vida existentes.
Genética

En el capítulo 14 vimos que todas las formas de vida existentes comparten un


centenar de genes, pero los análisis que permiten apreciar pérdidas de genes específicos de
cada linaje sugieren la existencia de un último antepasado universal común que tenía
probablemente diez veces más genes que eso.[19] La posesión de incluso un centenar de
genes en común sugiere con fuerza la evolución a partir de la primera forma de vida de la
Tierra.
Todo lo cual queda reforzado por los recientes descubrimientos de que genes de
control maestro, como el Pax-6 y la familia Hox, regulan el desarrollo de planes orgánicos
muy distintos en un amplio rango de especies y que estos genes son intercambiables entre
especies.
Cuando se habla de genes, sin embargo, es importante reconocer que un gen no es
simplemente una secuencia lineal de ADN que codifica para la producción de una proteína
o de una molécula de ARN, como se creía cuando el modelo neodarwinista estaba en
desarrollo. En 1977, los biólogos moleculares Richard J. Riberts y Phillip A. Sharp
descubrieron, en investigaciones independientes, que los genes eucariotas están
funcionalmente separados en segmentos codificantes, llamados exones, y segmentos no
codificantes de secuencias de ADN, llamados intrones. La utilización o exclusión de
distintos exones permite la creación de múltiples proteínas a partir de un gen.
A pesar de que las conclusiones que publicó fueron objeto de mofa en su momento,
en 1951, la citogenetista Barbara McClintock, del Cold Spring Harbor Laboratory,
identificó «genes saltarines», lo que ahora conocemos como transposones. Se trata de
segmentos de ADN capaces de moverse, o transponerse, cortándose e insertándose, o
replicándose e insertando copias de sí mismos, en distintas posiciones del cromosoma e
incluso de otros cromosomas. Un transposón puede interrumpir la función de la secuencia
de ADN a la que se empalma y provocar una mutación.
En 1965, McClintock sugirió que estos elementos móviles del genoma podían jugar
un papel regulador, determinando qué genes se conectan y cuándo lo hacen. En 1969, el
biólogo molecular Roy Britten y el biólogo celular Eric Davidson especularon que los
transposones no solo juegan un papel en la regulación de la expresión del gen, sino
también, según el lugar del genoma donde se inserten, en la generación de distintos tipos de
células y distintos tipos de estructuras biológicas. Propusieron la hipótesis de que esto
podría explicar en parte por qué un organismo pluricelular tiene tantos tipos distintos de
células, tejidos y órganos, por mucho que todas sus células compartan el mismo genoma.
La ortodoxia biológica rechazó estas propuestas, pero los estudios realizados a lo
largo de la primera década del siglo xxi han demostrado que entre grupos taxonómicos muy
alejados se conservan muchos transposones, y que se encuentran, además, en prácticamente
todos los organismos —tanto procariotas como eucariotas— y en grandes cantidades. Por
ejemplo, constituyen aproximadamente el 50 por ciento del genoma humano y hasta el 90
por ciento del genoma del maíz. Además, los transposones pueden influir la transcripción
genética.[20]
En 2012, el proyecto ENCODE (Encyclopedia of DNA Elements), un estudio de
nueve años de duración sobre el genoma humano en el que trabajan más de 440
investigadores de 32 laboratorios distribuidos por todo el mundo, informó de que los genes
podían estar dispersos por todo el genoma, y que las regiones reguladoras no tienen por qué
estar cerca de la secuencia codificadora de la molécula lineal y ni siquiera estar en el mismo
cromosoma. Además, mientras que el ADN codificador de proteína apenas constituye el 2
por ciento del genoma, un 80 por ciento de las bases estudiadas —«ADN basura»—
muestra señales de actividad funcional. Gran parte de ella tiene que ver con complejas
redes de colaboración que regulan la expresión génica.[21]
Esta investigación ha reivindicado el trabajo de McClintock, Britten y Davidson,
impulsando una reevaluación del concepto de gen y de la función del llamado «ADN
basura» —un 98 por ciento del genoma humano—, cuyo concepto ha estado vigente
durante unos cincuenta años.
Genómica

Estos estudios que cuestionan los paradigmas son posibles gracias a los avances
tecnológicos del siglo xxi, que han permitido secuenciar no solo genes a nivel individual
sino también el genoma completo de un organismo,[22] la totalidad de su contenido
genético.
En 2009 se habían secuenciado ya los genomas de unos 2.000 organismos y muchos
más virus, lo que permite análisis y comparaciones entre distintas especies mucho más
precisos que los que ofrecen los genes a nivel individual. Gracias a ellos sabemos, por
ejemplo, que mientras que el 98 por ciento del código genoma de una procariota codifica
para proteínas estructurales, en eucariotas es solo un 2 por ciento.
En 2003 se secuenció el genoma humano y reveló, entre muchas otras cosas, que no
poseemos 100.000 genes, como se estimaba hasta entonces, sino probablemente solo
30.000, una cifra que desde esa fecha se ha revisado a la baja hasta dejarla en
aproximadamente 25.000, con múltiples copias de algunos genes. El Proyecto del Genoma
Humano explicó:
«A pesar de que el proyecto se ha completado, seguimos teniendo muchas preguntas
sin respuesta, incluyendo la de cuál es la función de los 30.000 genes humanos estimados.
Por otro lado, los investigadores siguen sin conocer el rol de los Polimorfismos de
Nucleótido Único, o SNP [del inglés Single Nucleotide Polymorphism] [polimorfismos que
producen una variación en un solo par de bases dentro del genoma] ni el papel de las
regiones no codificadoras y de las repeticiones en el genoma».[23]
El hombre no solo tiene aproximadamente el mismo número de genes que una rata,
sino que además, otros datos demuestran que cuenta con menos de la mitad de genes que
las cepas de arroz japónica e indica. Estos descubrimientos provocaron una respuesta
general tipificada por las palabras del escritor especializado en temas científicos, Matt
Ridley: «Un destronamiento a tan gran escala no se había vivido desde que Copérnico nos
quitó del centro del sistema solar».[24]
Esta respuesta se vio reforzada por conocidas estadísticas que indican que los
humanos compartimos el 98,5 por ciento de nuestros genes con el chimpancé, el 90 por
ciento con la ata, el 85 por ciento con el pez cebra Danio rerio, de entre 4 y 6 centímetros
de longitud, el 36 por ciento con la mosca de la fruta, Drosophila melanogaster, y en torno
al 21 por ciento con la lombriz de 1 milímetro de longitud, Caenorhabditis elegans.
Esta respuesta, sin embargo, está basada en tres falacias. En primer lugar, la cifra de
que loso humanos compartimos el 98,5 de nuestros genes con los chimpancés está sacada
de una diferencia estimada del 1,5 por ciento entre secuencias nucleotídicas de genes que se
considera que tienen una función similar. Pero los estudios que tienen en cuenta las
pérdidas de genes, las inserciones de genes y las duplicaciones dan a entender que, en sus
genes complementarios, humanos y chimpancés se diferencian en al menos el 6 por ciento.
[25]
En segundo lugar, no compara peras con peras ni manzanas con manzanas. Por
ejemplo, las plantas confían en la duplicación de genes para su diversidad proteica,
mientras que los humanos consiguen la diversidad proteica a través de un proceso de
empalme alternativo: un único gen realiza varias funciones y los genes se dividen y
empalman constantemente con una secuencia y una función distintas. En consecuencia, el
funcionamiento de los genes humanos produce un organismo mucho más complejo que el
de una planta de arroz.
En tercer lugar, asume que el grado de parentesco de las especies se calcula mejor a
partir del número de genes que tienen en común e ignora aproximadamente el 98 por ciento
del ADN de los cromosomas eucariotas, en particular, las secuencias reguladoras que
determinan cuándo, hasta qué punto y durante cuánto tiempo se mantienen los genes
conectados y, en consecuencia, los caracteres observables del organismo.
La secuenciación del genoma nos ofrece evidencias de que la duplicación de genes
a gran escala, e incluso la duplicación completa del genoma, contribuyeron de manera
significativa tanto a la expansión de la familia de genes como a la evolución del genoma.
[26]
Fue la genómica la que reveló una inconsistencia más con la biología ortodoxa que
ya se ha mencionado: entre procariotas, e incluso entre especies que no están estrechamente
relacionadas, se producen transferencias genéticas horizontales.[27] Según Ford Doolittle,
bioquímico de la Dalhousie University, los análisis genómicos muestran que, al menos para
las procariotas, la transferencia genética horizontal juega un papel más importante en el
desarrollo evolutivo que la transferencia genética vertical de una célula madre a una célula
hija.[28]
En las eucariotas encontramos también transferencia genética horizontal, aunque no
está tan extendida como en las procariotas. De todos modos, contribuyó de forma
significativa a la emergencia de las eucariotas. Hay que tener en cuenta además, que las
hibridaciones de animales y plantas son, de hecho, transferencias horizontales de genes de
carácter masivo.
Los recientes descubrimientos en el campo de la genética y la genómica no
invalidan el fenómeno de la evolución biológica; más bien al contrario, refuerzan las
evidencias. Aunque, por otro lado, cuestionan también la idoneidad del modelo
neodarwinista para explicarla.
Conclusiones

1. Las especies vivas forman un patrón de incremento de la complejidad que va


desde las bacterias hasta el hombre.
2. Las evidencias que aportan las estructuras homólogas, los vestigios, la
embriología, la biogeografía, la bioquímica, la genética y la genómica apuntan hacia la
evolución de las especies vivas a partir de un antepasado universal común en la Tierra.
3. Muchas especies experimentan variaciones reversibles a modo de respuesta a los
cambios medioambientales, pero el cambio reversible no tiene que ver con la evolución de
las especies (los biólogos clasifican algunas variedades como nuevas especies; son
decisiones discutibles que empañan la comprensión de los hechos que caracterizan a una
nueva especie).
[1]Darwin, Charles (1872), p. 386.
[2]Gehring (1998), pp. 207–216.
[3]Chouard, Tanguy, «Evolution: Revenge of the Hopeful Monster», Nature, 463,
2010, 864–867.
[4]Ayala (2014).
[5]Thomas, Christopher M. y Nielsen, Kaare M., (2005) «Mechanisms of, and
Barriers to, Horizontal Gene Transfer between Bacteria», Nat Rev Micro, 3: 9, 2005, pp.
711–721.
[6]Boto, Luis, «Horizontal Gene Transfer in Evolution: Facts and Challenges»,
Proceedings of the Royal Society B: Biological Sciences, 277: 1683, 2010, pp. 819–827.
[7]Soltis, P. S., «Ancient and Recent Polyploidy in Angiosperms», New Phytologist,
166: 1, 2005, pp. 5-8.
[8]Gregory, T. Ryan y Mable, Barbara K., «Polyploidy in Animals», pp. 501–502 en
Gregory (2005).
[9]Gallardo, M. H., et al., «Whole-Genome Duplications in South American Desert
Rodents (Octodontidae) », Biological Journal of the Linnean Society, 82: 4, 2004, pp. 443–
451.
[10]Coyne, Jerry A., «Not Black and White», Nature, 396: 6706, 1998, pp. 35–36.
[11]http://www.gen.cam.ac.uk/research/personal/majerus/Darwiniandisciple.pdf,
[2004]. Consultado el 18 de octubre de 2010.
[12]Sargent, T. D., et al., «The “Classical” Explanation of Industrial Melanism:
Assessing the Evidence», en Evolutionary Biology: Vol 23, editado por Max K. Hecht y
Bruce Wallace, Plenum Press, Nueva York, 1998.
[13]Cunha, H. A., et al., «Riverine and Marine Ecotypes of Sotalia Dolphins are
Different Species», Marine Biology, 148: 2, 2005, pp. 449–457.
[14] Véase página 417.
[15]Weiner (1994), p. 9.
[16]Grant, Peter R. y Grant, B. Rosemary, «Genetics and the Origin of Bird
Species», Proceedings of the National Academy of Sciences of the United States of
America, 94: 15, 1997, pp. 7768–7775.
[17] Véase página 357.
[18] Véase páginas 353 a 362 para una descripción más detallada de los elementos
químicos, estructuras y reacciones.
[19] Véase página 351.
[20]Pray, Leslie, «Transposons, or Jumping Genes: Not Junk DNA?», Nature,
Education, 2008, p. 1.
[21]Pennisi, Elizabeth, «Encode Project Writes Eulogy for Junk DNA», Science,
337: 6099, 2012, pp.1159-1161; http://www.genome.gov/10005107, consultado el 11 de
abril de 2014; ENCODE, Consortium, «Identification and Analysis of Functional Elements
in 1% of the Human Genome by the Encode Pilot Project», Nature, 447, 7146, 2007, pp.
799–816.
[22] Véase el glosario para una definición más detallada.
[23]http://www.ornl.gov/sci/techresources/Human_Genome/faq/compgen.shtml,
consultado el 17 de agosto de 2010.
[24]Ridley, Matt, «The Humbling of Homo Sapiens», The Spectator, 14 de junio de
2003.
[25]Véase, por ejemplo, Demuth, J. P., et al., «The Evolution of Mammalian Gene
Families», PLoS One 1, 2006, p. 1; Britten, Roy J. «Divergence between Samples of
Chimpanzee and Human DNA Sequences Is 5%, Counting Indels», Proceedings of the
National Academy of Sciences, 99: 21, 2002, pp. 13633–13635.
[26]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A
Critique of Molecular Systematics», Biological Theory, 1: 4, 2006, pp. 357–371.
[27]Ragan, Mark A., et al., «The Network of Life: Genome Beginnings and
Evolution», Philosophical Transactions of the Royal Society B: Biological Sciences 364:
1527, 2009, pp. 2169–2175.
[28]Doolittle, W. Ford, «The Practice of Classification and the Theory of Evolution,
and What the Demise of Charles Darwin’s Tree of Life Hypothesis Means for Both of
Them», Philosophical Transactions of the Royal Society B: Biological Sciences, 364: 1527,
2009, pp. 2221–2228.
CAPÍTULO 19. EVIDENCIAS DE LA EVOLUCIÓN BIOLÓGICA 3: LA
CONDUCTA DE LAS ESPECIES VIVAS

Ciertamente se ha dicho que todo en la naturaleza está en guerra; al final, los más
fuertes prevalecerán, los más débiles caerán […]. La dura y a menudo recurrente lucha
por la existencia determinará que aquellas variaciones favorables, por sutiles que sean,
sean conservadas o seleccionadas, y las desfavorables sean eliminadas.

Charles Darwin, 1868

Aquellas especies que voluntaria o involuntariamente renieguen de ella [de la


sociabilidad] estarán condenadas a la decadencia; mientras que los animales que sepan
unirse del mejor modo, tendrán mayores oportunidades de sobrevivir y evolucionar […].
Los más idóneos son, pues, los animales más sociables y la sociabilidad parece ser el
principal factor de la evolución.

Peter Kropotkin, 1914

La zoología engendró la etología, la subdisciplina que estudia la conducta animal,


cuando las observaciones de animales salvajes por parte de los naturalistas se extendieron
para incluir también experimentos diseñados para evaluar las características, causas,
mecanismos, desarrollo, control e historia evolutiva de su conducta.
El austriaco Konrad Lorenz y el británico de origen holandés, Niko Tinbergen, están
considerados como los dos científicos que sentaron las bases de esta disciplina en la década
de los 20 y los 30 del siglo pasado. Los experimentos de Lorenz con patos y gansos
mostraron que un amplio repertorio de conductas de las crías recién nacidas está inducido
por estímulos específicos proporcionados por parte de los progenitores o de sustitutos de
los progenitores. Estos patrones irreversibles de conducta, afirmaba Lorenz, eran algo tan
característico para una especie como su plumaje. Lorenz y Tinbergen defendieron que si
una especie poseía un historial prolongado de respuesta a estímulos específicos, en especial
aquellos relacionados con la supervivencia y la reproducción, la selección natural conduce
a adaptaciones que mejoran la respuesta a dichos estímulos. Así pues, un pez espinoso
macho se ve estimulado a atacar a otro macho por su color rojo, pero corteja a la hembra
por su vientre plateado e hinchado. Hay, sin embargo, otros tipos de conductas susceptibles
a aprenderse a través de la experiencia.
Desde entonces, la etología se ha ramificado a su vez en diversas subdisciplinas
especializadas como el estudio de la conducta de especies específicas, la teoría de la
historia de la vida, la ecología evolutiva, la ecología conductual y la sociobiología —que
han provocado una expansión de las investigaciones sobre la evolución social—, mientras
que otras tendencias de la etología interactúan con distintas disciplinas científicas para
generar nuevas disciplinas hibridas como el aprendizaje social, la psicología comparativa,
la etología cognitiva y la neuroetología.
Estos enfoques especializados, analíticos y teóricos aportan valiosos puntos de vista
sobre la conducta animal, aunque el acuerdo general entre estos diversos campos es
limitado y mucho más lo es, si cabe, el acuerdo entre ellos. Mi intención es adoptar una
postura objetiva y examinar qué patrones evolutivos generales, si acaso hay alguno, surgen
a partir de la conducta de las especies reveladas por estos estudios.
Especies unicelulares

Los miembros de la mayoría de especies unicelulares exhiben las formas primitivas


de conducta social que describió Kropotkin a principios del siglo xx para un amplio rango
de especies animales:[1] comunicar y trabajar en colaboración para construir un refugio
comunitario, producir y criar descendencia, alimentarse, defenderse, atacar presas y migrar
hacia un entorno mejor para su supervivencia y reproducción.[2]
La mayoría de especies bacterianas son capaces de formar comunidades como
tapetes microbianos y biofilms, que suelen estar protegidos por una matriz de excreciones
bacterianas. Los biofilms raramente contienen una única especie de bacteria y, mucho
menos, un único linaje clónico. La placa dental, por ejemplo, incluye hasta 500 especies de
bacterias. Como los nidos de insectos sociales, los biofilms son también lugares de
reproducción.[3]
Las mixobacterias, como Myxococcus xanthus, realizan ataques colectivos sobre sus
presas microbianas, a las que superan por cantidad, descomponen en enzimas bacterianas y
consumen.
La comunicación queda ejemplificada por lo que se conoce como «percepción de
quórum». Las bacterias emiten moléculas que emiten señales hacia su entorno inmediato y
poseen también receptores para esas moléculas. Cuando los receptores registran una
cantidad de señales suficiente —lo que les da la medida de la densidad de población local
—, se desencadena una respuesta coordinada, como podría ser la conexión de genes que
dirigen la producción y excreción de polisacáridos para un biofilm o enzimas que digieren
la presa para beneficio de todos los miembros de la población, o que general luminiscencia.
[4]
La ameba Dictyostelium discoideum, que vive normalmente una vida solitaria
unicelular en el suelo húmedo y se alimenta de bacterias, ilustra la migración y la
reproducción colaborativas. Cuando andan faltas de nutrientes, un centenar de células se
agrupa para formar una babosa que migra hacia la superficie, donde adopta la forma de un
tallo que sostiene en lo alto un soro, una bola de células reproductivas que dispersan
esporas unicelulares. El 20 por ciento aproximado de células que forma el tallo no se
reproduce, sino que muere en lo que tiene todo el aspecto de ser un acto altruista.
La extensa revisión de la conducta social de las bacterias elaborada por el genetista
bacteriano James Shapiro llega a la conclusión de que la colaboración de las bacterias, no
solo entre individuos de la misma especie sino también entre especies distintas, juega un
papel primordial en su supervivencia.[5]
Especies pluricelulares

Un organismo pluricelular está compuesto por células eucariotas. Cada una de estas
células está compuesta a su vez por varias partes unidas mediante una membrana que
realizan funciones concretas, como el núcleo que controla y coordina las demás partes, o
los orgánulos, como la mitocondria, donde se genera la energía (véase figura 19.1). Una
célula eucariota es, esencialmente, una colección de orgánulos de diferentes procariotas que
colaboran para mantener y reproducir la célula.
Un grupo de estas células, lo que llamaremos un tejido, colabora para realizar una
función específica, como por ejemplo tejido muscular que se contrae y se expande. De un
modo similar, diversos tipos de tejido colaboran para formar un órgano que tiene un
objetivo concreto, como un corazón que bombea sangre u otras colaboraciones de nivel
incluso más elevado que este. De hecho, un organismo consiste, a muchos niveles, en partes
que colaboran para mantener el todo vivo y reproduciéndose.
Los biólogos evolutivos David Queller y Joan Strassmann sugieren que «la esencia
del carácter de organismo está en este objetivo compartido; las partes trabajan juntas para el
todo integrado, con mucha colaboración y muy poco conflicto».[6] Esta actividad con un
propósito está muy relacionada con la definición de vida sugerida en la página 333.
Genes

La colaboración se extiende hasta el nivel de los genes. En el último capítulo vimos


que el gen Pax-6 controla y coordina el funcionamiento de hasta 2.000 genes más para
desarrollar un ojo.[7] Esto no es más que un ejemplo de un fenómeno extendido por el que
los genes trabajan juntos bajo el control de otros genes reguladores con el fin de desarrollar
un órgano o realizar una función concreta. Uno de los casos de gen regulador más estudiado
es el de la familia de los genes Hox, que colaboran para coordinar el desarrollo de partes
del cuerpo en prácticamente todos los animales bilaterales estudiados hasta la fecha.[8]
Otra investigación reciente es un estudio de 2010 que llega a la conclusión de que la
inteligencia del hombre está controlada por una red de miles de genes en la que todos ellos
realizan una pequeña contribución y no por unos pocos genes potentes, como antiguamente
se creía.[9]
La colaboración no es la única conducta que encontramos en el seno de un
organismo. Cuando una serie de genes reguladores falla, habitualmente como consecuencia
de una mutación de dichos genes, una célula puede empezar a replicarse sin control, y estas
células cáncer entran en competición con las demás células y las destruyen para
alimentarse. Sin embargo, dentro de un organismo, la competencia es la excepción, no la
regla.
Plantas
Los estudios de conducta no suelen contemplar las plantas,[10] pero sin
colaboración, y a falta de auto-polinización, la mayoría de plantas no podría propagarse. A
pesar de que el viento transporta con frecuencia el polen hasta el pistilo de las plantas, lo
más habitual es que lo transporten insectos, aves e incluso mamíferos (sobre todo
murciélagos). Esta colaboración suele ser beneficiosa para ambas partes: el organismo que
transporta el polen se beneficia bebiendo el néctar, disfrutando de su perfume o, en el caso
de las abejas, quedándose con parte del polen. Hay flores que emiten olor a comida, como
el coco, para atraer a los insectos que las polinizan, mientras que hay determinadas especies
de orquídeas que tienen flores que imitan el aspecto y el olor de la avispa hembra para
atraer a la avispa macho.
Insectos

Los insectos son probablemente los animales más estudiados. Una amplia mayoría
de hormigas, avispas y especies de abejas (orden Hymenoptera) y termitas (orden Isoptera,
a pesar de que algunos investigadores las clasifican ahora como un suborden de las
Dictyoptera, o cucharachas) colaboran de un modo tan coordinado que se les conoce como
«insectos sociales».
A pesar de que algunas especies de abejas son solitarias, los miembros de la
mayoría de sus especies viven en colonias que, en el caso de las abejas melíferas tropicales
sin aguijón, pueden llegar a alcanzar los 180.000 ejemplares. Una colonia de abejas trabaja
en colaboración para utilizar la cera que segregan y mezclarla con resina de plantas con el
fin de construir y mantener sofisticados panales compuestos por celdillas de forma
hexagonal y paredes finas, lo que se conoce como colmenas, con áreas diferenciadas para
criar las larvas y almacenar miel y polen, además de un espacio para reciclaje, todo ello
rodeado por sinuosos entramados.
Las hormigas cultivadoras de hongos de América Central excavan en el suelo nidos
que llegan a alcanzar varios centenares de metros de longitud y hasta seis metros de
profundidad, provistos con varios miles de entradas y alrededor de mil cámaras distintas.
Las termitas construyen montículos para protegerse con una sustancia parecida al
cemento fabricada por las termitas obreras con tierra y saliva. Las cámaras y los túneles se
enfrían mediante un sistema de aire acondicionado que lleva a las obreras a humedecer
constantemente las paredes con su saliva e incluye además cavidades que permiten que el
aire caliente se eleve y salga al exterior a través de minúsculos orificios realizados en la
superficie del montículo. En el centro de la construcción se encuentra la cámara real, en la
cual el rey –el único macho fértil de la colonia- y la reina viven y procrean. A su alrededor,
se disponen cámaras de incubación donde las termitas obreras transportan los huevos
después de ser puestos. Los túneles conducen a cámaras donde almacenan la comida y, por
encima de ellas, hay jardines de hongos, donde se cultiva el alimento.
A pesar de las diferencias particulares en la conducta las especies de los llamados
insectos sociales, se evidencia un patrón general.
a. Colonia jerárquica
Los insectos sociales viven juntos como una colonia jerárquica de miembros
interdependientes en un nido, colmena o montículo que ellos mismos se construyen.
b. Division del trabajo
La reproducción queda a cargo de solo una o más reinas (más un rey en el caso de
las termitas), mientras que las obreras suelen especializarse en tareas como la construcción
y mantenimiento del nido, la búsqueda de alimento, la alimentación de las crías y la
vigilancia y defensa de la colonia. Una colonia de abejas, por ejemplo, puede contener
50.000 hembras, todas las cuales han desarrollado ovarios y pueden poner huevos. Pero el
100 por ciento de las hembras y el 99,9 por ciento de los machos son hijos de una sola
hembra, la reina. Las demás hembras son las obreras, mientras que los machos, o zánganos,
carentes normalmente de aguijón, no producen miel, no trabajan y su única función es
aparearse con la reina en vuelo.
c. Diferenciación morfológica
En muchos casos, los miembros de la colonia desarrollan una morfología adecuada
para su papel, como es el caso de reinas grandes capaces de elevador niveles de
reproducción. En el orden Hymenoptera, por ejemplo, la reina necesita a menudo ser lo
bastante grande como para poder almacenar y mantener con vida millones de
espermatozoides recogidos en un único vuelo de apareamiento y luego ir racionando su
expulsión a lo largo de un periodo de veinte años para poder fertilizar los huevos que irá
poniendo.
d. Cambio en la capacidad reproductora
Mientras que las reinas desarrollan capacidades reproductivas mejoradas, las
obreras pierden su capacidad de apareamiento y solo ponen huevos machos haploides sin
fertilizar. En algunos géneros de hormigas y abejas sin aguijón, las obreras son totalmente
estériles.
e. Control y coordinación
La división del trabajo está coordinada y es obligada. Las abejas obreras construyen
una celdilla de mayor tamaño para criar a la reina, a la que alimentan con jalea real,
mientras que a las demás larvas no les proporcionan los nutrientes necesarios para poder
convertirse en reinas. En el caso de la abeja Melipona, las obreras encierran a todas las
larvas en celdas idénticas y con comida idéntica; luego, cuando las larvas salen de la celda
convertidas en adultas, las obreras matan a las reinas sobrantes. En muchas especies, los
huevos puestos por las obreras acaban devorados por otras obreras —el 98 por ciento en el
caso de las abejas— o por la reina. Las obreras que ponen huevos pueden, además, ser
víctimas de ataques.[11]
f. Altruismo
Algunos insectos exhiben una conducta aparentemente altruista. Una abeja obrera
utiliza su aguijón para defender a la colonia a pesar de que la utilización y la pérdida del
aguijón tienen como consecuencia la muerte. La mayoría de biólogos evolutivos y etólogos
describen como altruismo la reducción o pérdida de capacidad reproductiva de las obreras a
favor del incremento de la capacidad reproductora de la reina. Sin embargo, si esta
conducta es obligada, no se trata de altruismo, según el concepto generalmente entendido
del término.
Altruismo: conducta caracterizada por una preocupación desinteresada por el
bienestar de los demás; abnegación.
Trabajar en colaboración de forma voluntaria por el beneficio mutuo es tan distinto
a hacerlo de manera forzada, como las sociedades cooperativas voluntarias de campesinos
de Siberia que observó en su día Kropotkin lo son de las granjas colectivas que se
desarrollaron bajo el control central en época soviética. Considero útil distinguir entre los
dos casos y, de aquí en adelante, utilizaré los siguientes términos:
Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar objetivos
acordados por todos o por el beneficio mutuo.
Colectivización: trabajar conjuntamente de manera involuntaria,
independientemente de que se haga por instinto, por aprendizaje aprendido o por coerción.
La conducta de los insectos sociales es instintiva y, por lo tanto, es muy probable
que sea heredada y seleccionada genéticamente, tal y como propusieron Lorenz y
Tinbergen. Sin embargo, a medida que las especies se vuelven más complejas, vemos la
aparición y el desarrollo de conductas aprendidas.
Peces

Los experimentos de laboratorio que se están llevando a cabo desde principios del
siglo xxi muestran que los peces introducidos en un banco nuevo imitan a su nuevo banco
en el seguimiento de las rutas, en la preferencia por un alimento en particular y en la
utilización de lugares determinados para alimentarse y reproducirse. Esta adopción de
patrones de conducta aprendida se produce demasiado rápidamente como para ser resultado
de la selección natural de conductas genéticamente determinadas adaptadas al entorno.[12]
Según el etólogo Kevin Laland, de la Universidad de St. Andrews, estas conductas
socialmente aprendidas violan uno de los supuestos fundamentales del neodarwinismo.
Además, «se mantienen como “tradiciones” durante múltiples generaciones».[13]
Suricatas

Las suricatas, unos pequeños mamíferos no primates que viven en regiones áridas
del sur de África, viven en colonias de entre dos y cuarenta individuos. Estas colonias están
integradas por un macho dominante y una hembra dominante, que son los padres de cerca
del 80 por ciento de las crías del grupo, y por una cantidad variable de machos y hembras
de unos tres meses de edad que colaboran en la labor de criar a los pequeños además de
realizar otras funciones sociales, como montar guardia para avisar de la presencia de
predadores mientras los demás estan acicalándose, jugando o buscando comida.
La adquisición de comida en ese entorno requiere grandes habilidades, y tanto las
observaciones como los experimentos con suricatas en libertad muestran no solo
aprendizaje individual a través del método de prueba y error y la conducta socialmente
aprendida de la imitación,[14] sino también adultos que enseñan a los cachorros a cazar sin
riesgo dándoles escorpiones con los que practicar.[15]
Primates

Igual que las especies menos complejas, algunos primates matan a miembros de
otras especies para comer, pero en general su dieta está integrada por fruta y vegetales.
Dentro de su especie, los primates muestras conductas competitivas y agresivas que
pueden dar como resultado la muerte, sobre todo cuando los machos compiten por hembras
con las que copular o por el territorio y los recursos. En el caso de los gorilas y los
chimpancés, los primates más estudiados, esta conducta puede llegar al infanticidio cuando
el macho que se hace con el dominio de un grupo mata a la descendencia engendrada por
otro macho. Pero los primates también son animales sociales que viven en grupo, y dentro
del grupo la agresión suele tener más un carácter de exhibición que un deseo de hacer daño.
La colaboración es como mínimo tan importante como la competencia tanto para la
supervivencia como para la reproducción, y se muestra en conductas como la protección de
los depredadores, la caza, la crianza de los pequeños y la migración. El acicalamiento
mutuo y el juego sirven para reforzarla.
Los estudios del primatólogo Carel van Schaik sobre la conducta del orangután
llegan a la conclusión de que la inteligencia depende más de las oportunidades para la
transmisión social que del entorno o los genes, y que las especies con más oportunidades
para el aprendizaje social son más inteligentes.[16] Para Laland, el aprendizaje social y la
inteligencia de los primates no humanos, medido por la invención de las soluciones más
novedosas a los problemas a los que se enfrentan, aumenta con el tamaño del cerebro.[17]
La comparación que realizó el etólogo cognitivo, Simon Reader, de 62 especies de primates
concluyó de un modo similar que el aprendizaje social evoluciona conjuntamente con el
aumento de tamaño del cerebro del primate y la inteligencia.[18]
Estos y muchos más estudios realizados desde mediados de la primera década del
siglo xxi en adelante, extienden y refuerzan los descubrimientos que realizó Kropotkin hace
más de cien años:
El apoyo mutuo es tanto una ley de la vida animal como lo puede ser la lucha
mutua, pero aquel, como factor de evolución, es probablemente de mucha mayor
importancia, en tanto que favorece el desarrollo de hábitos y caracteres que garantizan el
mantenimiento y el desarrollo de la especie, junto con una cantidad superior de bienestar y
de disfrute de la vida para el individuo, junto con la disminución del gasto inútil energía.
[19]
Y:
Por lo tanto encontramos, en lo más alto de cada clase de animales, las hormigas,
los loros y los monos, que todos combinan la mayor sociabilidad con el desarrollo más
elevado de la inteligencia. Los más adaptados son, por lo tanto, los animales más sociables,
y la sociabilidad es el principal factor de la evolución.[20]
Estas conductas no encajan con el modelo neodarwinista, que está enraizado en la
competencia. En un capítulo posterior examinaré diversas hipótesis para explicar la
conducta cooperativa extendiendo ese modelo.
Asociación entre especies

La competencia por los recursos y la depredación suelen marcar la conducta entre


especies. Pese a ello, las asociaciones entre miembros de distintas especies son habituales.
Adoptan tres formas. La conducta parasitaria se produce cuando uno de los miembros sale
beneficiado y el otro perjudicado, como sucede con los platelmintos que infectan los ojos
del lencisco para encontrar alimento y cobijo y perjudica con ello la visión del pez. La
conducta comensal, en la que uno gana pero el otro permanece inalterado, no es común.
Mucho más frecuentes son las asociaciones cooperativas, donde ambas partes salen
beneficiadas. He descrito ya la polinización, y otros ejemplos de cooperación entre especies
son las asociaciones con fines de limpieza, como la del lábrido limpiador que libra de
parásitos a peces mucho más grandes que él que, en otras circunstancias, lo devorarían.[21]
Conclusiones

1. La colaboración es una causa más importante que la competencia en el desarrollo


y la supervivencia de los organismos y se extiende a cualquier nivel de la vida.
1.1. Los genes trabajan en colaboración para el desarrollo del organismo, con
frecuencia regulados por otros genes que a su vez trabajan también en colaboración.
1.2. Un organismo unicelular consta de diversas partes que realizan funciones
específicas y que colaboran entre sí para mantener y replicar el organismo.
1.3. Una célula eucariota consta de un núcleo que controla la colaboración de las
partes celulares, u orgánulos, que realizan funciones específicas para el mantenimiento y la
replicación de la célula, mientras que un organismo pluricelular consta de una jerarquía de
grupos celulares especializados que colaboran con escaso conflicto para mantener el
organismo con vida y producir descendencia.
1.4. Los miembros de muchas especies colaboran en grupos sociales para su
supervivencia colectiva.
1.5. Mientras que hay miembros de determinadas especies que se asocian de forma
parasitaria con miembros de otras especies, la asociación cooperativa entre miembros de
distintas especies para beneficio mutuo está muy extendida.
2. En especies unicelulares y animales, la colaboración suele adoptar la forma de un
grupo en el seno de una especie en la que los individuos comunican y colaboran entre sí
para construir un refugio comunitario, producir y criar descendencia, buscar alimento,
defenderse, atacar a los depredadores y migrar hacia un entorno mejor para su
supervivencia y reproducción. En algunos casos, varios grupos dentro de una misma
especie, e incluso con especies relacionadas, colaboran también en busca del mutuo
beneficio, sobre todo en las tareas de migración.
3. En los animales, el grupo, normalmente aunque no de forma exclusiva, está
basado en el parentesco y presenta una división jerárquica del trabajo a menudo dominada
por una o más hembras y un macho que reproduce, mientras que los demás miembros
realizan trabajos especializados.
4. Los patrones de conducta característicos, y muy en especial los relacionados con
la supervivencia y la reproducción, suelen ser instintivos; son consistentes con una historia
evolutiva de respuestas exitosas a determinados estímulos y de la herencia de estas
respuestas por parte de la descendencia.
5. En colonias de especies más sencillas, como los insectos, la colaboración entre
miembros especializados en distintas tareas suele ser forzada; en estos casos, uno o pocos
miembros del grupo ganan capacidad reproductora mientras que las obreras ven limitada su
capacidad reproductora o son estériles. A pesar de que existen algunos ejemplos de
altruismo, en el sentido habitual del término, la colaboración instintiva o colaborativa puede
describirse mejor como colectivismo, para distinguirla del cooperativismo, donde la
colaboración es voluntaria o tiene beneficio mutuo.
6. A medida que la complejidad de las especies aumenta, desde los peces hasta los
primates, el aprendizaje social, que es más eficiente que el aprendizaje individual mediante
un proceso de prueba y error, aumenta para complementar la conducta instintiva; las
habilidades aprendidas socialmente pueden ser hereditarias.
7. Dentro de cada clase, el aumento de aprendizaje social está correlacionado con un
aumento de la complejidad cerebral, que va a su vez acompañado por un aumento de la
inteligencia, medida por el nivel de invención de soluciones novedosas para los problemas
que se presentan.
[1] Véase página 431 hasta 434.
[2]Brown, Sam P., et al., «Social Evolution in Micro-Organisms and a Trojan Horse
Approach to Medical Intervention Strategies», Philosophical Transactions of the Royal
Society B: Biological Sciences 364: 1533, 2009, pp. 3157–3168.
[3]Crespi, B. J., «The Evolution of Social Behavior in Microorganisms»,Trends
inEcology & Evolution, 16: 4, 2001, pp.178–183.
[4]West, Stuart A, et al., «The Social Lives of Microbes», Annual Review of
Ecology, Evolution, and Systematics, 38: 1, 2007, pp. 53–77.
[5]Shapiro, James A., «Thinking About Bacterial Populations as Multicellular
Organisms», Annual Reviews in Microbiology, 52: 1, 1998, pp. 81–104.
[6]Queller, David C. y Strassmann, Joan E., «Beyond Society: The Evolution of
Organismality», Philosophical Transactions of the Royal Society B: Biological Sciences,
364: 1533, 2009, pp. 3143–3155.
[7] Véase página 487.
[8]Pearson, Joseph C., et al., «Modulating Hox Gene Functions During Animal
Body Patterning», Nat Rev Genet, 6: 12, 2005, pp. 893–904.
[9]Leake, Jonathan, «Check...Science Closes in on Intelligence Gene Test», Sunday
Times Londres, 19 de septiembre de 2010, News, p. 13.
[10] Un análisis llevado a cabo en 2009 sobre las últimas investigaciones en
neurobiología de plantas, afirma que las plantas son organismos sensoriales y
comunicativos que se caracterizan por una conducta activa y enfocada a solucionar
problemas. Argumenta que se trata de conclusiones controvertidas debido a la tendencia a
retener celosamente los dogmas instaurados en la ciencia aunque su fecha de caducidad esté
más que superada. (Baluška, František, et al., «The ‘Root-Brain’ Hypothesis of Charles and
Francis Darwin», Plant Signaling & Behavior 4: 12, 2009, pp. 1121-1127).
[11]La mayoría de ejemplos de conducta social en insectos está extraída de
Ratnieks, Francis L. W. y Helantera, Heikki, «The Evolution of Extreme Altruism and
Inequality in Insect Societies», Philosophical Transactions of the Royal Society B:
Biological Sciences 364: 1533, 2009, pp. 3169–3179.
[12]Véase, por ejemplo,, Laland, K. N., et al., «From Fish to Fashion: Experimental
and Theoretical Insights into the Evolution of Culture», Philosophical Transactions of the
Royal Society B: Biological Sciences, 366: 1567, 2011, pp. 958–968.
[13]Laland, Kevin N., «Animal Cultures», Current Biology 18: 9, 2008, pp. R366–
R370.
[14]Thornton, Alex y Malapert, Aurore, «Experimental Evidence for Social
Transmission of Food Acquisition Techniques in Wild Meerkats», Animal Behaviour, 78: 2,
2009, pp. 255–264.
[15]Thornton, Alex y McAuliffe, Katherine, «Teaching in Wild Meerkats», Science,
313: 5784, 2006, pp. 227–229; Thornton, Alex y Clutton-Brock, Tim, «Social Learning and
the Development of Individual and Group Behavior in Mammal Societies», Philosophical
Transactions of the Royal Society B: Biological Sciences 366: 1567, 2011, pp. 978–987.
[16]van Schaik, Carel, «Orangutan Culture and Its Cognitive Consequences»,
Culture Evolves, Royal Society, Londres, 28 de junio de 2010.
[17]Laland, Kevin N., «Animal Cultures», Current Biology 18: 9, 2008, pp. R366–
R370.
[18]Reader, Simon M., et al., «The Evolution of Primate General and Cultural
Intelligence», Philosophical Transactions of the Royal Society B: Biological Sciences 366:
567, 2011, pp. 1017–1027.
[19]Kropotkin (1972), pp. 30–31.
[20]Ibíd. p. 69.
[21]Taylor, Angela K., «Living Wih Other Animals», 105–109 en Halliday (1994).
CAPÍTULO 20. EL LINAJE HUMANO

La ciencia tiene pruebas sin ninguna certidumbre. Los creacionistas tienen


certidumbre sin ninguna prueba.

Ashley Montagu, 1905-1999

Árboles filogenéticos

Para representar la evolución biológica, incluyendo el linaje que lleva hasta el


hombre, los biólogos evolucionistas llegaron a la conclusión de que la mejor manera de
hacerlo era clasificando las líneas, o grupos de líneas, de la ascendencia evolutiva. El
concepto dio lugar a la subdisciplina de la cladística, que presenta estas relaciones a modo
de cladogramas, o árboles filogenéticos. La figura 20.1 muestra un ejemplo sencillo.

Si cada letra mayúscula representa una especie, en el punto w, o nodo, el punto


donde se encuentran dos ramas, la especie A se bifurca en las especies B y C. En el nodo x,
la especie B se bifurca en las especies D y E, mientras que en el nodo y, la especie C se
bifurca en la especie F y la especie G/H, y en el nodo z, la especie G/H se bifurca en las
especies G y H.
Así pues, las especies G y H comparten un antepasado común más reciente, G/H,
que el que comparten con F, mientras que G, H y F comparten un antepasado común más
reciente, C, que el que comparten con E o D.
D, E, F, G y H comparten algunos caracteres generales, lo que indica que, como
grupo de especies, todas han evolucionado a partir de un antepasado común lejano, A. A
menos que se diga lo contrario, la longitud de las ramas carece de importancia: lo único que
describen los árboles filogenéticos es la ramificación a partir de un antepasado común.
Idealmente, las clasificaciones taxonómicas linneanas tradicionales y los árboles
filogenéticos deberían producir grupos idénticos. Sin embargo, surgen diferencias por
distintos motivos, destacando entre ellos la interpretación de los fósiles o los desacuerdos
en cuanto a los caracteres a utilizar para determinar los grados de parentesco.
La biología ortodoxa adoptó el punto de vista de Woese, esbozado al final del
capítulo 16, que defiende que el análisis genético es un método de clasificación mucho más
preciso que el registro fósil, la morfología o cualquier otro caracter.[1] En la práctica, los
genetistas analizan en las distintas especies la proteína o el producto ARN de uno o más
genes homólogos (genes heredados de un antepasado común). Por ejemplo, en la edición de
2014 de la Encyclopedia Britannica Online, el antiguo presidente de la American
Association for the Advancement of Science, Francisco José Ayala, explica que en el
hombre y en el chimpancé, el citocromo c, una proteína implicada en la respiración celular,
consta de los mismos 104 aminoácidos y que, además, están dispuestos exactamente en el
mismo orden, pero que se diferencian del citocromo c del macaco Rhesus en un
aminoácido, del de los caballos en 11 aminoácidos adicionales y del de los atunes en 21
aminoácidos adicionales. «El grado de similitud refleja lo reciente que es el antepasado
comun».[2]
Los biólogos evolutivos fueron más lejos y desarrollaron la técnica del reloj
molecular, que asume que la mutación aleatoria por la sustitución de un nucleótido por otro
se produce a un ritmo lineal que puede ser calibrado a partir del registro fósil, lo que
permite calcular el momento de la bifurcación. En la figura 20.1, por ejemplo, si D, E, F, G
y H representan el momento actual, la longitud de la rama horizontal conectada a B
representaría el tiempo que hace que las especies D y E se bifurcaron de B.
Este enfoque neodarwinista se basa en cuatro supuestos:
1. Los genes homólogos pueden identificarse sin ambigüedades.
2. Las ramas del árbol filogenético solo se bifurcan con el tiempo y nunca vuelven a
juntarse.
3. La única causa de la evolución biológica es la acumulación gradual de
mutaciones genéticas.
4. El ritmo del cambio genético es lineal y refleja el ritmo de la evolución biológica.
Todos estos supuestos son cuestionables.
Como vimos en el capítulo 18, un gen no es simplemente una secuencia de ADN
que codifica para la producción de una proteína que determina un caracter del organismo.
¿Cómo podemos estar seguros de que el gen homólogo seleccionado es representativo del
organismo? ¿Cómo tiene en cuenta este enfoque factores como la velocidad de reparación
del ADN o el efecto de los alelos recesivos y la duplicación génica? ¿O la división de los
genes y los transposones? ¿O, lo que es más importante, la regulación génica, que controla
la expresión del gen y, por lo tanto, determina de qué consiste el organismo, su morfología
y, hasta cierto punto, su conducta?
Con el objetivo de reconstruir la historia evolutiva de un organismo, ¿cómo
decidirnos para escoger entre el genoma del núcleo y los genomas de la mitocondria de las
células animales o de los cloroplastos de las células de las plantas? ¿Hasta qué punto es
representativo de la especie el gen o genes escogidos de un organismo? ¿Cómo se tiene en
cuenta el tamaño de la población y el impacto de la deriva genética?
Más de veinticinco años antes de que en 2014 Ayala publicara en la Encyclopedia
Britannica el ejemplo del citocromo c, el bioquímico Christian Schwabe había destacado ya
las consecuencias de comparar diferencias moleculares en la relaxina, una hormona
peptídica responsable de dilatar la vagina de los mamíferos y, por lo tanto, de permitir el
nacimiento de descendencia con el cerebro más desarrollado y más grande (dependiendo de
hasta qué punto su gen está conectado). La secuencia de aminoácidos de la relaxina en el
hombre se diferencia de la que presentan del cerdo, la rata, el tiburón toro y la mielga en
una media del 55 por ciento. Por lo tanto, si el árbol evolutivo se construyera en base a los
cambios en la composición molecular de la relaxina, los mamíferos se habrían bifurcado de
los peces cartilaginosos (la clase que incluye los tiburones) o bien hace 450 millones de
años (fecha de los primeros fósiles de peces cartilaginosos) o bien hace 100 millones de
años (fecha considerada entonces como la de la aparición de los primeros fósiles de
mamíferos). Implicaría que los cerdos y las ratas habrían cambiado muy poco desde el
punto de bifurcación, mientras que la línea evolutiva que llevó hasta el hombre habría
mutado en un 55 por ciento. El registro fósil, por otro lado, muestra una enorme
divergencia en las especies mamíferas en los últimos 65 millones de años.
La conclusión de Schwabe fue la siguiente:
Parece desconcertante que existan tantas excepciones en la progresión ordenada de
las especies como las que determinan las homologías moleculares; tantas, de hecho, que
pienso que la excepción, las peculiaridades, podrían contener el mensaje más importante.[3]
En 2006, Jeffrey H. Schwartz, un antropólogo físico de la Universidad de
Pittsburgh, ofreció una crítica extensa y fulminante de los supuestos subyacentes, la
metodología, las evidencias de base y las conclusiones de la sistemática molecular. Según
su punto de vista, el «supuesto molecular» es biológicamente insostenible. No tiene en
cuenta las secuencias reguladoras que determinan la morfología en las eucariotas y «aparte
del punto de mutación inducido por la radiación ultravioleta, en el mundo físico no existe
otra fuente de mutación constante, y el porcentaje de mutación espontánea es bajo
(aproximadamente de 1 entre 10-8 y 10-9)», mientras que es mucho menos probable que la
mutación aleatoria se produzca en células germinales, las únicas que tienen consecuencias
evolutivas.[4]
Por lo tanto, interpretar la variación en la secuencia molecular no es evidente, ni
mucho menos. En la práctica, una bifurcación evolutiva dramática puede implicar tan solo
pequeños cambios en la secuencia, mientras que una bifurcación evolutiva menor puede
estar correlacionada con grandes cambios en la secuencia.
Además, ¿cómo tiene esta aproximación en cuenta la evolución de las especies más
numerosas del planeta —bacterias y arqueas— y la transferencia genética horizontal entre
especies alejadas? Según explicó en 2009 Mark Ragan, bioinformático de la Universidad de
Queensland, «Una cantidad sorprendente de árboles genéticos son, en parte,
topológicamente discordantes entre sí y/o con las relaciones aceptadas entre los
organismos».[5] Lo cual se hace eco de la observación que realizó en 2009 Ford Doolittle,
bioquímico de la Dalhousie University: «Me parece una perogrullada tediosa decir que
entre los árboles génicos procariotas hay mucha más incongruencia de la que podríamos
haber imaginado hace dos décadas».[6]
El objetivo de nuestro viaje es ver si la especie humana ha evolucionado y cómo lo
ha hecho, y sería agradable encontrar un árbol filogenético que trazara un mapa que
plasmara la evolución del hombre a partir de la primera forma viva que hubo en la Tierra.
Se han creado muchos árboles de este tipo, como el que se muestra en la figura 20.2,
descrito como «el árbol filogenético de la vida consensuado».
Pero todos los árboles son distintos porque se basan en datos distintos, supuestos
distintos, metodologías distintas, interpretaciones distintas y un registro fósil
irremediablemente pobre.
Los investigadores que utilizan análisis moleculares distintos y relojes moleculares
distintos ofrecen diferencias temporales significativas en bifurcaciones evolutivas idénticas.
Por ejemplo, las estimaciones sobre el momento en que se produjo la separación entre la
rama del género chimpancé Pan y el género humano Homo oscilan entre 2,7 y 13 millones
de años atrás.[7]
Estos árboles no tienen en cuenta la especiación que se produce a través de la
hibridación cuando se fusionan ramas filogenéticas, ni la especiación instantánea a través
de la poliplodía, ni la evolución de las especies más numerosas, las bacterias y las arqueas,
en las que el entrelazamiento o las transferencias genéticas horizontales entre distintas
especies juegan un papel primordial.
Taxonomía del linaje humano

En ausencia de un árbol filogenético consensuado, la tabla 20.1 es mi intento de


sintetizar los descubrimientos más recientes en el campo de la cladística, la citología, la
biología molecular, la genómica, la paleobiología, la paleontología, la bacteriología, la
biología evolutiva, la etología y la primatología para mostrar lo que conocemos del linaje
desde las primeras formas de vida de la Tierra hasta el hombre. Siempre que es posible, esta
taxonomía utiliza varios caracteres en vez de uno solo, y necesariamente recurre a juicios
de valor allí donde hay desacuerdos entre las distintas ramas de la biología y entre
especialistas dentro de cada rama. Estos desacuerdos tienen que ver, básicamente, en si hay
tres, cuatro, cinco o seis reinos (o grupos ancestrales equivalentes, lo que se conoce como
«clados») y en si dichos reinos tendrían que dividirse en un número inferior de súper-
reinos, o dominios. Por el bien de la consistencia con los capítulos precedentes del libro, la
tabla 20.1 utiliza la nomenclatura del sistema de tres dominios.
Merece la pena subrayar dos cosas: en primer lugar, que cuanto más nos alejamos
en el tiempo, mayor incertidumbre hay; y en segundo lugar que, a pesar de que las fronteras
que separan estos grupos taxonómicos señalan la aparición de innovaciones evolutivas,
igual que sucede con cualquier nueva emergencia, las fronteras siempre resultan confusas.
En los capítulos que siguen consideraré la causa, o causas de este patrón en la
evolución biológica.
[1] Véase página 446.
[2]Ayala (2014).
[3]Schwabe, Christian, «On the Validity of Molecular Evolution», Trends in
Biochemical Sciences, 11: 7, 1986, pp. 280–283.
[4]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A
Critique of Molecular Systematics», Biological Theory, 1: 4, 2006, pp. 357–371. Véase
también Schwartz, Jeffrey H. «Systematics and Evolution» en Encyclopedia of Molecular
Cell Biology and Molecular Medicine, editado por Meyer, R. A., Winheim: Wiley-VCH
Verlag, pendiente de publicación.
[5]Ragan, Mark A., et al., «The Network of Life: Genome Beginnings and
Evolution», Philosophical Transactions of the Royal Society B: Biological Sciences, 364:
1527, 2009, pp. 2169–2175.
[6]Doolittle, W. Ford, «The Practice of Classification and the Theory of Evolution,
and What the Demise of Charles Darwin’s Tree of Life Hypothesis Means for Both of
Them», Philosophical Transactions of the Royal Society B: Biological Sciences, 364: 1527,
2009, pp. 2221–2228.
[7]http://www.timetree.org/time_query.php?taxon_a=9606&taxon_b=9598.
Consultado el 18 de agosto de 2010.
CAPÍTULO 21. CAUSAS DE LA EVOLUCIÓN BIOLÓGICA: EL
RELATO ORTODOXO ACTUAL

Pienso que la naturaleza «roja en uñas y dientes» resume admirablemente nuestra


comprensión moderna de la selección natural.

Richard Dawkins, 1976

Antes de examinar hasta qué punto la actual ortodoxia neodarwinista explica la


causa del patrón que sigue la evolución biológica, es necesario comprender bien qué es la
evolución biológica. Para distinguir este proceso irreversible del concepto de cambio
adaptativo reversible (véanse páginas 448 a 450), utilizaré la definición siguiente:
Evolución biológica: proceso de cambio que experimentan los organismos y que da
como resultado una nueva especie.
La mayoría de biólogos evolutivos actuales fusionan, o incluso equiparan, evolución
con selección natural, pero por sí mismo, el término selección natural es una declaración de
lo evidente y no nos explica nada: los organismos que sobreviven y se reproducen son
aquellos seleccionados para sobrevivir y reproducirse. Con la supervivencia del mejor
adaptado sucede algo similar: los que sobreviven son los mejor adaptados para sobrevivir.
Estos términos solo tienen sentido si nos explican por qué se produce la evolución biológica
(la causa) o cómo tiene lugar (el mecanismo).
Muchos neodarwinistas afirman que la selección natural es la causa de la evolución
biológica. Por ejemplo, Luis Barreiro y sus colegas del Institut Pasteur de París, titularon un
documento publicado en 2008 en Nature Genetics como «Natural selection Has Driven
Population Differentiations in Modern Humans» [La selección natural ha impulsado las
diferenciaciones de población entre los humanos modernos],[1] mientras que la edición de
2014 de la Encyclopedia Britannica Online afirma que «La selección natural modera los
efectos desorganizadores de estos procesos porque multiplica la incidencia de las
mutaciones beneficiosas a lo largo de las generaciones y elimina las nocivas».[2] La
entrada de la Gale Encyclopedia correspondiente a Ernst Mayr es explícita: «El
neodarwinismo subraya la selección natural de diferencias genéticas en el seno de una
población como la causa fundamental de la evolucion».[3]
Verbos como «impulsar», «moderar», «multiplicar», «eliminar» y «seleccionar»
implican claramente causalidad, mientras que «seleccionar», en particular, implica además
un propósito. Esta descripción de la selección natural sigue el significado que Darwin le
aplicó al término, que utilizó «para subrayar su relación con el poder de selección del
hombre». Además, «se trata de un poder incesantemente listo para entrar en acción, y es
inmensurablemente superior a los débiles esfuerzos del hombre».[4]
En la selección artificial, un criador de palomas, por ejemplo, produce una paloma
blanca a partir de un grupo de palomas con variaciones de color. El criador humano es la
causa del efecto, que es una paloma blanca. Su mecanismo —cómo causa el efecto buscado
— consiste en seleccionar intencionadamente las palomas de color más claro para que se
crucen solo entre ellas durante generaciones sucesivas.
¿Cómo provoca la selección natural un efecto similar, si no «inmensurablemente
superior»? ¿Cuál es el mecanismo?
La mayoría de neodarwinistas contemporáneos niega que la naturaleza tenga algún
propósito o intención y, para ser lógicamente coherentes, no pueden tampoco decir que la
naturaleza selecciona ni que la naturaleza causa.
Un argumento de defensa habitual es argumentar que se trata de una declaración
metafórica. ¿Pero metafórica por qué?
Si se dice que es metafórica del mismo modo en que los físicos dicen que la
gravedad es lo que hace que una bola de acero lanzada desde un balcón caiga a la Tierra, se
plantea automáticamente una pregunta. Cumpliendo de forma excelente, la bola de acero
obedece la ley de la gravedad de Newton. Se trata de una ley natural, es decir, de una
afirmación sucinta y general capaz de ser verificada mediante observación o
experimentación y para la cual no se conocen resultados contrarios repetibles de que un
conjunto de fenómenos naturales se comporte invariablemente de una manera idéntica
dentro de unos límites especificados.[5] La pregunta que se plantea es la siguiente: ¿qué ley
natural se invoca para los fenómenos biológicos? No puede ser el llamado «principio
adaptativo» —la certidumbre, por lo que al modelo genético neodarwinista se refiere—
porque, como veremos más adelante, a lo largo de un periodo prolongado pueden
producirse cambios genéticos importantes sin que por ello se produzcan cambios
fenotípicos, por mucho que haya cambios medioambientales.
El paradigma actual

En el capítulo 16 explicamos de qué modo las ideas científicas de la evolución


biológica han acabado dando lugar a los seis principios del modelo neodarwinista y de
biología molecular que define el paradigma actual:[6]
1. Las especies vivas son descendientes de otras especies que vivieron en el pasado.
2. Las nuevas formas de vida surgen a partir de la división de un linaje en dos, un
proceso conocido como especiación en el que los miembros de un linaje son incapaces de
reproducirse con éxito con miembros del otro linaje. Esta división continua produce una
estructura anidada de especies, un «árbol genealógico» cuya raíz es la primera especie que
surgió y cuyas ramas vivas son la inmensa cantidad de especies actuales. Rastreando
cualquiera de las ramas de las especies modernas llegamos a un antepasado común,
representado por el nudo del árbol en el que las ramas coinciden.
3. Esta evolución de nuevas especies se produce mediante una transformación
genética gradual de las poblaciones a través de los miembros individuales de la especie y a
lo largo de miles de generaciones.
4. Esta transformación da como resultado mutaciones genéticas aleatorias en los
individuos, la combinación de genes los progenitores en la reproducción sexual que lleva a
que cada descendiente posea una combinación de genes distinta a la de sus padres, y la
posterior diseminación de estas mutaciones genéticas a lo largo de las sucesivas
generaciones a través del acervo génico de la población.
5. Aquellas mutaciones genéticas aleatorias, o variaciones, responsables de los
caracteres que permiten que determinados individuos de la población compitan con éxito
por los recursos en un entorno determinado, y con ello logren sobrevivir más tiempo y tener
más descendientes, se seleccionan naturalmente al ser heredadas en mayores cantidades,
mientras que los miembros de la población que no presentan las mutaciones genéticas
responsables de los caracteres adaptativos para el entorno, acaban pereciendo en manos de
los demás, mueren de hambre o se extinguen gradualmente.
6. La información es un flujo unidireccional que va desde el gen hasta la proteína de
la célula.
Según estos principios, las causas de la evolución biológica son mutaciones
genéticas aleatorias que comúnmente se atribuyen a errores de copia en la replicación del
ADN para producir gametos (óvulos o espermatozoides), a la competencia por los recursos
limitados del entorno entre miembros de una población creciente, lo que permite que los
competidores que vencen vivan más tiempo y produzcan más descendencia con sus genes
mutados, y a la reproducción sexual que disemina estas mutaciones en el acervo génico de
la población a lo largo de decenas o centenares de miles de generaciones, hasta que los
miembros de esa población ya no son capaces de reproducirse con éxito con los miembros
de la población original.
De hecho, es más probable que las mutaciones genéticas estén causadas por la
radiación y los productos químicos, además de por la reparación celular inadecuada de los
daños sufridos por el ADN, que por los errores de copia, errores que los procesos de
reparación celular suelen corregir. Los porcentajes de mutación espontánea suelen ser
bajos, aproximadamente de 1 entre 10-8 a 10-9, mientras que la mutación aleatoria es
mucho menos probable que se produzca en gametos.[7]
Si la selección natural es algo más que una afirmación de lo evidente es, como
mucho, un registro pasivo de los efectos causados por otras cosas.
Selección natural: el efecto acumulativo de pequeñas variantes, producidas
aleatoriamente y heredadas a lo largo de muchísimas generaciones, que permite a los
organismos sobrevivir más tiempo en un entorno particular y reproducirse en mayor
cantidad que los organismos que no poseen estas variantes; da como resultado un
incremento en el número de las variantes favorables, o mejor adaptadas, a ese entorno y la
eliminación de las variantes desfavorables.
Según el darwinismo, las variantes favorables son aquellos caracteres observables
(el fenotipo) de los organismos que les permiten competir de manera más efectiva por los
recursos limitados y, en consecuencia, estar mejor adaptados a un nicho medioambiental
particular. Según el neodarwinismo, las variantes favorables son mutaciones genéticas en el
acervo génico de la población de una especie.
En 2006, Jerry Coyne, de quien están extraídos los primeros cinco principios del
neodarwinismo moderno, declaró que:
Una buena teoría científica da sentido a una amplia cantidad de datos que hasta
entonces eran inexplicables. Además, una teoría científica debe realizar predicciones
verificables y ser vulnerable a la refutación […]. Todo fragmento de información que
hemos recopilado sobre la naturaleza está en consonancia con la teoría de la evolución, y no
existe ni una pizca de evidencia que la contradiga. El neodarwinismo, como la teoría de los
enlaces químicos, se ha graduado de teoría a hecho [la cursiva es mía].[8]
A destacar que Coyne equipara la teoría de la evolución con el neodarwinismo. Si
está en lo cierto, el neodarwinismo debería explicar todas las evidencias, realizar
predicciones verificables y ser vulnerable a la refutación. ¿Es así?
Lo que la ortodoxia neodarwinista no consigue explicar

Las evidencias revisadas en los cuatro capítulos anteriores muestran varios patrones
que el neodarwinismo no explica y muchos que lo refutan.
Estasis y especiación rápida

En contraste con el gradualismo esencial del neodarwinismo, el capítulo 17 llegó a


la conclusión de que:
El patrón normal de las evidencias fósiles de animales es de estasis morfológica con
cambios menores, y a menudo oscilantes, puntuados por la aparición geológicamente súbita
(decenas de miles de años) de nuevas especies, que permanecen luego en estado
básicamente invariable durante decenas o incluso cientos de millones de años hasta que
desaparecen del registro fósil o siguen vigentes hasta la actualidad.[9]
Ernst Mayr, uno de los arquitectos del modelo neodarwinista, reconoció en 2001
que «la paralización completa, o estasis, de un linaje evolutivo durante veintenas, o cientos,
de millones de años, es muy sorprendente».[10]
Peter G. Williamson, geólogo de la Universidad de Harvard, lo dijo aún más claro:
Una teoría es solo buena si sus predicciones son buenas, y el neodarwinismo
convencional, que afirma ser una explicación completa del proceso evolutivo, no ha
conseguido predecir la estasis generalizada y prolongada que hoy en día reconocemos como
uno de los aspectos más asombrosos del registro fósil.[11]
Inconsistente también con el modelo gradualista neodarwinista es la especiación,
muy rápida desde un punto de vista geológico.
Especiación

A partir de todas las evidencias examinadas en el capítulo 18, no existe ningún


estudio de las especies vivas que muestre la evolución de nuevas especies según el
mecanismo neodarwinista.
Especiación inmediata: poliploidía

El modelo neodarwinista define una especie como una rama del árbol evolutivo que
se separa de otra rama y cuyos miembros son incapaces de reproducirse con éxito con
miembros de esa otra rama. El único ejemplo inequívoco de este tipo de especiación,
independientemente de si se consigue mediante selección artificial o de si se observa en la
naturaleza, es la poliploidización en plantas y en algunos peces, anfibios, reptiles e incluso,
mamíferos. Este incremento en el número normal de cromosomas por célula produce una
nueva especie inmediatamente, no gradualmente a lo largo de miles de generaciones, lo que
contradice el mecanismo neodarwinista. El fenómeno está seguramente más extendido de lo
que en general se supone.[12]
Reproducción asexual

La abrumadora mayoría de especies del planeta no se reproduce sexualmente y


transmite las mutaciones genéticas verticalmente, de padres hijos. La mayoría son
organismos de célula única —procariotas (bacterias y arqueas) y eucariotas unicelulares—
que se replican produciendo clones de sí mismos.[13]
Transferencia genética horizontal

Muchas procariotas experimentan una transferencia genética horizontal cuando


ganan ADN a partir de su entorno, vía agentes como los virus o a través del contacto directo
con otros organismos.[14]
Coyne y su colaborador, H. Allen Orr, defienden que este intercambio de genes es
esencialmente el mismo que el intercambio y la transmisión de genes a través de la
reproducción sexual. Sin embargo, en este último caso, la transmisión es vertical, de padres
a hijos. La transferencia genética horizontal no solo tiene lugar entre miembros de la misma
generación, sino también, en algunos casos, entre especies muy distintas.
La transferencia horizontal de genes puede dar al receptos funciones adicionales
inmediatas, lo cual tiene un valor para la supervivencia que puede ser negativo, neutro o
positivo, algo que cada vez se considera más importante en la evolución de las bacterias y
las arqueas.
Además, si la incorporación de bacterias previamente independientes seguida por
una transferencia horizontal de genes al genoma nuclear, como los biólogos evolutivos
aceptan en la actualidad, da como resultado orgánulos en las células eucariotas, la
transferencia horizontal de genes también habría jugado un papel muy importante en la
evolución de las eucariotas.
Mientras que se estima que un 81 +/- 15 por ciento de los genomas procariotas son
resultado de la transferencia genética horizontal,[15] la cantidad inferior de genomas
eucariotas secuenciados hace difícil estimar con precisión la contribución de las
transferencias genéticas horizontales en las eucariotas. Sin embargo, un estudio llevado a
cabo en 2007 sobre una bacteria que vive en el interior de insectos y gusanos nematodos,
descubrió importantes transferencias de genes heredables hacia los genomas del anfitrión.
[16] Otros estudios han demostrado que en hongos y plantas se produce la adquisición de
genes procedentes de bacterias y eucariotas. Además, en la hibridación de plantas y
animales se producen transferencias genéticas horizontales masivas.[17]
Todos estos ejemplos demuestran que no solo las procariotas, sino también las
eucariotas pluricelulares, adquieren genes capaces de afectar su supervivencia y su
evolución en formas distintas a la propuesta por el modelo ortodoxo neoodarwinista de
transmisión vertical de mutaciones aleatorias a lo largo de muchas generaciones.
Embriología y desarrollo del organismo

El modelo ortodoxo no explica qué es lo que causa que una única célula formada
por la fusión de un espermatozoide y un óvulo se replique en un cúmulo de células con
genoma idéntico, que se diferencian después en células con funciones específicas que
forman un embrión, que a continuación se desarrolla, en el caso de los humanos, en un
cuerpo independiente que puede ser macho o hembra y que pesa como media entre 75 y 85
kilos, en el caso del adulto macho, y entre 55 y 65 kilos, en el caso del adulto hembra,
posee dos piernas para caminar erecto, dos brazos y una cabeza que contiene el objeto más
complejo del universo conocido, un cerebro humano.
El descubrimiento de genes reguladores del desarrollo, como la familia Hox, que
determinan el desarrollo de las distintas partes del cuerpo en prácticamente todos los
animales bilaterales estudiados hasta el momento, no explica este fenómeno. Estos genes,
que organizan una cascada de sucesos de expresión genética, son muy similares en la mosca
de la fruta, los gusanos, los peces, las ranas y los mamíferos. El modelo ortodoxo no
explica qué es lo que provoca que estos genes se pongan en funcionamiento o por qué
activan cascadas de sucesos distintas para producir los planes orgánicos tan distintos que
producen moscas de la fruta, gusanos, peces, ranas y mamíferos.
Genotipos y fenotipos

El modelo ortodoxo tampoco explica un fenómeno relacionado: hay especies con


genes muy similares que poseen fenotipos muy distintos. Por ejemplo, el hombre comparte
el 94 por ciento de sus genes con el chimpancé, el 90 por ciento con la rata e incluso el 85
por ciento con el pez cebra, de entre 4 y 6 centímetros de longitud,[18] mientras que
algunas especies de la mosca de la fruta son muy distintas genéticamente pero muy
similares desde un punto de vista morfológico.
ADN «basura»

Como se apuntó al final del capítulo 16, durante cerca de cincuenta años, los
neodarwinistas, centrados siempre en el gen, descartaron como basura el 98 por ciento del
genoma humano que no estaba integrado por genes, puesto que no tenía cabida en su
modelo. Una postura arrogante, puesto que ahora sabemos que alrededor del 80 por ciento
de este ADN muestra signos de actividad funcional; gran parte del mismo parece estar
implicado en redes reguladoras colaborativas.[19]
Muchos defensores del actual modelo ortodoxo argumentan que las regiones del
ADN que no codifican proteína siguen siendo ADN y, por lo tanto, están sujetas a mutación
y selección natural del mismo modo que las regiones codificantes. Sin embargo, en 2007,
Michael Lynch, profesor distinguido de Biología de la Indiana University, revisó la
evolución de las redes genéticas y llegó a la conclusión de que, contrariamente a la creencia
extendida, no existen evidencias empíricas ni teóricas de que haya rasgos de las vías
genéticas que estén fomentados por la selección natural.[20]
Herencia de caracteres adquiridos

En el capítulo 16 se habló también de que una de las consecuencias de la adopción


del modelo neodarwinista por parte de los biólogos fue el rechazo de otras causas de la
evolución, incluyendo entre ellas la herencia lamarquiana de caracteres adquiridos, que
Darwin sí había aceptado.
Sin embargo, y sobre todo desde que hacia finales del siglo pasado se consiguió
secuenciar genomas completos, las evidencias de este fenómeno empezaron a acumularse.
En 2005, por ejemplo, Matthew Array y sus colegas de la Washington State University
demostraron que si se exponía a ratas embarazadas a un fungicida muy utilizado en
agricultura llamado vinclozolina, los machos de su descendencia mostraban importantes
porcentajes de infertilidad. Este rasgo se transmitía a través de la línea germinal masculina
a prácticamente todos los machos de las generaciones siguientes examinadas, sin que
hubiera ningún cambio genético implicado.[21]
Para todo tipo de animales, incluyendo el hombre, está cada vez más claro que
determinados factores medioambientales, como la dieta o el estrés, pueden producir
caracteres que se transmiten a la descendencia sin que tenga lugar ni un solo cambio en las
secuencias genéticas.
Los genetistas teóricos Eva Jablonka y Gal Raz, de la Universidad de Tel Aviv,
recopilaron ejemplos de herencia no genética de caracteres adquiridos: 12 en bacterias, 8 en
protistas, 19 en hongos, 38 en plantas y 27 en animales. Eran a menudo menos estables que
los caracteres asociados con variaciones genéticas pero, según Jablonka y Raz, los ejemplos
representan tan solo una fracción muy pequeña de toda la herencia no genética que
probablemente existe.[22]
Creo que Marilyn Monk, bióloga especializada en embriología del Institute for
Child Health de UCL, tiene razón cuando concluye que todos estos cambios hereditarios,
que se ha demostrado que han sido inducidos por factores medioambientales, no solo
desafían el sexto principio del actual paradigma, el «dogma central» de que la información
es un flujo unidireccional que va de un gen a la proteína de una célula, sino también el
cuarto y el quinto principio, que declaran que el único mecanismo de la evolución biológica
es la selección natural de mutaciones genéticas generadas aleatoriamente.
Colaboración

Otra consecuencia de adoptar el modelo neodarwinista, apuntada en el capítulo 16,


era ignorar la evolución como causa de la evolución. Sin embargo, el examen de la
conducta realizado en el capítulo 19, llevó a la conclusión de que:
La colaboración juega un papel más relevante que la competencia en la
supervivencia y en la propagación de la vida, desde el nivel de los genes hasta los
organismos unicelulares, en los orgánulos de las células eucariotas, en las células eucariotas
de los organismos pluricelulares, y en la conducta de plantas y animales, desde los insectos
hasta los primates.
Según dijo en 2011 Stuart West, biólogo evolutivo de la Universidad de Oxford,
«Explicar la aparente paradoja de la cooperación es uno de los problemas centrales de la
biología, puesto que prácticamente todas las transiciones evolutivas importantes, desde la
replicación de moléculas hasta las sociedades animales más complejas, han dependido de
solucionar este problema».[23]
Ha sido el problema central de la biología desde que la mayoría de biólogos adoptó
el modelo neodarwinista, puesto que la única conducta consistente con ese modelo es la
competencia. Los intentos de explicar la conducta colaborativa y altruista según los
axiomas del neodarwinismo dieron origen a una nueva subdisciplina: la sociobiología. En
un capítulo posterior consideraré intentos como las hipótesis complementarias al modelo
neodarwinista.
Complejidad progresiva

Otra conclusión importante del capítulo 17 es que el patrón general del registro fósil
a lo largo del tiempo va de lo sencillo a lo más complejo; las evidencias de animales que
tenemos disponibles indican que la complejidad va en aumento a lo largo de todos los
linajes, lo cual se hace claramente patente en el linaje que conduce hasta el hombre. Las
evidencias del capítulo 18 muestran que las especies vivas constituyen un patrón de
complejidad progresiva que va desde las bacterias hasta el hombre. Los estudios de
conducta repasados en el capítulo 19 demuestran que, a medida que la complejidad de la
especie se incrementa, desde los peces hasta los primates, el aprendizaje social se
incrementa a su vez para complementar la conducta instintiva; esto se correlaciona
asimismo con un incremento de la complejidad del cerebro junto con un incremento de la
inteligencia, atestiguado por las soluciones cada vez más innovadoras a los problemas.
A pesar de que Darwin había concluido con que «Como la selección natural obra
solamente por y para el bien de cada ser, todos los atributos corpóreos y mentales tenderán
a progresar hacia la perfección».
Según Francis Heylighen, cibernético y teórico de la complejidad interdisciplinaria:
[24]
Igual que Maynard Smith y Szthmary, en sus estudios sobre las principales
transiciones en la evolución, [los biólogos evolutivos] se sienten obligados a defender de
boquilla la ideología [relativista] apuntando la «falacia» de creer que existe algo como el
progreso o el avance hacia un incremento de la complejidad, y describiendo luego con
detalle los ejemplos de este incremento que han estudiado.[25]
Antes de examinar las objeciones al patrón de incremento de la complejidad,
intentaré minimizar los malentendidos que surgen a partir de los distintos significados que
se otorgan a una misma palabra. Teóricos de sistemas, teóricos de autómatas, teóricos de la
información, teóricos de la complejidad, cibernéticos, biólogos evolutivos, especialistas en
el genoma, etólogos y otros, definen la complejidad de distintas maneras. Cada uno de ellos
se centran en aspectos distintos —cualitativos, cuantitativos, estructurales (subsistemas
incrustados en supersistemas) o funcionales (niveles de proceso o control de la
información)— de la complejidad. A nadie sorprende, por lo tanto, que los resultados sean
distintos.
Intentaré ser objetivo y concentrarme en el bosque y no en el árbol y utilizar una
definición abstracta, que espero sea del agrado de la mayoría de especialistas.
Complejo: un todo compuesto de distintas partes interrelacionadas.
Complejidad: cualidad de ser complejo.
Aumento de la complejidad: el proceso que hace que algo sea cada vez más
complejo.
A partir de esa definición, se entiende que cada parte es necesariamente más simple
que el todo que incluye varias de esas partes. Prácticamente todos los objetos físicos del
universo son complejos y forman jerarquías anidadas de incremento de la complejidad,
desde las partículas subatómicas hasta los átomos, las moléculas, los organismos
unicelulares, los organismos pluricelulares, hasta las sociedades de organismos. Además,
está generalmente aceptado que, en la historia del universo, los componentes más simples
aparecieron antes que los sistemas compuestos y más complejos. Es lógico: normalmente,
es imposible construir un sistema de orden más elevado, como una molécula, a partir de sus
partes constituyentes, en este caso los átomos, sin que dichas partes constituyentes se hayan
creado. Por lo tanto, la evolución conduce hacia sistemas cada vez más complejos y va
añadiendo gradualmente más niveles de jerarquía. Lo que causa este este fenómeno
evolutivo ya es otra historia. Las causas pueden ser distintas en distintas transiciones
evolutivas, y es por ello que considero que, en el mapa de la trayectoria de la evolución,
resulta sensato distinguir entre el fenómeno y su causa.
Si examinamos el fenómeno de incremento de la complejidad utilizando los
métodos de la ciencia, resultará útil medirlo. Considero que la mejor medida la ofrece el
número de partes multiplicado por el número de conexiones. En el caso de los seres vivos,
sin embargo, no disponemos de todos los datos.
El biólogo evolucionista, James Valentine, y sus colegas de la Universidad de
California, Berkeley, utilizaron la cantidad de tipos de célula no «para medir la complejidad
en sí, sino […] simplemente a modo de índice de complejidad [morfológica]»,
reconociendo que «sin duda estamos agrupando células que poseen diferencias bioquímicas
y, a buen seguro, funcionales». Este índice omite además las conexiones entre células del
mismo y de distintos tipos, y cosas como la complejidad de conducta. Pero de todos modos,
sirviéndose de solo una medida de complejidad morfológica y contrastándola a partir de la
primera aparición en el registro fósil de un rango del taxón de los animales, Valentine
descubrió una progresión en la complejidad de las familias más primitivas en cada taxón,
desde las Porifera (esponjas) hasta la más reciente, Homínidos, incluso agrupando las
distintas neuronas como un único tipo de célula.[26]
Sin embargo, tal y como observó el biólogo evolucionista de Princeton, John Tyler
Bonner: «Entre los biólogos se da un interesante punto ciego. A pesar de que admitimos sin
dilación que los primeros organismos eran similares a bacterias y que el organismo más
complejo que existe es el nuestro, se considera malas formas aceptar esto como algún tipo
de progresión».[27]
Las objeciones son tanto con respecto al fenómeno de la progresión (el patrón de
incremento de complejidad que se observa en la evolución biológica) como con respecto a
lo que implica el progreso (los resultados de mejora que provoca esa progresión).
A pesar de solaparse, los argumentos contra el incremento de complejidad pueden
agruparse en los nueve que se ofrecen a continuación, seguidos con la respuesta a cada uno
de ellos.
a. La evolución biológica está causada por la selección natural que actúa mediante
mutaciones aleatorias de origen genético y, por lo tanto, no puede haber un patrón de
incremento de complejidad.
La deducción a la que se llega no se deduce por su premisa. No hay razón por la que
la selección natural que actúa mediante mutaciones aleatorias no pueda dar un incremento
de complejidad (si la selección natural actúa para causar la evolución biológica es otra
cuestión que se ha considerado en un momento anterior de este mismo capítulo).
b. La evolución biológica es consecuencia de resultados accidentales de sucesos
fortuitos; no existe ningún patrón de progresión evolutiva.

El paleontólogo Stephen Jay Gould presentó este argumentó después de aseverar


que la selección natural es «un principio de adaptación local, no de avance o progreso
general».[28] Y eso sigue a su conocida afirmación de que si la cinta de la vida se repitiera,
siempre produciría resultados distintos. En consecuencia «El hombre surgió […] como el
resultado fortuito y accidental de miles de sucesos vinculados, cualquiera de los cuales
podría haberse producido de otra manera y haber enviado la historia hacia un camino
alternativo que no nos habría llevado hasta la consciencia».
Esta objeción a un patrón de incremento de la complejidad es similar al anterior,
donde las mutaciones aleatorias se ven sustituidas por los sucesos fortuitas. Padece la
misma falacia.
Gould intenta sustentar su argumento citando como evidencias cuatro casos entre
una multitud de sucesos fortuitos y resultados accidentales. Por ejemplo, «Si un pequeño
linaje de primates no hubiera evolucionado hacia la posición erecta en las sabanas africanas
afectadas por la sequía hace tan solo entre dos y cuatro millones de años, nuestro
antepasado podría haber terminado en un linaje de monos que, como el chimpancé y el
gorila hoy en día, habría pasado a ser ecológicamente marginal y estaría seguramente
abocado a la extinción».
Pero el entorno cambió y la bipedestación evolucionó. Decir que la bipedestación
podría no haber evolucionado porque el entorno podría no haber cambiado es ignorar las
evidencias y caer en la especulación: también podríamos especular que la Tierra podría no
haberse formado nunca a partir de la materia que envolvía el sol después de su formación.
En este sentido, todo es accidental y consecuencia de sucesos fortuitos que se han ido
produciendo desde el origen del cosmos. Afirmar que cualquier suceso podría haberse
producido de una manera distinta nos conduce hacia el concepto del multiverso, que no es
verificable; estamos ante una conjetura filosófica, no ante ciencia.
c. El patrón de evidencias no es de incremento de la complejidad sino de equilibrio
puntuado.

Esta objeción escala a in mega nivel la hipótesis del equilibrio puntuado de


Eldredge y Gould. Según Gould, el patrón es de tres mil millones de años de organismos
unicelulares seguidos por los cinco millones de años de explosión cámbrica con el
florecimiento de filos, mientras que «la posterior historia de vida animal se remonta a poco
más que variaciones sobre los temas anatómicos establecidos durante la explosión
cámbrica».[29]
Esto, sugiero, simplifica en exceso el patrón. Describir los últimos 540 millones de
años como poco más que variaciones sobre los temas anatómicos establecidos durante los
cinco millones de años de explosión cámbrica entra en conflicto con algo que dice el autor
en el mismo artículo: «Nadie puede dudar que secuencialmente, después del inicio
procariota, surgen criaturas más complejas: primero células eucariotas, hará cuestión de
unos dos mil millones de años, luego animales pluricelulares hace unos seiscientos millones
de años, con un relevo de mayor complejidad entre los animales, pasando de los
invertebrados a los vertebrados marinos y, finalmente […] a los reptiles, los mamíferos y el
hombre».
Además, equipara complejidad con complejidad anatómica e ignora las
complejidades genómicas, de desarrollo, conductuales, neurales, de comunicación y
cognitivas que han evolucionado a lo largo de la historia de la vida. La tabla 17.3 muestra
no solo estos incrementos en complejidad, sino también, en el linaje que llega hasta el
hombre, que el ritmo de incremento de la complejidad se acelera.
d. La evolución biológica no muestra un incremento general de complejidad.

Esta objeción acepta que la evolución biológica ocasiona especies más complejas
pero argumenta, en palabras de Gould, que existe «constancia de complejidad modal a lo
largo de toda la historia de la vida».[30]
Dicho de forma muy sencilla, teniendo en cuenta que los organismos más
numerosos, los procariotas, son los más simples, si calculáramos la complejidad media de
todas las especies que viven en la Tierra en cualquier punto determinado del tiempo, el
astronómico número de procariotas resultante empequeñecería el número de organismos
más complejos y, por lo tanto, reduciría casi a cero su contribución a la complejidad
general.
A pesar de ser un argumento estadísticamente correcto, es engañoso. Igual que
existe una cantidad astronómicamente superior de procariotas que de animales, también
existe una cantidad astronómicamente superior de moléculas que de procariotas, una
cantidad astronómicamente superior de átomos que de moléculas y una cantidad
astronómicamente superior de partículas fundamentales que de átomos. En cualquier
momento de la historia del universo existe una «constancia de complejidad modal»
estadística, representada por las partículas fundamentales. Pero esto no significa que el
universo haya permanecido en una constancia de partículas fundamentales a lo largo de
toda su historia y no haya progresado hacia estructuras más complejas.
e. La evolución biológica no muestra ningún patrón de incremento de complejidad;
algunos organismos complejos evolucionan hacia organismos más simples.

Es lo que se conoce como evolución regresiva y su ejemplo icónico es el pez


cavernario. Existen especies de peces con poblaciones que viven en aguas abiertas y
también en cuevas sin luz. Estos últimos, que se supone que han evolucionado a partir de
los primeros, son ciegos y sin color: se han vuelto más simples.
Cuando los biólogos evolutivos Richard Borowsky y Horst Wilkens examinaron
este fenómeno en 2002, descubrieron que los cambios que se producen en la evolución
regresiva no se distinguen en nada a los que se producen en la evolución constructiva: las
frecuencias alélicas y los estados de carácter se alteran con el tiempo. Pero las variantes que
viven en cuevas muestran también evolución constructiva, como un aumento en
capacidades sensoriales distintas a la vista o un incremento en la eficiencia metabólica; son
adaptaciones a su nuevo entorno.[31] Por lo tanto, a pesar de que han perdido algunas
funciones en comparación con sus progenitores de aguas abiertas, adquieren otras. En
términos generales, no se han convertido en organismos más simples.
Los parásitos se citan también como ejemplos de evolución regresiva, y una vez
más, un estudio en detalle muestra que la situación no es ni mucho menos tan clara como
suele exponerse. El ejemplo más estudiado es el de los rombozoos, parásitos minúsculos
que viven en los riñones de cefalópodos como el pulpo, el calamar y la sepia. El cuerpo de
estos parásitos consta de entre 10 y 40 células, una cantidad inferior a la de cualquier otro
metazoo (animales), y están organizados de forma muy simple: no tienen cavidades
orgánicas ni órganos diferenciados. Según Hidetaka Furuya, de la Universidad de Osaka,
seguramente la mayor autoridad mundial en rombozoos, «No tenemos todavía claro si los
rombozoos son organismos primitivos pluricelulares o metazoos degenerados».[32]
Incluso si se identificaran de forma inequívoca algunos casos de evolución regresiva
neta permanente, no negarían el patrón general del incremento de complejidad biológica.
f. El patrón implica progreso: lo cual introduce un juicio de valor, algo que no tiene
cabida en la ciencia, que se ocupa de recopilar hechos de manera objetiva y de extraer
conclusiones lógicas e hipótesis de los patrones descubiertos.

El progreso, a diferencia de la progresión, implica un juicio de valor. Pero decir que


los juicios de valor no tienen cabida en la ciencia no es cierto. Más bien al contrario, la
ciencia no funcionaría sin juicios de valor: qué datos examinar, cómo interpretar los datos,
qué conclusiones extraer, qué supuestos deberían realizarse al extraer conclusiones, hasta
qué punto son tentativas o robustas las conclusiones, es una hipótesis mejor que otra para
explicar los datos, hasta qué punto los datos entran en conflicto o sustentan la actual teoría,
etc.
g. Cualquier patrón de incremento de complejidad, o de inteligencia, o de cualquier
otro criterio diseñado por el hombre, que muestre que el hombre es el más complejo, el
más inteligente, etc. es antropocéntrico.

Uno de los fundadores del neodarwinismo, George Gaylord Simpson, respondió


sucintamente a esta objeción: «Descartar de antemano esta conclusión simplemente porque
nosotros mismos estamos implicados, es tan antropocéntrico y tan poco objetivo como sería
aceptarla por el mero hecho de que satisface nuestro ego».[33] La tarea del científico que
estudia la evolución biológica como un todo consiste en aplicar en la medida de lo posible
los mismos criterios (por ejemplo el número de tipos de células) a todas las especies,
humanos incluidos.
No hace falta decir que identificar a los humanos como la especie más compleja
conocida no implica que el hombre ocupe la cúspide, o punto final, de la evolución, sino
que simplemente es el individuo más complejo hasta el momento.
h. El proceso de incremento de la complejidad no es progresivo: es preferible un
sistema más simple a uno más complejo, que es una aberración.

El bioquímico William Bains articuló este argumento después de reconocer que el


paso del tiempo evolutivo va acompañado por la aparición de estructuras que tienen una
complejidad morfológica y funcional mayor, pero argumenta que «En ningún otro marco de
trabajo teórico se considera que la complejidad sea algo necesariamente más avanzado que
la simplicidad», y llega a la conclusión de que «el hombre es una aberración “no
evolucionada” de una biosfera mucho más simple y eficiente».[34]
Aquí, la principal falacia es invocar el argumento generalizado de que los sistemas
más simples son más eficientes que los complejos y no comparar peras con peras y
manzanas con manzanas. La inmensa mayoría de las bacterias y arqueas que observamos en
la actualidad no son las mismas que existieron hace dos o tres mil millones de años, cuando
la Tierra era muy distinta y carecía de oxígeno. Aquellas procariotas evolucionaron
formando nuevas especies para enfrentarse a cada nuevo estrés medioambiental que planteó
el amplio abanico de nichos medioambientales que fueron desarrollándose en la Tierra en
evolución, dando como resultado la inmensa cantidad de especies de este tipo que hoy en
día conocemos. Los animales, por otro lado, evolucionaron como especies más complejas,
capaces de enfrentarse con diversas condiciones de estrés medioambiental.
Uno de los linajes produjo la especie más compleja que conocemos. El Homo
sapiens es capaz de sobrevivir más tiempo y a distintas situaciones de estrés
medioambiental que cualquier otra especie menos compleja. Es la única que ha hecho de
todo el planeta su hábitat. Sirviéndose de un cerebro tremendamente complejo, ha sido
capaz de concebir maneras de sobrevivir en cualquier lugar de la superficie del planeta, en
todo tipo de condiciones medioambientales, a varios kilómetros por debajo de la superficie,
tanto bajo el mar como bajo tierra, y en el espacio exterior. Ha extendido la esperanza de
vida de sus miembros concibiendo y aplicando la ciencia médica y ha empezado a alterar su
propia estructura genética mediante la terapia genética.
Ninguna otra especie animal, y mucho menos ninguna especie de bacteria o arquea,
posee estas dotes de supervivencia. Según el criterio del neodarwinismo de que los
miembros de las especies de más éxito son los mejores adaptados para la supervivencia,
todo esto significa progreso.
i. En la evolución biológica no hay progreso.

En 1988, Matthew Nitecki editó un libro titulado, tal vez con cierta ironía,
Evolutionary Progress [Progreso evolutivo], en el que llegaba a la siguiente conclusión: «El
concepto de progreso ha sido prohibido en la biología evolutiva por ser considerado
antropomórfico o, en el mejor de los casos, por su utilidad limitada y ambigua».[35]
Según uno de los autores que contribuyeron en la publicación, Stephen Jay Gould,
«El progreso es un concepto nocivo, culturalmente arraigado, no verificable, no operativo e
intratable que debería ser sustituido si queremos comprender los patrones de la historia».
[36]
De un modo menos polémico, Bains articuló su punto de vista en otra publicación
haciendo la siguiente pregunta retórica: «¿Existe una razón a priori para distinguir
cualitativamente los caracteres recientemente adquiridos por el hombre, como podrían ser
la inteligencia y la talasemia, de los de la E. coli, como podría ser el operón Lac?»[37]
La respuesta es sí. La inteligencia humana es una capacidad que en diversos grados
poseen todos los miembros de la especie. Es distinta cualitativamente a la talasemia, que es
una enfermedad relativamente rara en los humanos resultante de un defecto genético
heredado que suele ser recesivo en ambos progenitores. Ambos caracteres son
cualitativamente distintos del operón Lac, que es un sistema regulador genético para el
metabolismo de la lactosa en la bacteria E. coli. Insinuar que una capacidad general entra
en la misma categoría que una enfermedad rara o tres genes es una falacia lógica.
Bains prosigue aseverando que «el valor de la inteligencia para la supervivencia
sería complicado de defender aun en el caso de que pudiéramos decidir qué es la
inteligencia».
Consideraré la inteligencia en más detalle más adelante. Basta decir por el momento
que la inteligencia permitió a los primeros humanos elaborar utensilios más complejos y
eficientes con los que defenderse contra depredadores más grandes y fuertes que ellos y
aumentar su éxito en la caza para procurarse alimento, construir refugios para protegerse de
los elementos hostiles, confeccionar prendas con las pieles de sus presas para mantenerse
abrigados, hacer fuego para calentarse, ahuyentar a los depredadores y cocinar alimentos, y
plantar y cultivar cosechas para alimentarse mejor que con la caza y recolección, entre
muchas otras habilidades de supervivencia.
A pesar de que la mayoría de neodarwinistas contemporáneos rechazan el concepto
de progreso evolutivo, los fundadores del neodarwinismo no eran del mismo parecer. Más
bien al contrario, reconocían que el mayor progreso era el observado en las especies
humanas. Mayr esbozó las fases de este progreso:
¿Quién puede negar que, en general, existe un avance desde las procariotas que
dominaron el mundo de los seres vivos hace más de tres mil millones de años hasta las
eucariotas, con su núcleo bien organizado, sus cromosomas y sus orgánulos
citoplasmáticos; desde las eucariotas unicelulares hasta los metafitos y los metazoos y hasta
[…] [los animales de sangre caliente] con un importante sistema nervioso central,
desarrollo parental altamente desarrollado y la capacidad de transmitir información de
generación en generación?[38]
Incluso Simpson, siempre más escéptico, llegó a la siguiente conclusión:
Sin embargo, una mayoría [de los criterios para el progreso evolutivo] muestra que
el hombre se cuenta entre los productos más elevados de la evolución y el equilibrio que se
da entre ellos nos lleva a concluir que el hombre es, en el aspecto global aunque no en
todos los sentidos, el pináculo del progreso evolutivo hasta la fecha.[39]
Julian Huxley fue desde siempre un defensor entusiasta del progreso evolutivo y
argumentaba que:
Antes de que el hombre apareciera en la tierra ya había progreso […]. Su llegada
sirvió para continuar, modificar y acelerar un proceso que ha estado operativo desde el
amanecer de la vida.[40]
Dobzhansky también se mostraba inequívoco:
A tenor de cualquier criterio razonable, el hombre representa el producto más
elevado, más progresista y más exitoso de la evolución orgánica. Lo realmente extraño es
que algunos biólogos cuestionen una y otra vez un elogio tan evidente.[41]
Las objeciones a las evidencias abrumadoras de la complejidad progresiva conducen
a ignorar las evidencias o a intentos falaces de explicarlas, porque entran en conflicto bien
con una causa asumida por la evolución biológica, bien con una ideología que trata a todas
las especies como iguales.
La negación de las evidencias por entrar en conflicto con una creencia resulta más
sorprendente en un científico que el hecho de que un creacionista niegue las evidencias del
fenómeno de la evolución biológica.
En los dos capítulos siguientes examinaré las hipótesis que intentan complementar o
desafiar el paradigma utilizado actualmente para explicar el patrón de las evidencias.
[1]Barreiro, Luis B., et al., «Natural Selection Has Driven Population
Differentiation in Modern Humans», Nat Genet, 40: 3, 2008, pp. 340–345.
[2]http://www.britannica.com/EBchecked/topic/406351/natural-selection.
Consultado el 14 de junio de 2014.
[3]«Ernst Mayr», Gale Encyclopedia of Biography, 2006.
[4] Véase páginas 419 a 421.
[5] Véase página 442.
[6] Véase página 443.
[7]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A
Critique of Molecular Systematics», Biological Theory, 1: 4, 2006, pp. 357–371.
[8]Coyne (2006).
[9] Véase página 482.
[10]Mayr (2001), p. 195.
[11]Williamson, Peter G., «Morphological Stasis and Developmental Constraint:
Real Problems for Neo-Darwinism», Nature, 294, 1981, pp. 214–215.
[12] Véase páginas 491 y 493.
[13] Véase página 451.
[14] Véase página 491.
[15] Véase página 492
[16]Hotopp, Julie C. Dunning, et al., «Widespread Lateral Gene Transfer from
Intracellular Bacteria to Multicellular Eukaryotes», Science, 317: 5845, 2007, pp. 753–
1756.
[17]Boto, Luis, «Horizontal Gene Transfer in Evolution: Facts and Challenges»,
Proceedings of the Royal Society B: Biological Sciences, 277: 1683, 2010, pp. 819–827.
[18] Véase página 504.
[19] Véase página 503.
[20]Lynch, Michael, «The Evolution of Genetic Networks by Non-Adaptive
Processes», Nat Rev Genet, 8: 10, 2007, pp. 803–813.
[21]Anway, Matthew D., et al., «Epigenetic Transgenerational Actions of Endocrine
Disruptors and Male Fertility», Science, 308: 5727, 2005, pp. 466–1469.
[22]Jablonka, Eva y Raz, Gal, «Transgenerational Epigenetic Inheritance:
Prevalence, Mechanisms, and Implications for the Study of Heredity and Evolution», The
Quarterly Review of Biology, 84: 2, 2009, pp. 131–176.
[23]West, Stuart A, et al., «Sixteen Common Misconceptions About the Evolution
of Cooperation in Humans», Evolution and Human Behavior, 32: 4, 2011, pp. 231–262.
[24]Darwin, Charles (1872), p. 428.
[25]Heylighen (1999).
[26]Valentine, J. W., et al., «Morphological Complexity Increase in Metazoans»,
Paleobiology, 20: 2, 1994, pp. 131–142.
[27]Bonner (1988), p. 5.
[28]Gould (2004).
[29]Ibíd.
[30]Ibíd.
[31]Borowsky, R. y Wilkens, H., «Mapping a Cave Fish Genome: Polygenic
Systems and Regressive Evolution», J Hered, 93: 1, 2002, pp. 19–21.
[32]http://www.bio.sci.osaka-u.ac.jp/~hfuruya/dicyemids.html. Consultado el 24 de
febrero de 2011.
[33]Simpson (1949).
[34]Bains, William, «Evolutionary Paradoxes and Natural Non-Selection», Trends
in Biochemical Sciences, 12, 1987, pp. 90–91.
[35]Nitecki (1988).
[36]Gould, Stephen Jay, «On Replacing the Idea of Progress with an Operational
Notion of Directionality», en Evolutionary Progress, editado por Matthew H. Nitecki,
Chicago; Londres, University of Chicago Press, 1988, p. 319.
[37]Bains (1987).
[38]Mayr (1988), pp. 251–252.
[39]Simpson (1949), p. 262.
[40]Huxley (1923), p. 40.
[41]Dobzhansky (1956), p. 86.
CAPÍTULO 22. HIPÓTESIS COMPLEMENTARIAS Y EN
COMPETENCIA 1: EL INCREMENTO DE LA COMPLEJIDAD

Si se pudiera demostrar que existe algún órgano complejo que no se hubiera


formado a través de numerosas, sucesivas, y sutiles modificaciones, mi teoría se
desmoronaría por completo.

Charles Darwin, 1872

Durante la primera mitad del siglo xx, los biólogos estaban ansiosos por convertir su
especialidad en una ciencia respetable, como la física, cuyas teorías se expresaban en
ecuaciones matemáticas que permitían predicciones precisas y verificables. Este deseo
nació en los años veinte y treinta, con las formulaciones matemáticas de adaptación
evolutiva de Ronald Fisher, los diez documentos que publicó J. B. S. Haldane bajo el título
de A Mathematical Theory of Natural and Artificial Selection [Una teoría matemática de la
selección natural y artificial] y los cálculos de paisajes adaptativos y deriva genética de
Sewall Wright. Este enfoque, que proporcionó la base teórica de la genética de poblaciones,
estaba enraizada en el determinismo newtoniano.
El modelo neodarwinista combinó este enfoque con los métodos analíticos de la
genética molecular. La ciencia de la biología observacional, que hasta el momento había
sido cualitativa, se endureció para pasar al determinismo y el reduccionismo genético, con
hipótesis expresadas como ecuaciones matemáticas o modelos estadísticos.
Paradójicamente, la física experimentó al mismo tiempo un cambio de paradigma y
se alejó del determinismo para adentrarse en la teoría de la relatividad y la indeterminación
de la teoría cuántica con su no localización, su principio de incertidumbre, sus
entrelazamientos cuánticos y sus interpretaciones holísticas. Sin embargo, la mayoría de las
hipótesis presentadas para explicar los patrones de las evidencias que el paradigma
neodarwinista no explica adoptan el enfoque general de ese paradigma y utilizan modelos
matemáticos. Una minoría, no obstante, adopta un punto de vista holístico y defiende que
las formas de vida están integradas por componentes colocados en distintos niveles
jerárquicos que interactúan entre sí y también con su entorno.
Las hipótesis van desde aquellas que buscan complementar o ampliar el modelo
neodarwinista hasta las que lo desafían. En este capítulo, examinaré las presentadas para
explicar el rápido incremento de complejidad y en el siguiente, las presentadas para
explicar la colaboración.
Diseño inteligente

En el capítulo 15 vimos que el bioquímico de la LeHigh University, Michael Behe,


afirmaba que la complejidad irreducible de la primera célula indicaba que debía de haber
tenido un diseño inteligente aunque, por otro lado, aceptaba también la evolución biológica
posterior.[1] Siguiendo el libro de Behe, que ayudó a poner en marcha el movimiento del
diseño inteligente, el biólogo Jonathan Wells, que había estado realizando labores de
investigación en la Universidad de California, Berkeley, publicó un libro Icons of
Evolution: Science or Myth [Iconos de la evolución: ¿ciencia o mito?] que considera diez
casos de estudio icónicos utilizados para enseñar la evolución darwiniana y llega a la
conclusión de que han sido exagerados, distorsionados e incluso, falsificados.[2]
La respuesta de los biólogos evolucionistas fue unánimemente hostil y acusaron a
Wells de tergiversar de forma deshonesta y fraudulenta las evidencias para fomentar sus
creencias religiosas.
Seis de estos casos de estudio han sido examinados en capítulos anteriores de este
libro. Wells acierta al decir, por ejemplo, que (a) el experimento de Miller-Urey no
consigue demostrar la emergencia de la vida a partir de materia inanimada;[3] (b) no existe
árbol filogenético darwinista capaz de demostrar la descendencia con modificación (en
particular, porque no existe acuerdo entre los biólogos sobre cómo, y en base a qué, debería
construirse ese árbol de la vida);[4] (c) las evidencias de la estasis de las especies en el
registro fósil contradicen el gradualismo darwinista;[5] ni (d) los «pinzones de Darwin» de
las islas Galápagos[6] ni (e) el oscurecimiento de las polillas moteadas en zonas
industriales muestran la evolución de las especies (como algo distinto al cambio adaptativo
reversible) y, en este último caso, las fotografías de Kettlewell de polillas llamativas
posadas en troncos de árboles son en realidad polillas muertas pegadas a esos árboles;[7] y
(f) no existen pruebas de que hayan evolucionado nuevas especies según el mecanismo
darwinista (neodarwinista, de hecho).[8]
Pero destacar hipótesis incorrectas y experimentos u observaciones no concluyentes,
defectuosas e, incluso, falsas (aunque creo que lo que imprudentemente pretendía
Kettlewell era que sus fotografías fueran ilustrativas más que engañosas), no refuta el
fenómeno de la evolución biológica. A pesar de que las nueve categorías de evidencias
examinadas en los capítulos 17 y 18 no ofrecen por sí mismas evidencias indiscutibles de la
evolución biológica, vistas en conjunto ofrecen la evidencia abrumadora de que el hombre
evolucionó a partir de las primeras formas de vida de la Tierra. Lo que subrayan estos casos
es la insuficiencia de la hipótesis neodarwinista como única explicación del fenómeno. El
hecho de que estos ejemplos sigan utilizándose en los libros de texto para demostrar la
evolución biológica ilustra uno o ambos puntos siguientes: que los libros de texto están
anticuados, o que están basados en creencias más que en ciencia. Los defensores de la
ortodoxia actual responden con una actitud defensiva institucional que no reconoce todos
los defectos del modelo neodarwinista que el conflicto de datos deja en evidencia e ignora
otras hipótesis consistentes con esos datos. Paradójicamente, esta actitud defensiva no sirve
más que para dar argumentos a los creacionistas.
En un libro más reciente, The Edge of Evolution: the Search for the Limits of
Darwinism [Los confines de la evolución: la búsqueda de los límites del darwinismo],[9]
Behe acepta el fenómeno de la evolución biológica; de hecho, llega a decir que la selección
natural es el mecanismo evidente por el cual las variantes de los genes adaptativos se
extienden entre una población. Sostiene que la mutación aleatoria, junto con la selección
natural, no es un motor lo bastante potente como para impulsar la evolución de la
innovación biológica y el incremento de complejidad. Su argumento se basa en la escasa
probabilidad de que un organismo experimente dos o más mutaciones simultáneas que le
resulten ventajosas, lo cual es correcto. Sin embargo, llega también a la conclusión de que
la mayoría de las mutaciones realmente importantes tienen que estar dirigidas por un agente
inteligente. Estamos ante una falacia lógica. Que la hipótesis neodarwinista no logre
explicar las innovaciones biológicas más importantes y el incremento de complejidad —lo
cual es cierto—, no implica que otras hipótesis científicas puedan proporcionar una
explicación adecuada ahora o en el futuro; este capítulo resume las actuales hipótesis.
Para resumir, los defensores del diseño inteligente no consiguen ofrecer
explicaciones verificables de sus creencias, lo que coloca el diseño inteligente fuera del
ámbito de la ciencia.
Equilibrio puntuado

En 1995, el paleontólogo Niles Eldredge declaró que las tres respuestas de los
miembros de la población de una especie a un cambio en su entorno son, en orden de
probabilidad:
1. Búsqueda de hábitat.
Los miembros migran a un hábitat en el que estén bien adaptados.
2. Extinción.
Cuando los miembros no son capaces de encontrar un hábitat adecuado.
3. Transformación muy lenta y gradual de la población para adaptarse al entorno
cambiado.
Esta tercera respuesta, menos probable, es el único mecanismo de especiación
reconocido por el modelo neodarwinista.
Por otro lado, George C. Williams, biólogo evolucionista teórico neodarwinista,
rechaza la búsqueda de hábitat y la considera pura fabulación, a pesar de que Eldredge
ofrece una cantidad destacada de evidencias para sustentar su hipótesis.[10]
En el emblemático artículo que publicaron en 1972 desafiando el gradualismo del
modelo neodarwinista por considerar que entra en conflicto con el registro fosil,[11]
Eldrege y el paleontólogo Stephen Jay Gould, se inspiraron en la idea de Ernst Mayr, que
argumentaba que la especiación era más rápida en las subpoblaciones pequeñas y aisladas,
para proponer la hipótesis del equilibrio puntuado. Afirmaban que, para una población
grande que ocupe una región geográfica extensa, las mutaciones genéticas nuevas, aun
siendo beneficiosas, quedan diluidas por el tamaño de la población y por factores como los
cambios constantes en el entorno. Se producen pequeñas variaciones adaptativas, pero
también una estabilización general de la morfología, lo cual es consistente con cambios
morfológicos menores que fluctúan alrededor de una media y que muestra el registro fósil a
lo largo de decenas o incluso cientos de millones de años.
Pero en el caso de un grupo pequeño localizado en la periferia de la región
geográfica, las mutaciones genéticas que codifican rasgos adaptativos beneficiosos, se
diseminarán rápidamente y transformarán el acervo génico de ese grupo en un periodo
geológicamente breve de decenas de miles de años. El resultado será una nueva especie
incapaz de reproducirse con éxito con el grupo principal.
Richard Dawkins, defensor de Williams, rechazó esta hipótesis considerándola «una
arruga interesante, aunque de escasa importancia, sobre la superficie de la teoría
neodarwinista» que «no merece una cantidad de publicidad especialmente grande».[12] Lo
cual encendió un acalorado intercambio entre Dawkins y la pareja Eldredge/Gould que
sigue vigente en la actualidad.
Orígenes súbitos

Jeffrey H. Schwartz, antropólogo fisico y filósofo de la ciencia de la Universidad de


Pittsburgh, es un biólogo evolucionista que conserva el cada vez más anticuado punto de
vista de que el papel del científico consiste en verificar las hipótesis ortodoxas vigentes y
los supuestos sobre los que se sustentan contra las evidencias y, en caso necesario, buscar
explicaciones alternativas, en lugar de buscar o interpretar evidencias para defender esas
hipótesis.
Para él, el gradualismo neodarwinista también es incompatible con las evidencias.
Pero en vez de adoptar la hipótesis de Eldredge y Gould, trabajó con Bruno Maresca,
bioquímico de la Universidad de Salerno, para desarrollar una hipótesis que había
concebido anteriormente examinando la expresión de las proteínas del estrés de las células
en respuesta a los cambios físicos del entorno. Publicada en 2006, su hipótesis del origen
súbito afirma que las células impiden o corrigen el cambio genético y lo hacen,
principalmente, a través de los mecanismos de reparación del ADN; esto produce la
homeostasis, o estabilidad autorreguladora, del ADN y explicaría la estasis morfológica.
El cambio genómico importante solo se produciría cuando situaciones muy graves
de estrés —como un brusco cambio de temperatura, graves cambios en la alimentación o
una sobrepoblación física— sobrepasan esta homeostasis del ADN durante la formación de
las células sexuales (óvulos y espermatozoides), lo que afectaría el desarrollo del
organismo. El colapso de la homeostasis suele tener consecuencias letales, pero
genera en algunos individuos, y durante un periodo de tiempo relativamente corto
(unas pocas generaciones), restructuraciones importantes y potencialmente no letales (¿y
por lo tanto «útiles» ?).[13]
Así pues, las innovaciones morfológicas no son resultado de una acumulación
gradual de mutaciones a lo largo de muchas generaciones de una población, como defiende
el modelo neodarwinista, ni de la rápida propagación de mutaciones adaptativamente
beneficiosas en una subpoblación aislada, sino de la interrupción súbita y severa del estado
normal de homeostasis del ADN.
Esta hipótesis ofrece una explicación más persuasiva de la causa de la estasis
morfológica seguida por un importante cambio genómico, pero tanto los biólogos
neodarwinistas como los defensores de la hipótesis de Eldredge y Gouls la han ignorado.
De todos modos, Maresca y Schwarz se muestran difusos en lo referente a la
naturaleza de estas «restructuraciones importantes y potencialmente no letales (¿y por lo
tanto “útiles”?» y en cómo dichas restructuraciones conducen hacia la especiación o
producen transiciones evolutivas o emergencias que muestren un patrón de incremento de
la complejidad.
Selección estabilizadora

Defendiendo el modelo neodarwinista contra la llamada de Eldredge, Gould y otros


paleontólogos exigiendo una revisión fundamental del mismo, el botánico y genetista G.
Leylard Stebbins y el genetista molecular Francisco José Ayala, argumentaron en 1981 que
la transformación del acervo génico de una población a lo largo de muchísimas
generaciones es compatible con una especiación tanto gradual como puntuada.
Se preguntaron si el fenómeno de la estasis paleontológica es tan común como se
dice. Defendieron que cuando se produce, la evolución molecular puede seguir
produciéndose aunque las morfologías (los únicos cambios que puede identificar el registro
fósil) permanezcan estables, lo cual quedaría explicado por el concepto de selección
estabilizadora de Dobzhansky. Así, los genes que codifican para una morfología adaptativa
exitosa, como la de los tiburones o los helechos, se seleccionarían naturalmente de forma
continuada, de tal modo que la morfología se estabiliza, mientras que los genes que
codifican para otros caracteres cambian, produciendo incluso sucesos de especiación.[14]
Sus argumentos son principalmente teóricos, y creo que Peter G. Williamson,
paleontologo de la Universidad de Harvard, acierta en su conclusión:
El amplio rango de hábitats que están hoy en día explotados por especies modernas
morfológicamente uniformes aunque extensamente distribuidas, y la estasis morfológica
prolongada (hasta 17 millones de años) que exhiben muchos linajes fósiles en hábitats
fluctuantes, es un potente argumento contra la idea de que la selección estabilizadora es la
explicación adecuada para el fenómeno de la estasis biológica.[15]
Teoría neutral

Desde que en 1968 publicara su artículo introduciendo la idea, Motoo Kimura lideró
un grupo de genetistas de poblaciones que defendían con argumentos matemáticos que
prácticamente todas las mutaciones genéticas que persisten o alcanzan una frecuencia
elevada entre la población a lo largo de generaciones son selectivamente neutrales; es decir,
no tienen un efecto apreciable sobre la idoneidad o la adaptación morfológica.
Entre las evidencias que aportan a la hipótesis está una especie conocida como el
tiburón de Port Jackson, que ha permanecido morfológicamente similar durante unos 300
millones de años a pesar de los drásticos cambios medioambientales que supuestamente han
provocado tres extinciones en masa; subsiste hoy en día como un «fósil vivo» a pesar de su
tasa de cambio genético, calculada por el número de diferencias en los aminoácidos de la
globina alfa y la globina beta (150) que se acerca a la del linaje humano (147). A lo largo
del mismo periodo, por otro lado, los humanos evolucionaron, con muchas transiciones, a
partir de mamíferos con aspecto de reptil. En general, la tasa de cambio genético es
constante para todos los linajes, pero la tasa de cambio morfológico varía de forma
significativa entre distintos linajes.[16],[17]
La teoría neutral es, esencialmente, la hipótesis de la deriva genética de Sewall
Wright, que fue ignorada por los arquitectos del modelo neodarwinista por ser inconsistente
con la transformación del acervo genético de una población a partir de la selección natural
de mutaciones genéticas adaptativamente beneficiosas.
H. Allen Orr, defensor de la ortodoxia neodarwinista, argumenta que las nuevas
tecnologías que permiten la secuenciación del genoma y los nuevos test estadísticos que
facilitan la distinción entre los cambios neutrales que se producen en el genoma y los
cambios adaptativos, sugieren que los defensores de la teoría neutral infravaloran la
importancia de la selección natural. Cita un análisis llevado a cabo por David J. Begun y
Charles H. Langley, de la Universidad de California, Davis, con 6.000 genes de dos
especies de mosca de la fruta que divergen de un antepasado común y llega a la conclusión
de que la selección natural positiva —en la que el entorno aumenta la frecuencia de una
mutación beneficiosa que de entrada es muy excepcional— es responsable de al menos el
19 por ciento de las diferencias genéticas entre las dos especies.[18] De ser así, no sería un
respaldo categórico para un modelo cuyo único mecanismo para la transformación genética
es la selección natural (a pesar de la falacia de que el entorno selecciona activamente).
Duplicación total del genoma

La acumulación de descubrimientos de casos de polipoidía no solo en plantas sino


también en un amplio abanico de especies animales[19] ha reavivado el interés por la
hipótesis planteada en 1970 por el genetista molecular Susumu Ohno, que en su momento
fue ignorada o rechazada.
Basándose en el tamaño relativo de los genomas y en la observación de que las
especies tetraploides (que poseen cuatro juegos de cromosomas en cada célula) se producen
de forma natural entre peces y anfibios, Ohno especuló que esta duplicación del número
normal de cromosomas era la responsable de las principales innovaciones evolutivas. Se
conoce también como la hipótesis 2R, puesto que su posterior afinamiento propone dos
rondas de duplicación total del genoma, WGD (del inglés Whole Genome Duplication)
cerca de la raíz ancestral del árbol de los vertebrados. La hipótesis afirma que esta WGR
permitió que la innovación biológica se produjera de forma mucho más eficiente y defiende
que todos los vertebrados, humanos incluidos, son poliploides degenerados.
Se trata de reivindicaciones controvertidas y difíciles de probar debido a lo poco
que sabemos sobre la diploidía, el proceso por el cual una especie tetraploide degenera para
convertirse en diploide. Sin embargo, la hipótesis está sustentada por la evidencia de que
una gran parte del genoma humano, y también del genoma de la rata, contiene pares de
genes en un cromosoma que están duplicados en tres cromosomas más. En 2007, el
patólogo Masanori Kasahara declaró que los análisis genómicos de destacadas especies de
cordados ofrecen actualmente «evidencias indiscutibles que sustentan la hipótesis 2R».[20]
Epigenética

Las evidencias de herencia de caracteres adquiridos sin que se produzca ningún


cambio genético amplió el interés en la epigenética, que se había estado utilizando para
investigar la embriología y el desarrollo.
Como el darwinismo, el término se utiliza con sentidos distintos. Los investigadores
actuales emplean términos técnicos en sus distintas definiciones, que podrían resumirse
como sigue:
Epigenética: el estudio de los mecanismos de la regulación genética que causan
cambios en el fenotipo de un organismo pero no implican ningún cambio en las secuencias
de ADN de dichos genes.
Incluye mecanismos por los cales las células madre se diferencian en células con
funciones especializadas para formar el cuerpo de un embrión que acabará desarrollándose
en un organismo independiente. Muchos de estos patrones epigenéticos se reinician cuando
los organismos se reproducen, pero las evidencias obtenidas a lo largo de estos últimos diez
años demuestran la herencia epigénetica.
Herencia epigenética: transmisión de una célula madre a una célula hija, tanto por
replicación asexual como por reproducción sexual, de variaciones que dan lugar a
variaciones en los caracteres de un organismo pero que no implican variaciones en las
secuencias de base del ADN.
Se han identificado los siguientes mecanismos principales:
a. Cambio químico, especialmente la metilación, en la que un grupo metilo (CH3-)
sustituye al hidrógeno (H-) o a otro grupo en una molécula de ADN o en las proteínas
denominadas histonas, que empaquetan ADN en el núcleo celular en la forma condensada
conocida como cromatina.

b. Cambios en el plegado de la cromatina de una célula.


c. Unión específica de ARN pequeño nuclear a secuencias de ADN.
Los distintos mecanismos de activación o silenciamiento génico pueden actuar de
manera independiente o ser interdependientes, en el sentido de que en cuanto se produzca
una modificación para activar o silenciar un gen se produzcan más modificaciones.
La herencia epigenética, por lo tanto, no implica cambios en los genes en sí, como
sucede con el modelo neodarwinista, sino cambios en cómo se expresan los genes. Ofrece
una explicación molecular para la herencia lamarquiana de caracteres adquiridos. Por
ejemplo, Matthew Anway y sus colegas llegaron a la conclusión de que el aumento de
infertilidad heredado a través de la línea masculina de ratas sin ningún cambio genético
subyacente[21] está asociado con la metilación.
Homología profunda y evolución paralela

Motivado por el descubrimiento de que los genes reguladores del desarrollo son
muy similares en un amplio rango de especies, el paleontólogo y biólogo evolutivo Neil
Shubin y sus colegas de la Universidad de Chicago, propusieron en 1997 la hipótesis de la
homología profunda. La hipótesis reivindica básicamente que un antepasado común muy
remoto poseía estos genes, o antiguas versiones de estos genes, y que lo que podrían
parecer convergencias evolutivas independientes son en realidad evoluciones paralelas.
Además, los proponentes afirman que su hipótesis se ha visto reforzada por el
descubrimiento de muchas más homologías profundas a lo largo de los doce años siguientes
a su anuncio.[22]
En el caso de los ojos, por ejemplo, Shubin afirma que todas las variaciones
modernas de sensibilidad a la luz que presentan animales bilaterales se remontan a la
existencia de células fotosensibles en un antepasado común, con el Pax-6 y otros factores
de transcripción ocupando una vía reguladora génica que conduce a la producción de
proteínas opsinas.
A pesar de que Shubin defiende que esos circuitos reguladores antiguos
proporcionan un sustrato al partir del cual se desarrollan estructuras nuevas, no explica ni
por qué se desarrollan ni por qué la regulación por parte de los genes de la familia Hox
producen planes orgánicos tan distintos en los animales bilaterales.
Convergencia evolutiva

Simon Conway Morris, paleontólogo de la Universidad de Cambridge, afirma que


el principio adaptativo y la herencia restringen la evolución biológica a resultados
limitados. Sustenta su hipótesis de la convergencia evolutiva con ejemplos que abarcan la
totalidad de la jerarquía biológica, desde las moléculas hasta los órganos pasando por los
sistemas sociales y los procesos cognitivos.[23]
La cantidad de aminoácidos es muy amplia, pero en los distintos organismos solo
encontramos 20. Si tenemos en cuenta que una proteína pequeña consta de una cadena de
100 aminoácidos, se deduce que las proteínas podrían combinarse potencialmente de
20100, o 10130 maneras distintas, una cifra astronómica, pero en los organismos solo
encontramos una fracción infinitesimalmente pequeña de todas esas posibilidades. De un
modo similar, en sus funciones metabólicas están plegadas en solo una minúscula parte de
todas las formas posibles.[24]
En lo referente a los órganos, Conway Morris afirma que el ojo similar a una
cámara monofocal ha evolucionado independientemente un mínimo de seis veces en
especies que van desde los pulpos hasta los mamíferos, mientras que en un amplio espectro
de especies se produce una «convergencia desenfrenada» en otros órganos, como los
responsables del olfato, el oído, la ecolocalización y la electrorecepción. Defiende que en
las restricciones que acompañan el desarrollo de órganos sensoriales «podemos abordar el
problema más amplio de la evolución de sistemas nerviosos, cerebros y tal vez, por último,
de la consciencia».
También la conducta exhibe convergencia evolutiva. La eusocialidad, organización
en la que solo hay una hembra reproductora mientras los demás miembros de la colonia
llevan a cabo funciones especializadas, ha evolucionado independientemente no solo en
muchas especies de hormigas, abejas, avispas y termitas, sino también en camarones y ratas
topo lampiñas. A pesar de que no todas las especies de insectos son eusociales, Conway
Morris afirma que las que lo son dominan entorno, es decir, tienen mayor éxito adaptativo y
han llevado a la extinción a sus equivalentes no eusociales. La agricultura ha evolucionado
de manera independiente, desde las hormigas cultivadoras de hongos de Centroamérica y
América del Sur hasta los humanos.
Conway Morris reconoce que, al estar los árboles filogenéticos en un estado de flujo
constante, puede resultar complicado distinguir entre evolución convergente independiente
y evolución paralela. Pero sostiene que los casos que cita son de especies muy distintas para
de este modo minimizar la probabilidad de evolución paralela. Considera que el papel de
los genes conservados que regulan el desarrollo en un amplio rango de especies, como el
Pax-6 para los ojos, está excesivamente subrayado, ya que el Pax-6 está implicado también
en el desarrollo de otros órganos. Se expresa también en nematodos sin ojos y, por mucho
que el desarrollo de los ojos esté controlado por el Pax-6, las estructuras de los ojos en sí
han evolucionado por convergencia.
Concluye con que la convergencia evolutiva permite predicciones de primer orden
de la emergencia de importantes propiedades biológicas en la Tierra. Y una de ellas es el
progreso.
Lo que vemos a lo largo del tiempo geológico es la emergencia de mundos más
complejos […] en los animales vemos la emergencia de cerebros más grandes y más
complejos, de vocalizaciones sofisticadas, de ecolocalización, de percepción eléctrica, de
sistemas sociales avanzados (incluyendo la eusocialidad), de la viviparidad [parir crías
vivas], de la sangre caliente y de la agricultura, todo lo cual es convergente; a mí, todo esto
me suena a progreso.
Además:
Las restricciones de la evolución y la ubicuidad de la convergencia hacen casi
inevitable la emergencia de algo como nosotros.
El ecologista especializado en animales, Rob Hengeveld, de la Universidad de
Ámsterdam, atacó esta hipótesis argumentando que Conway Morris es selectivo en sus
ejemplos e ignora el número inmensamente mayor de divergencias que aparecen en la
evolución biológica. Además, afirma que muchas de las supuestas convergencias son
cuestionables. Por ejemplo, solo unos pocos peces exhiben forma de torpedo en
contraposición con los muchos miles de especies con otras formas.
Considero que Hengeveld tiene razón al criticar algunas supuestas convergencias.
Además, la supuesta evolución independiente de la agricultura en las hormigas cultivadoras
de hongos y los humanos, por ejemplo, combina la conducta instintiva de las hormigas con
la conducta inteligente y con propósito del hombre.
Hengeveld lleva asimismo la razón cuando subraya el patrón de la divergencia
evolutiva, que Conway Morris ignora en gran medida. Por otro lado, Conway Morris
acierta al identificar el patrón de incremento de complejidad. Ambos patrones son
compatibles: ha habido una gran cantidad de linajes animales divergentes; el proceso de
incremento de complejidad se ha producido en todos ellos, desde procesos
comparativamente pequeños hasta mucho más grandes, hasta alcanzar la estasis (y
comúnmente la extinción) al final de cada linaje, y hasta la máxima complejidad mayor de
los humanos.
Conway Morris atribuye la causa de la convergencia evolutiva al «principio
adaptativo» y a las «restricciones de la evolución», que es «la tendencia recurrente de la
organización biológica para llegar a la misma “solución” para una “necesidad” concreta»,
en gran parte debida a la «herencia». Pero todo esto describe el patrón que sigue un
fenómeno, no una causa de ese patrón.
Si el principio adaptativo y la herencia tienen que ir más allá de la tautología o la
descripción, deberían estar enmarcados como un principio específico o una ley aplicable a
todos los fenómenos biológicos, cosa que en este momento no sucede.
Teoría de la emergencia

En el capítulo 15 tratamos la propuesta de Harold Morowitz como otra explicación


de la emergencia de la vida.[25] Morowitz identifica 19 emergencias de complejidad
creciente en la evolución de la vida, desde las procariotas hasta la filosofía. Para explicar
por qué en cada una de estas importantes fases de transición evolutiva emergen
relativamente pocas entidades habiendo incontables posibilidades, Morowitz busca reglas
de selección, los equivalentes biológicos al principio de exclusión de Pauli, que seleccionan
de entre la miríada de posibles niveles de energía de los electrones de un átomo, aquellos
que producen el menor número de elementos presentes en la naturaleza.[26]
Morowitz afirma que en algunos casos «en el competitivo dominio darwinista» el
«principio de selección dominante es la idoneidad definida como replicación y
supervivencia», lo cual es una tautología, y en otros casos, el principio de selección «no es
en absoluto evidente».
La idea de una o más reglas de selección subyacentes para explicar las emergencias
de incremento de complejidad que Morowitz identifica resulta atractiva. Sin embargo, igual
que sucede con su explicación de la emergencia de la vida, no ha avanzado más allá de la
pura descripción del fenómeno.
Complejidad auto-organizada

Stuart Kauffman avanzó esta hipótesis como explicación de la aparición de la vida.


[27] La aplica para explicar no solo la embriología y el desarrollo del organismo, sino
también la evolución de las especies.[28]
Por lo que al primer punto se refiere, Kauffman dice que la razón por la que las
células madre con genomas idénticos se diferencian en células especializadas —como las
células hepáticas, las células musculares, etc.— es porque en cada una de esas células
madre solo está activada una cantidad relativamente pequeña de genes, que son distintos en
cada célula. Propone que un genoma opera como una red en la que cada gen regula la
actividad de los demás y donde ninguno de ellos actúa como coordinador, y que esta
conducta auto-organizativa constituye un sistema dinámico no lineal.
Su modelo de simulación asume que cada gen es un nodo (N), que está activado o
desactivado, y que cada gen está vinculado mediante un número de conexiones (K) a otros
genes que regulan si el gen nodo está activado o no.
Suponiendo que esta red NK está gobernada por un tipo especial de lógica booleana,
que en este caso establece unas normas de conexión conocidas como funciones
canalizadoras (activado o desactivado), entonces cuando K = 1, el sistema tiende a
paralizarse. Si K es mayor que 2, el sistema se vuelve caótico. Pero cuando K = 2, el
sistema alcanza espontáneamente la estabilidad al borde del caos. Concretamente, se
establece en un patrón que repite un ciclo de estados en el que la duración de cada ciclo de
estado es igual a la raíz cuadrada de N. Por lo tanto, si un genoma tuviera 100 genes y cada
uno de ellos estuviera conectado con otros dos genes, se establecería en un ciclo repetitivo
de 10 pasos (puesto que 10 es la raíz cuadrada de 100); durante cada paso, se conectaría una
maquinaria química distinta para producir una célula con una función distinta, una célula
muscular o una célula hepática, por ejemplo.
Kauffman afirma que el número de pasos de cada ciclo de estado es
aproximadamente igual al número de tipos de especialización de las células. Así pues, en el
caso del genoma humano que supone integrado por 100.000 genes, la raíz cuadrada de
100.000 es 316, por lo que el modelo predice que el número de tipos distintos de células
especializadas debería ser 316, que se acerca al número real, 254.[29] (En la actualidad se
estima que el hombre tiene como máximo 25.000 genes, y la raíz cuadrada de 25.000 es
158.)
Kauffman compara el número de tipos distintos de células con la raíz cuadrada del
número de genes de distintos organismos, desde las bacterias hasta el hombre, y descubre
una estrecha correlación. Esto, afirma, es la confirmación empírica de su hipótesis.
Que los genes de una célula madre organicen espontáneamente la producción de las
distintas células especializadas según una regla implícita que dicta que el número de
conexiones de un gen con otros genes es dos, resulta una idea atractiva. Parece identificar
un equivalente biológico al principio de exclusión de Pauli.
Sin embargo, el modelo de Kauffman no explica por qué los genes empiezan a
interactuar. Tampoco explica por qué el número de conexiones es dos (aunque el principio
de exclusión de Pauli tampoco explica por qué no existen dos electrones en un átomo o una
molécula que tengan los mismos cuatro números cuánticos).
Pero mientras que el principio de exclusión de Pauli predijo con precisión la
existencia de los nuevos elementos que se han ido descubriendo posteriormente, la
reivindicación de precisión predictiva de Kauffman queda cuestionada por lo que sabemos
en la actualidad sobre los genes y los genomas. Sus correlaciones asumen que el número de
genes de un organismo es proporcional a la cantidad de su ADN, pero la tabla 18.1[30]
muestra que no es precisamente el caso.
Y aun a pesar de que los genes están, efectivamente, regulados por redes, estas redes
implican no solo los genes que comprenden el 2 por ciento del genoma, sino también la
mayoría del restante 98 por ciento del ADN del genoma.
Sirviéndose de razonamientos, supuestos y modelos de simulación similares,
defiende que una red compleja de especies que interactúen entre ellas y con su entorno, y
sujeta a la fuerza de la selección natural (aquí, parece aceptar la idea equivocada de que la
selección natural es una causa), evolucionará de forma natural hacia una fase de transición
al borde del caos. Una vez ahí, en homeostasis, la evolución biológica se producirá con
rapidez porque la red posee estabilidad pero sus partes están conectadas con la holgura
suficiente como para que un cambio en una o más de sus partes provoque un cambio en la
totalidad de la red interactiva.
Kauffman planteó esta idea en 1991, y desde entonces, matemáticos, científicos
informáticos y físicos del campo del estado sólido han refinado sus modelos de simulación.
Pero los avances han sido insuficientes en cuanto a basar los diversos modelos en datos
biológicos. Por lo tanto, igual que sucede con su explicación sobre la aparición de la vida,
la idea no ofrece, por el momento, más que la esperanza de que sus modelos acaben
produciendo nuevas leyes de la evolución biológica más profundas o una ley fisicoquímica,
o ley de forma, que imponga restricciones a las, por otro lado, ilimitadas posibilidades
biológicas.
Leyes de la evolución del genoma
Más recientemente, en 2011, Eugene Koonin, biólogo evolutivo informático del US
National Institutes of Health, defendió que la investigación en genómica evolutiva
cuantitativa y en biología de sistemas ha llevado al descubrimiento de cuatro patrones
universales en la evolución del genoma y el fenoma de todos aquellos linajes evolutivos de
los que tenemos datos genómicos, lo que incluye diversos grupos de bacterias, arqueas y
eucariotas.
Koomin afirma que estos patrones estadísticos tremendamente técnicos no solo
resultan sorprendentes, sino que pueden además explicarse mediante modelos matemáticos
simples muy similares a los utilizados por la física estadística. Uno de estos modelos es el
de nacimiento-muerte-innovación, que comprende solo tres procesos elementales: (1) genes
nacidos (duplicación), (2) genes muertos (eliminación) y (3) innovación (adquisición de
una nueva familia, por ejemplo, a través de transferencia genética horizontal). Estos
modelos no incorporan la selección natural. De ahí que Koonin llegue a la conclusión de
que estos modelos no están conformados por la selección natural neodarwinista sino que
son propiedades emergentes de conjuntos de genes.
Reconoce que el proceso y el transcurso de la evolución biológica dependen de
forma crítica de la contingencia histórica e implican importantes «remiendos» adaptativos,
por lo que una teoría física completa de la biología evolutiva resulta inconcebible. De todos
modos, asevera Koonin, la universalidad de varios patrones de genoma y de la evolución
del fenoma molecular, y la capacidad de modelos matemáticos simples de explicarla,
sugieren que podrían extraerse leyes de biología evolutiva de categoría comparable a las
leyes de la física.[31]
De estar Koonin en lo cierto, este enfoque ofrecería un camino potencialmente
fructífero para que la investigación intente determinar cómo es que los resultados de la
evolución biológica están restringidos a unos pocos teniendo en cuenta la cantidad casi
ilimitada de posibilidades. Un test podría consistir en utilizar estos modelos para predecir la
futura evolución de especies que cambian con rapidez, como la mosca de la fruta.
Ingeniería genética natural

También en 2001, James Shapiro, profesor del departamento de Bioquímica y


biología molecular de la Universidad de Chicago, desafió la ortodoxia neodarwinista que
aboga que la evolución biológica está causada por cambios genéticos generados
aleatoriamente en genomas que, por lo demás, se muestran estáticos. Shapiro defiende que
las células poseen una capacidad innata para reorganizar sus genomas como respuesta a
centenares de inputs distintos.
Para sustentar lo que denomina «ingeniería genética natural», se inspira en las
evidencias examinadas en los capítulos 17 a 19, junto con las hipótesis discutidas en este
capítulo, además de sus propias ideas. Concretamente, defiende que el éxito en la
hibridación entre miembros de distintas especies,[32] los transposones (genes saltarines),
[33] la epigenética, la transferencia horizontal de genes,[34] la duplicación total del genoma
y la simbiogénesis (la combinación de dos organismos distintos para formar un nuevo
organismo, que se examina en el siguiente capítulo), junto con los estudios sobre el modo
en que las células realizan la regulación, la reproducción, la transmisión y la
reestructuración de sus moléculas de ADN, demuestran que los genomas no son únicamente
sistemas de memoria tipo solo lectura sujetos a cambios accidentales; sino que son también
orgánulos de almacenamiento de información lectura-escritura en todas las escalas del
tiempo, desde el ciclo de la célula hasta los eones evolutivos. A medida que avanza la
evolución, lo hace también la «evolutibilidad»: los organismos vivos son seres que se
modifican a sí mismos y son intrínsecamente teleológicos.
El actual paradigma biológico, desarrollado por genetistas de poblaciones y
zoólogos que trabajan en laboratorios, no explica la rapidez y la variedad del incremento de
complejidad biológico; además, las mutaciones aleatorias graduales presentan más
probabilidades de degradar que de crear. Integrar la ciencia biológica con un enfoque
basado en la información —y en sistemas de información—, dice Shapiro, producirá un
nuevo paradigma para el siglo xxi.[35]
Las críticas de Shapiro al actual paradigma ortodoxo neodarwinista están bien
fundamentadas. Sin embargo, no aporta un nuevo paradigma, sino más bien una agenda a
seguir para un paradigma basado en el concepto de la auto-modificación de los organismos
que sea más consistente con las evidencias que el actual paradigma.
Biología de sistemas

La biología de sistemas nació a mediado de la década de los años 60 como un


enfoque multidisciplinario que, a diferencia del reduccionismo del neodarwinismo, adopta
una visión holística del fenómeno natural y pretende descubrir propiedades emergentes.
Los biólogos reclutaron científicos informáticos, matemáticos, físicos e ingenieros
para estudiar los seres vivos como una red integrada e interactiva de genes, proteínas y
reacciones bioquímicas que da lugar a la vida y es responsable de la forma y las funciones
de los organismos. Estas propiedades emergentes, defendieron, no son atribuibles a ninguna
parte única del sistema que es, en consecuencia, una entidad irreducible. Según lo expresó
uno de sus fundadores, Denis Noble, profesor emérito y codirector de Fisiología
computacional de la Universidad de Oxford:
La biología de sistemas […] consiste en unir más que en separar, en integración más
que reducción. Exige que desarrollemos formas de pensar sobre esa integración que sean
tan rigurosas como lo son nuestros programas reduccionistas, pero distintas […]. Se trata de
cambiar nuestra filosofía, en el sentido más completo del término.[36]
Al principio, los programas de investigación se centraron básicamente en la ciencia
médica. Un ejemplo de ello es la investigación del sistema inmunitario de los organismos,
que no son resultado de un único mecanismo o gen, sino de las interacciones de numerosos
genes, proteínas, mecanismos y del entorno externo del organismo, el cual produce
respuestas inmunes para combatir infecciones y enfermedades.
La biología de sistemas se expandió y desarrolló en una subdisciplina propia a
principios del siglo xxi, cuando los desarrollos tecnológicos permitieron la secuenciación
de genomas completos. El intento de comprender el volumen exponencialmente creciente
de datos de secuenciación molecular dio como resultado la dependencia de la
bioinformática y de especialidades como la genómica, la epigenómica, la transcriptómica,
la proteómica, etc.
En 2010, el biólogo molecular y galardonado con un Nobel, Sydney Brenner, atacó
la biología de sistemas diciendo que estaba condenada al fracaso porque deducir modelos
de funcionamiento a partir de la conducta de un sistema complejo es un problema inverso
imposible de solventar. Lo que creo que quiso decir es que para un sistema complejo como
es una célula, existe una cantidad inmensurable de modelos posibles y no tenemos manera
de deducir cuál es el correcto.
Los biólogos de sistemas, sin embargo, intentan encontrar reglas que seleccionen
los modelos funcionales de entre todas las posibilidades. Normalmente lo hacen utilizando
algoritmos en modelos de simulación que llevan a la emergencia de una o más propiedades
nuevas que se sitúan más próximas a la emergencia de las propiedades nuevas observadas
en el nivel superior de la biología.
Brenner contraataca diciendo que «la mayor parte de las observaciones realizadas
por los biólogos de sistemas son fotografías estáticas y sus mediciones son erróneas […].
Cualquier no linealidad en el sistema es garantía de que los modelos se volverán inestables
y de que no coincidirán con las observaciones».[37]
Como subdisciplina, la biología de sistemas está tan solo en su infancia y es
demasiado temprano para rechazarla. Más bien al contrario, su enfoque filosófico acierta al
tratar cosas como las células y los niveles superiores, como los organismos, y los niveles
más altos aun, como las colonias de hormigas, como partes interrelacionadas de todos
irreductibles que interactúan con su entorno. El principal peligro en el futuro es que, en su
deseo de ser tan rigurosos como los reduccionistas, los biólogos de sistemas acaben
centrándose en exceso en la investigación especializada de las partes y pierdan el foco en el
todo.
La hipótesis de Gaia

Muy similar en concepto, pero más amplia en su aplicación, puesto que abarca la
Tierra entera, es la hipótesis de Gaia que originó en los años 60 el científico independiente
británico, James Lovelock. Propone que la biosfera, la atmósfera, los océanos y el suelo de
la Tierra forman un sistema interactivo y autorregulado que produce un entorno físico y
químico óptimo para la aparición de la vida.[38]
Desde que Lovelock desarrollara su hipótesis en colaboración con Lynn Margulis,
los nuevos datos y las críticas iniciales han hecho que el argumento se ramificara en
multitud de formas defendidas por diversos proponentes.
Por lo que a la evolución biológica se refiere, la hipótesis de Gaia rechaza el modelo
neodarwinista de una adaptación muy gradual de las poblaciones a su entorno físico. Ese
entorno físico está conformado por una red de sistemas vivos capaz de innovar, lo que da
como resultado la co-evolución a nivel planetario con esas redes inanimadas. Según lo
expresa Lovelock: «La evolución de los organismos vivos está tan estrechamente ligada a
su entorno, que juntos constituyen un único proceso evolutivo».[39]
Por intuición, todo esto tiene sentido, y gran parte de las sencillas simulaciones por
ordenador de la hipótesis de Gaia se asientan sobre datos atmosféricos, oceánicos y
biológicos a nivel global. Sin embargo, tal y como está actualmente desarrollada, la
hipótesis no ofrece una explicación lo bastante tangible de la evolución de las especies.
Causación formativa

La hipótesis epigenética examinada previamente sugiere cómo se producen los


cambios no genéticos, pero no explica por qué se producen: por qué un grupo metilo
sustituye al hidrógeno o por qué un mecanismo epigenético hace que las células madre se
diferencien en células hepáticas, células nerviosas, etc. y luego se desarrollen en un adulto
independiente, un proceso conocido como morfogénesis.
La hipótesis de causación formativa del biólogo especializado en células vegetales,
Rupert Sheldrake, que hemos visto en el capítulo 13 al examinar las ideas sobre qué es la
vida, propone no solo cómo se producen la morfogénesis y la evolución biológica, sino
también por qué lo hacen: la naturaleza es habitual.[40]
En opinión de Sheldrake, las leyes universales inmutables, es decir, los conceptos
deterministas newtonianos, no existen. (¿Cuál es la causa de leyes universales? Según
Newton, la causa es Dios.) Propone que la memoria está inherente por naturaleza en la
forma de los campos mórficos universales que causan el desarrollo de formas de todos los
niveles de complejidad, de estructuras y de organizaciones, desde los átomos hasta la
conducta y la mente, y que estos campos mórficos evolucionan a medida que el universo
evoluciona.
Por lo tanto, la morfogénesis está gobernada por un campo morfogenético que
impone un patrón a lo que, de no tenerlo, sería una actividad aleatorio o indeterminado.
Este campo está generado por el patrón de, por ejemplo, todas las células madre previas que
se han diferenciado en células hepáticas, células nerviosas, etc., lo cual sucede cuando
distintos conjuntos de genes en genomas idénticos se conectan durante periodos
determinados. El campo morfogenético impone este patrón de desarrollo característico a
través de lo que Sheldrake denomina «resonancia mórfica», por analogía con la resonancia
energética. Por ejemplo, para producir su espectro de absorción característico, los átomos y
las moléculas solo absorben ondas luminosas de determinadas frecuencias. Los núcleos
atómicos colocados en un campo magnético fuerte solo absorben ondas de radio de
determinadas frecuencias, un fenómeno conocido como resonancia magnética nuclear. En
cada uno de estos casos, el sistema responde, o resuena, solo a frecuencias seleccionadas.
Así pues, cada célula madre resuena hacia el campo morfogenético para producir su
desarrollo específico. El mecanismo por el cual se regulan los genes podría muy bien ser la
metilación o cualquier otro mecanismo epigenético. La conducta diferenciadora de las
nuevas células madre repercute por resonancia al campo morfogenético universal,
incorporando con ello nueva información, de modo que el campo evoluciona.
Esta hipótesis ofrece una respuesta a la búsqueda de un principio de selección en
todos los casos considerados hasta el momento, donde las teóricamente ilimitadas
posibilidades quedan constreñidas a una pequeña cantidad de resultados observador. Por
ejemplo, la diferenciación inicial, probablemente aleatoria, de una célula madre en lo que
acabará convirtiéndose en una célula hepática genera un campo morfogenético que refuerza
esta tendencia. Millones de años más tarde, y debido al hecho de que el número de células
madre que se diferencian para dar lugar a células hepáticas es tan inmenso, el patrón
impuesto a la conducta de cualquier célula madre nueva será tan grande que parecerá que
existe una ley que lo gobierna. Pero no se trata de un principio, en el sentido de una ley
universal aplicable en todo momento. Los pequeños cambios en la conducta de las nuevas
células madre se van incorporando al campo morfogenético; con el tiempo, estos cambios
se acumulan y causan la evolución de este campo y, en consecuencia, de la ley observada y
de la conducta de las células madre posteriores.
Sheldrake aplica el concepto de formación causativa a todos los aspectos de la
evolución biológica, ofreciendo una explicación al fenómeno que entra en conflicto con la
ortodoxia neodarwinista, y afirma tener base empírica. En el caso de la herencia de
caracteres adquiridos, por ejemplo, William Agar y sus colegas de la Universidad de
Melbourne informaron en 1954 de un experimento diseñado para eliminar los fallos de
experimentos previos de entrenamiento de ratas. El equipo introdujo una especie de rata en
una pecera con agua con dos posibles vías de escape. La salida «correcta» estaba oscura y
la salida «mala» estaba iluminada. Las ratas que elegían la salida mala recibían una
descarga eléctrica. Los investigadores alternaron la salida correcta y la salida mala en las
diversas repeticiones del experimento, y las ratas fueron aprendiendo lentamente a utilizar
la salida correcta.
Durante un periodo de 20 años o, lo que es lo mismo, 50 generaciones sucesivas,
Agar realizó mediciones del aprendizaje de ratas entrenadas y entrenadas. Descubrió una
marcada tendencia en las ratas del linaje entrenado a aprender con mayor rapidez a medida
que avanzaban las generaciones, en conformidad con la explicación epigenética de la
herencia lamarquiana de caracteres adquiridos. Pero descubrió también la misma tendencia
en el linaje de ratas no entrenadas, lo cual no queda explicado por la herencia lamarquiana,
y mucho menos por el modelo neodarwinista.[41]
Sheldrake tiene una mentalidad lo bastante abierta como para reconocer que, a pesar
de que el experimento es consistente con la hipótesis de causación formativa, no sirve para
demostrarla, puesto que esta mejoría en el nivel de aprendizaje que exhiben las ratas no
entrenadas con el paso de las generaciones podría ser debida a alguna causa que
desconocemos.
La falta de verificación experimental de la hipótesis desde que Shelldrake la planteó
en 1981 es atribuible a la escasa mentalidad abierta de la clase científica.[42]
Después de considerar las hipótesis que amplían o desafían los principios del
neodarwinismo, principalmente para explicar el patrón empírico de rápido incremento de la
complejidad y de la innovación biológica, haré lo mismo para las hipótesis que pretenden
explicar el patrón de colaboración que encontramos de forma ubicua en toda la naturaleza.
[1] Véase página 371.
[2]Wells (2000).
[3] Véase página 365.
[4] Véase página 523.
[5] Véase página 540.
[6] Véase página 498.
[7] Véase página 493.
[8] Véase página 541.
[9]Behe (2007).
[10]Eldredge (1995), pp. 64–66.
[11]Eldredge, Niles y Gould, Stephen J., «Punctuated Equilibria: An Alternative to
Phyletic Gradualism», pp. 82-115 en Models in Paleobiology, Freeman Cooper, San
Francisco, 1972.
[12]Dawkins (1996), pp. 250–251.
[13]Maresca, B. y Schwartz, J. H., «Sudden Origins: A General Mechanism of
Evolution Based on Stress Protein Concentration and Rapid Environmental Change», The
Anatomical Record Part B: The New Anatomist, 289B: 1, 2006, pp. 38–46.
[14]Stebbins, G. Ledyard y Ayala, Francisco J., «Is a New Evolutionary Synthesis
Necessary?», Science, 213: 4511, 1981, pp. 967–971.
[15]Williamson, Peter G., «Morphological Stasis and Developmental Constraint:
Real Problems for Neo-Darwinism», Nature, 294, 1981, pp. 214–215.
[16]Kimura (1983).
[17] Véase página 527 para ejemplos similares aportados por Christian Schwabe en
1986.
[18]Orr, H. Allen, «Testing Natural Selection», Scientific American, 300, 2009, pp.
44–51.
[19] Véase página 438.
[20]Kasahara, Masanori, «The 2R Hypothesis: An Update», Current Opinion in
Immunology, 19: 5, 2007, pp. 547–552.
[21] Véase página 493.
[22]Shubin, Neil, et al., «Deep Homology and the Origins of Evolutionary
Novelty», Nature, 457: 7231, 2009, pp. 818–823.
[23]Conway Morris (2005).
[24] Véase páginas 353 a 362.
[25] Véase página 392.
[26] Véase página 232.
[27] Véase página 387.
[28]Kauffman, Stuart A., «Antichaos and Adaptation», Scientific American, 1991,
pp. 78–84 y Kauffman (1996).
[29] Kauffman propone en realidad 370, y no 316. El número de tipos distintos de
células depende del criterio de clasificación; la mayoría de clasificaciones establece entre
210 y 260, pero agrupan todas las neuronas del sistema nervioso central como un solo tipo.
[30] Véase página 505.
[31]Koonin, Eugene V., «Are There Laws of Genome Evolution?», PLoS Comput
Biol, 7: 8, 2011, e1002173.
[32] Véase página 452.
[33] Véase página 503.
[34] Véase página 491.
[35]Shapiro (2011).
[36]Noble (2006), p. 21.
[37]Brenner, Sydney, «Sequences and Consequences», Philosophical Transactions
of the Royal Society B: Biological Sciences, 365: 1537, 2010, pp. 207–212.
[38] Véase página 301.
[39]Lovelock (1991), p. 99.
[40] Véase página 323.
[41]Sheldrake (2009), pp. 222–229.
[42] Véase página 325.
CAPÍTULO 23. HIPÓTESIS COMPLEMENTARIAS Y EN
COMPETENCIA 2: COLABORACIÓN

Uno de los mayores problemas de las ciencias biológicas y sociales es explicar


conductas sociales como la cooperación.

Stuart West, 2011

Gran parte de lo que Darwin dijo está, en detalle, equivocado. Si Darwin lo leyera
[El gen egoísta] apenas reconocería en él su teoría original.

Richard Dawkins, 1976

La vida no se extendió en el planeta a base de batallas, sino gracias al networking.

Lynn Margulis, 1987

Sociobiología

Los intentos de explicar la colaboración y el altruismo en términos del modelo


neodarwinista han ocupado a entomólogos, zoólogos, etólogos, genetistas de poblaciones y
otros biólogos desde la formulación del mismo, puesto que la única conducta que reconoce
ese modelo es la competencia. La conducta social de muchas especies de insectos puso el
problema en el blanco de todas las miradas y fue uno de los entomólogos más punteros,
Edward O. Wilson, quien, en 1975, puso formalmente en marcha la nueva subdisciplina de
la sociobiología con la publicación de su libro Sociobiology: the New Synthesis[1]. En él,
Wilson revisaba las hipótesis planteadas por especialistas en distintos campos y pedía su
integración para producir un «estudio sistemático de la base biológica de toda la conducta
social», incluyendo la humana. Plantea el axioma central de que la conducta del individuo
está conformada por sus genes y, por lo tanto, es hereditaria y sujeta a selección natural.[2]
Selección de grupo

Mucho antes de que se elaborara la síntesis neodarwinista, Darwin había reconocido


el conflicto entre su hipótesis, que está enraizada en el egoísmo competitivo, y la ética
humana. Y había llegado a la conclusión de que, a pesar de que los hombres con estándares
éticos elevados tienen nula o escasa ventaja sobre los demás de la misma tribu, una tribu
que disponga de hombres dispuestos a ayudarse mutuamente y a sacrificarse por el bien
común, saldrá victoriosa sobre las demás tribus «y esto sería selección natural».[3]
Aunque Darwin había estado considerando que la conducta humana estaba regida
por la razón, en un libro publicado en 1962 y titulado Animal Dispersion in Relation to
Social Behaviour [Dispersión animal en relación a la conducta social], el zoólogo Vero
Wynne-Edwards aplicó la idea de selección de grupo a la conducta animal, argumentando
que muchas conductas son adaptaciones del grupo más que adaptaciones del individuo.
El biólogo evolucionista teórico, George C. Williams, atacó esta hipótesis en el
influyente libro que publicó en 1966 bajo el título Adaptation and Natural Selection
[Adaptación y selección natural] en el que afirmaba que «las adaptaciones a nivel de grupo
en realidad no existen».[4]
Williams no criticaba la fusión entre conducta animal instintiva y conducta humana
intencionada. Más bien al contrario, aplicó el enfoque reduccionista a animales y humanos
declarando que «el objetivo de la reproducción de un individuo es […] maximizar la
representación de su propio plasma germinal, en relación con el de otros miembros de la
misma población».[5] Williams ayudó a sentar las bases de la visión radical de la conducta
centrada en el gen, que adoptó a partir de entonces la mayoría de sociobiólogos.
Altruismo por parentesco o aptitud inclusiva

No sé si se trata de un mito urbano, pero se dice que esta hipótesis tiene sus orígenes
en un pub británico a mediados de la década de los 50, cuando al genetista J. B. S. Haldane
le preguntaron si daría la vida por su hermano. Después de hacer unos cuantos cálculos,
respondió que solo daría la vida por dos hermanos u ocho primos. Su razonamiento era el
siguiente: teniendo en cuenta que cada hermano compartía la mitad de sus genes, y que
cada primo hermano compartía una octava parte de sus genes, solo podía garantizar la
supervivencia de las copias de sus genes si un mínimo de dos hermanos u ocho primos
sobrevivían después de su muerte.
Publicó estas conclusiones en 1955,[6] pero fue otro genetista teórico, William D.
Hamilton, quien formalizó la hipótesis en 1964[7] en forma de un complejo modelo
matemático basado en supuestos sobre genes que llevaría a los individuos a comportarse
según una fórmula que acabó conociéndose como la Regla de Hamilton:
rxB>C

Donde r es el grado de relación genética (nivel de parentesco) entre el altruista y el


beneficiario, B es el beneficio reproductivo (en número de descendientes) conseguido por el
receptor de la conducta altruista, y C es el coste reproductivo (en número de descendientes)
que sufre el individuo que se comporta altruistamente.
En el caso de hermanos, r es ½ porque tienen en común la mitad de sus genes,
mientras que en primos hermanos r es 1/8, porque tienen una octava parte de sus genes en
común. El altruismo por parentesco dice explicar la conducta altruista en humanos y
animales, como el de las hormigas obreras que prescinden de su capacidad reproductora
para colaborar en el incremento de capacidad reproductora de la reina, que es su madre.
Hamilton lo denominó «aptitud inclusiva», un fenómeno que los genetistas teóricos
definieron como la capacidad de un organismo de transmitir sus genes a la siguiente
generación. Según Hamilton, podría realizarse directamente a través de la reproducción
sexual, por la que se transmiten la mitad de los genes a la descendencia, o también
indirectamente fomentando la reproducción de genes idénticos en otros organismos. De este
modo, su aptitud inclusiva incluía métodos tanto directos como indirectos.
George Price, fisicoquímico norteamericano, desarrolló un teorema matemático para
ampliar y demostrar la idea de Hamilton. Pero Price reconoció que una prueba matemática
de que la conducta altruista era resultado de que los genes conservaban copias de sí mismos
a través de los parientes más próximos, no era una prueba empírica de que el altruismo
funcionara así en el mundo real. Para demostrarlo, empezó a donar sus posesiones a gente
con quien no tenía ningún tipo de parentesco genético: vagabundos, alcoholicos y
drogadictos. Al final, fue desahuciado de la vivienda que tenía alquilada y después de vivir
en varios edificios ocupados del norte de Londres, acabó suicidándose.[8]
La hipótesis del altruismo por parentesco, o la aptitud inclusiva, presenta seis
principales problemas.
En primer lugar, no aborda la conducta de las especies más numerosas del planeta,
los organismos unicelulares, como los procariotas, que se replican produciendo clones de sí
mismos y pueden utilizar la transferencia genética horizontal para obtener genes o
transmitir genes a especies con las que no guardan ningún parentesco.
En segundo lugar, los modelos matemáticos asumen que todos los miembros de un
grupo se comportarán de la misma manera si comparten los mismos genes. Pero en la
realidad, la relación entre genes y conducta es mucho más compleja. La variación
conductual entre grupos puede ser grande aun cuando la variación genética entre ellos sea
pequeña.[9]
En tercer lugar, la mayoría de conductas animales citadas a modo de ejemplo no son
altruistas. En las sociedades de insectos, por ejemplo, la pérdida de capacidad reproductora
de las obreras para ayudar a la reina es forzada, y a menudo mediante métodos salvajes.[10]
En cuarto lugar, confunde conducta animal instintiva con conducta humana
intencionada.
En quinto lugar, no explica la conducta altruista en los humanos. El altruismo de
Price fue excepcional solo en magnitud. Muchas monjas y monjes adoptan expresamente el
celibato y consagran su vida a actos altruistas en los que no hay transmisión de genes,
directa o indirecta, a la siguiente generación. En un ejemplo más común, cuando un
ciudadano británico dona 1.000 libras a las víctimas del terremoto de Haití de 2010, no se
produce una transmisión de genes, directa o indirecta, a la siguiente generación.
En sexto lugar, incluso reconociendo que la inmensa mayoría de ejemplos que
encontramos de este tipo de actos en animales constituye una colaboración forzada o
instintiva más que altruista, el parentesco genético de los primos segundos es 1/128 (uno de
cada 128 genes).
A ese nivel, la reproducción indirecta de genes idénticos es mínima y, más allá de
este grado de parentesco, es desdeñable. Pero con todo y con eso, abundan evidencias de
colaboración entre miembros remotamente emparentados de la misma especie, así como
entre miembros de especies distintas.[11]
«Altruismo recíproco»

Robert Trivers, sociobiólogo teórico de la Universidad de Harvard, propuso el


concepto de «altruismo recíproco» para solventar estos dos últimos problemas. Sostiene
que animales y humanos se comportan altruistamente porque en el futuro su gesto se verá
reciprocado con otro acto altruista.
Su trascendental documento, «The Evolution of Reciprocal Altruism»[12] [La
evolución del altruismo recíproco], desarrolla la Regla de Hamilton con formulaciones
matemáticas de los beneficios y los costes netos de los distintos actos altruistas de cada
individuo, controlados por distintos genes con distintas frecuencias de población en
momentos distintos. Estableciendo en su modelo un coste muy bajo para los altruistas y un
beneficio muy alto para los receptores, Trivers argumenta que los tramposos (individuos
que se benefician del altruismo pero que no lo devuelven) podrían acabar cobrando ventaja;
sin embargo, la selección natural acabaría favoreciendo a los individuos que discriminan
contra los tramposos y que colaboran con los individuos que los han ayudado en el pasado.
Aporta tres casos como base de su hipótesis: (a) las simbiosis limpiadoras, (2) los gritos de
alerta entre aves, y (3) el altruismo recíproco humano.
La hipótesis, sin embargo, tiene un defecto de base fundamental. La definición
universalmente aceptada de altruismo podría resumirse como:
Altruismo: conducta caracterizada por la preocupación desinteresada por el
bienestar de los demás.
El «altruismo recíproco» es terminológicamente contradictorio. Si un acto recibe
una respuesta recíproca deja de ser un acto altruista. Se convertiría en lo que Kropotkin
describió setenta años antes como apoyo mutuo.
Las simbiosis limpiadoras, mencionadas en el capítulo 19, ejemplifican el apoyo
mutuo entre individuos de especies distintas: los pequeños peces limpiadores, como los
lábridos, se alimentan de los parásitos de la boca de peces anfitriones de mayor tamaño que
ellos, como el mero. Los beneficios que obtienen ambas partes son inmediatos y no
retardados, como insinúa la hipótesis de Trivers: no ofrece evidencias de discriminación
contra los tramposos ni de colaboración selectiva entre individuos que los han ayudado en
el pasado.
El segundo caso ya estaba documentado por Kropotkin: unas cuantas aves actúan
como centinelas para el resto de la bandada mientras esta come y lanza gritos para llamar la
atención a los depredadores, haciéndose vulnerables a ellos. Tampoco aquí Trivers ofrece
evidencias de que un ave no actúe como centinela para aquellas aves que se han negado a
actuar como centinelas en el pasado, o de que solo actúe para aquellas que le han ofrecido
este servicio en el pasado.
En el tercer caso, Trivers no hace ninguna distinción entre el apoyo mutuo entre
humanos, como sucede con las sociedades mutuas y cooperativas, y el altruismo. El
ejemplo de un altruista británico que dona 1.000 libras a las víctimas del terremoto de 2010
en Haití no solo refuta la hipotesis del altruismo por parentesco, sino que refuta también el
«altruismo recíproco»: ningún donante espera que las víctimas del terrorismo les devuelvan
la ayuda enviándoles 1.000 libras en un futuro, ni tampoco existen muchas probabilidades
de que puedan ayudarlos de otra manera.
A pesar de estos defectos conceptuales, el documento de Trivers fue muy influyente
entre los sociobiólogos. Sus ideas, junto con las de Hamilton, Price y Williams,
consolidaron un enfoque centrado en el gen y estimularon un aluvión de artículos teóricos
que la figura 23.1 encapsula como una matriz de cuatro conductas básicas basadas en las
ganancias y las pérdidas en la aptitud evolutiva para el donante y el receptor. La conducta
en la que tanto el donante como el receptor ganan es cooperativa, aquella en la que el
donante pierde y el receptor gana es altruista, aquella en la que tanto el donante como el
receptor pierden es rencorosa y, por último, aquella en la que el donante gana y el receptor
pierde es egoísta.
Teoría de juegos

Para sustentar sus hipótesis, muchos sociobiólogos acuden a la teoría de juegos.


Esta teoría fue desarrollada principalmente por el matemático John von Neumann y el
economista Oskar Morgenstern en su libro The Theory of Games and Economic Behavior
[La teoría de juegos y comportamiento económico] (1944) para predecir el comportamiento
económico; se utilizó asimismo para diseñar estrategias militares después de la Segunda
Guerra Mundial. Un juego consiste en entre dos y n jugadores colocados en una situación
competitiva. Cada jugador recibe diversas opciones, elegidas por el diseñador del juego, y
juega siguiendo unas reglas, elegidas también por el diseñador del juego, con el objetivo de
maximizar sus recompensas o minimizar las recompensas de sus oponentes.
Con su número arbitrario de jugadores, elecciones, reglas, recompensas y castigos,
estos juegos teóricos solo pueden evaluarse por el éxito de sus predicciones. Su trayectoria
en juegos de guerra diseñados por el Pentágono y aplicados en Corea, Vietnam, Camboya,
Irak y Afganistán, y en la economía, donde no lograron predecir el colapso del mercado de
las hipotecas sub-prime, la pérdida de liquidez de los grandes bancos, la crisis financiera
global de 2007-2008 y el auge de China como potencia económica, inspira escasa
confianza.
El juego adoptado por la mayoría de sociobiólogos es el del dilema del prisionero
que Hamilton, junto con el científico político Robert Alexrod, utilizaron para intentar
demostrar cómo seleccionan la cooperación los grupos sociales. En el caso clásico, dos
prisioneros acusados, por ejemplo, de robo a mano armada tienen que cumplir, por ejemplo,
una sentencia de diez años. Las reglas son que el fiscal no dispone de pruebas suficientes
para realizar una condena sin previa confesión, de modo que separa a ambos prisioneros y
les ofrece la elección de confesar o no confesar sin que sepan cuál será la elección del otro
prisionero. Si los dos confiesan, ambos serán condenados pero con una sentencia reducida
de, por ejemplo, seis años; si ninguno de los dos confiesa, ambos serán condenados pero
por un crimen menor como, por ejemplo, posesión ilegal de armas y cumplirán, por
ejemplo, dos años de cárcel; si el Prisionero A confiesa y el otro no, el Prisionero A será
recompensado con la libertad, mientras que su confesión servirá para condenar al
Prisionero B, que cumplirá la sentencia completa de diez años; lo mismo aplica al
Prisionero B.
El Prisionero A estará en una situación mejor si confiesa, independientemente de lo
que decida hacer el Prisionero B; lo mismo aplica al Prisionero B. Por lo tanto, un
prisionero racional que actúe por interés propio, confesará. Pero en una sociedad de dos
prisioneros, el resultado social de que cada prisionero persiga su propio interés es el peor de
todos (12 años de cárcel total para el grupo); si cooperan y ambos se niegan a confesar, el
resultado será el mejor de todos (4 años de cárcel total para el grupo. De ahí, se argumenta,
que la conducta cooperativa beneficia a la sociedad y es la seleccionada.
La implicación clara es que la cooperación se selecciona cuando los prisioneros no
actúan racionalmente pensando en su propio interés. Lo cual contradice el dogma
neodarwinista que defiende el propio interés competitivo como fuerza impulsora de la
evolución.
Posteriormente, Alexrod concibió una versión más sofisticada, el dilema del
prisionero iterado, en el que el juego se practica repetidamente en un ordenador de modo
que, por ejemplo, la elección de un jugador dependa de la elección anterior del otro jugador.
Tampoco en este caso los prisioneros pueden comunicarse entre ellos para decidir
cómo actuar. Pero la cooperación significa trabajar juntos, lo cual exige comunicación entre
los cooperantes. Impedir la comunicación es impedir la cooperación, lo que convierte el
juego en una tontería.
En términos generales, diseñando las reglas del juego y estableciendo valores
numéricos específicos para las recompensas y los castigos es posible demostrar que a
ambos jugadores les puede interesar cooperar por egoísmo o que a uno de los jugadores le
puede interesar actuar altruistamente por egoísmo porque ganará a largo plazo. Los
sociobiólogos adoptaron estos juegos para explicar no solo la conducta humana sino
también la animal.
En un grupo de animales, naturalmente, no habrá solo dos miembros, y mucho
menos dos genes, jugando un juego según unas reglas simplistas diseñadas por un
trascendental diseñador de reglas que da a cada jugador solo dos alternativas, determina las
recompensas y los castigos y no permite ni comunicación entre los jugadores ni interacción
con otros miembros, otros grupos, otras especies o con su entorno. Estos juegos, diseñados
en los años 70, tienen tanta relación con la realidad como los juegos que se jugaban en los
ordenadores ZX Spectrum de 16 kilobytes o en el Commodore 64 de aquella época. Pero, a
pesar de ello, los biólogos evolucionistas siguen utilizándolos hoy en día.
Prueba empírica

En cuanto a una prueba empírica antes que un modelo de ejemplos, el ejemplo


icónico de «altruismo recíproco» son los murciélagos vampiro. A principios de los 80, el
especialista en conducta animal, Gerald S. Wilkinson, entonces en la Universidad de
California, San Diego, llevó a cabo un estudio de esos murciélagos, que suelen regurgitar
parte de su última comida para alimentar a los murciélagos que no han conseguido
encontrar alimento con sangre (o que en el caso del experimento, Wilkinson impidió
encontrar alimento con sangre). Llegó a la conclusión de que dar comida depende igual e
independientemente del grado de parentesco y del índice de oportunidad de reciprocidad, y
que la reciprocidad opera en grupos donde hay tanto parientes como no parientes.[13]
Sin embargo, sus datos no muestran evidencias de que algún murciélago vampiro se
negara a alimentar a un ejemplar que previamente se hubiera negado a alimentar a otro, ni
de cómo un murciélago vampiro puede saber que el favor le será devuelto en el futuro. Los
datos más bien sugieren que compartir alimento es más frecuente entre padres y crías y que
los demás casos están determinados en gran parte por la necesidad de los ejemplares
desnutridos, que morirían en el caso de no poder ingerir alimento con sangre durante más
de dos noches.
El psicólogo y biólogo evolutivo Marc Hauser, y sus colegas de la Universidad de
Harvard, revisaron intentos más recientes de entrenar a arrendajos y chimpancés en el juego
del dilema del prisionero, junto con los experimentos del mismo Hauser realizados con
monos tití cabeza blanca genéticamente no emparentados, con el objetivo de obtener
pruebas empíricas del «altruismo recíproco».
Uno de los problemas del caso es que la Universidad de Harvard confirmó en 2010
que, después de tres años de investigación, había encontrado a Hauser culpable de ocho
delitos de mala praxis científica. Entre los cargos de los que se le acusaba destacaba la
falsificación de datos de la conducta del tití cabeza blanca. La Office of Research Integrity
de los Estados Unidos llegó en 2012 a la conclusión de que Hauser era además culpable de
mala praxis investigadora y de que había inventado datos de uno de los estudios y descrito
con falsedad la metodología de otras investigaciones. Hauser nunca reconoció ni negó las
acusaciones, pero dimitió de su puesto.[14]
En el artículo publicado en 2009, Hauser y sus colegas llegaron a la conclusión de
que:
Darwin sabía que el altruismo, y la ética en el sentido más general, representaba un
auténtico rompecabezas para su teoría de la selección natural. Pero si adoptamos el punto
de vista del gen, estos actos altruistas dejan de ser un reto para la lógica de Darwin. Los
costes del altruismo quedan neutralizados por el parentesco o por la perspectiva de una
relación altruistamente recíproca. Pero a pesar de que esta perspectiva teórica funciona, no
logra explicar la práctica ausencia de altruismo recíproco y rencor entre los vertebrados
sociales [la cursiva es mía].[15]
Es decir, que el modelo teórico no consigue explicar lo que se observa.
Stuart West y sus colegas lo confirmaron en la revisión de la literatura existente que
hicieron en 2011. «En general, después de cuarenta años de entusiasmo, se aprecia la
carencia de un ejemplo claro de reciprocidad en especies no humanas».[16]
Por lo que a la conducta rencorosa se refiere (véase figura 23.1), Andy Gardener, de
la Queen’s University, Ontario, y sus colegas, desarrollaron un modelo teórico para abejas
poliembriónicas (genéticamente idénticas). Produjeron abejas soldado que no defienden
sino que actúan como mediadoras (el donante pierde) y que son estériles (el receptor
pierde). Con una destreza semántica de la que George Orwell se habría sentido orgulloso,
argumentaron que se trata de «un candidato supremo de conducta rencorosa» pero que
«otras interpretaciones, como altruismo o altruismo indirecto, serian también válidas».[17]
La conclusión de Edward O. Wilson sobre la selección por parentesco aplica
igualmente al «altruismo recíproco» y a cualquiera de los modelos matemáticos diseñados
para explicar los cuatro modelos básicos de conducta animal y humana. Está «construido
para llegar a prácticamente cualquier resultado imaginable y, como resultado de ello, está
vacío de contenido. Sus parámetros abstractos pueden improvisarse para que encajen con
cualquier conjunto de datos empíricos, pero no está construido para predecirlos en ningún
nivel de detalle».[18]
El gen egoísta

Richard Dawkins popularizó y desarrolló el enfoque centrado en el gen en dos


libros destacados, The Selfish Gene[19] y The Extended Phenotype [El fenotipo extendido]
(1982).
Dawkins explica que «El argumento en [El gen egoísta] es que tanto nosotros como
el resto de animales somos máquinas creadas por nuestros genes». La competencia que se
da en la naturaleza no es entre organismos sino entre genes para su propia supervivencia y
replicación. «Defiendo que una de las cualidades predominantes que cabe esperar en un gen
exitoso es un egoísmo despiadado».[20]
Apodado a menudo como el rottweiler de Darwin, Dawkins es lo bastante honesto
como para reconocer que Darwin a duras penas reconocería su teoría en la hipótesis del gen
egoísta, tal y como muestra la cita que aparece debajo del título de este capítulo. Sin
embargo, sostiene que «es un vástago lógico del neodarwinismo ortodoxo». Creo que la
mejor manera de describirlo sería:
Ultradarwinismo: cualquier hipótesis que emplee el concepto de la evolución de
cosas que no sean organismos por medio de la selección natural y en la que el efecto
acumulativo de pequeñas variaciones aleatorias en los caracteres de esas cosas, o en los
caracteres causados por esas cosas, las haga, a lo largo de numerosas generaciones, cada
vez mejor adaptadas para competir por la supervivencia y la reproducción en su entorno.
Un único gen egoísta «intenta hacerse más numeroso en el acervo génico».[21] Este
egoísmo genético «dará habitualmente lugar a una conducta individual con egoísmo. Sin
embargo […] hay circunstancias especiales en las que un gen puede alcanzar mejor sus
objetivos egoístas fomentando una forma limitada de altruismo a nivel de los animales
individuales. “Especiales” y “limitada” son las palabras importantes en esta última frase».
[22]
Estas excepciones especiales y limitadas son el altruismo por parentesco y el
«altruismo recíproco» que hemos comentado previamente, en los que los genes pueden
alcanzar también su objetivo egoísta ayudando a la supervivencia y la replicación de genes
idénticos en otros cuerpos.
Además, «los efectos fenotípicos de un gen no se limitan solo al organismo que lo
transporta. Efectivamente, en principio, y también de hecho, el gen se extiende más allá de
la pared corporal del individuo y manipula objetos del mundo exterior, algunos de ellos
inanimados, otros seres vivos, algunos de ellos tremendamente remotos […]. El alcance de
un gen no conoce fronteras».[23]
Por ejemplo, a pesar de que «no queda del todo claro cuál es su propósito darwinista
[el de las presas de los castores], es evidente que debe de haber uno, puesto que los castores
dedican mucho tiempo y energía a construirlas […] el lago de un castor […] es un fenotipo,
igual que lo son los dientes del castor y su cola, y ha evolucionado bajo la influencia de la
selección darwiniana. Aquí, la elección debe de haber sido entre lagos buenos y lagos
menos buenos […]. Los lagos de los castores son efectos fenotípicos extendidos de los
genes del castos [la cursiva es mía]».[24] Confieso que no queda del todo claro por qué
tendría que ser así; las afirmaciones sin base no son ni buena ciencia ni buena lógica.
En este caso, estoy utilizando más citas directas de lo habitual porque Dawkins se
queja con frecuencia de que los escépticos no suelen leer más allá del título de El gen
egoísta. Y por si acaso alguien piensa que estoy citando ideas de 1976 (actualizadas en la
edición de 1986 que estoy utilizando) que han quedado descartadas, Dawkins declaró en
2006 que «poca cosa hay que correría a borrar ahora o a disculparme por haberlo dicho».
[25]
A pesar de esta declaración, la hipótesis del gen egoísta presenta problemas teóricos
y empíricos.
Los genes egoístas son segmentos de ADN que codifican para proteínas. Dawkins
no rechaza como basura el restante 98 por ciento del genoma humano, pero dice: «La forma
más simple de explicar el excedente de ADN es suponiendo que es un parasito o, en el
mejor de los casos, un pasajero inofensivo o inútil que viaja gratis en la máquina de
supervivencia creada por el resto de ADN».[26] La más simple, tal vez, pero errónea. La
mayoría de este ADN está implicada en redes que regulan los genes, y esta regulación
determina el fenotipo del organismo tanto como lo determinan sus genes.[27]
Dawkins dice también: «Si nos permitimos la licencia de hablar de los genes como
si tuviesen propósitos conscientes, asegurándonos siempre de que será factible traducir
nuestro impreciso lenguaje a términos respetables si así lo deseamos…».[28] Pero él nunca
traduce este lenguaje impreciso a términos respetables, ni explica qué metáfora representa
el gen egoísta si es que en realidad es una metáfora, ni explica qué es lo que lleva a los
genes a comportarse como si fueran egoístas. De hecho, afirma que «La unidad
fundamental, el motor principal de toda la vida, es el replicador […] el cuerpo individual
[…] no tendría que existir».[29] El filósofo Peter Koslowski argumenta que Dawkins
«concede a los genes capacidad de aspiración, intencionalidad y consciencia. Con ello, cae
en el animismo genético, que asigna percepción y decisión a los genes».[30]
Gould realiza una crítica similar. «La identificación errónea de los replicadores
como los agentes causales de la selección —el fundamento del enfoque centrado en el gen
— se asienta en un error lógico que puede caracterizarse como una confusión de la
causalidad con la contabilidad».[31]
Dejando aparte el error conceptual de atribuir intenciones a los segmentos de un
ácido (ADN, ácido desoxirribonucleico), el test científico de la hipótesis del gen egoísta
consiste en ver si las evidencias la sustentan.
Recurriendo al lenguaje de Dawkins, podría decirse que los genes del cáncer son los
genes egoístas más exitosos. Hacen que las células que ocupan se repliquen
incontrolablemente, produciendo una cantidad increíble de copias de sí mismas. Su éxito
puede llegar a ser tan grande que el cuerpo, su máquina de supervivencia, muere,
llevándoselas así con él. Resulta complicado entender si esto es de verdad un éxito.
En un momento del capítulo 3 de El gen egoísta, Dawkins reconoce que en el
desarrollo embrionario, los genes «colaboran e interactúan de formas inextricablemente
complejas, tanto entre ellos como con el entorno exterior».[32] Pero en el resto del libro
regresa a la tesis de que el «gen es la unidad básica del egoísmo»[33] y los ejemplos citados
asumen que cada gen codifica para un carácter. Sin embargo, la mayoría de caracteres surge
de la colaboración de muchísimos genes.[34] Esta evidencia empírica de colaboración de
genes (y no de excepciones especiales y limitadas) contradice el axioma de competencia
entre genes que presenta la hipótesis.
Antes de dedicarse a popularizar la ciencia, Dawkins trabajaba como etólogo (su
tesis de doctorado, supervisada por Niko Tinbergen, lleva por título «Selective Pecking in
the Domestic Chick» [Picoteo selectivo en la cría del pollo], por lo que podríamos asumir
que se mueve en terreno seguro a la hora de buscar bases empíricas de la conducta. Dice
que «Si C es mi gemelo idéntico [y por lo tanto tiene genes idénticos a los míos], entonces
debería cuidar de él el doble que cuido de cualquiera de mis hijos [que tienen la mitad de
mis genes], de hecho, tendría que valorar su vida tanto como la mia».[35] Esta predicción
de la teoría del gen egoísta queda contradicha por las evidencias conductuales. Dawkins
intenta explicarla diciendo que los animales podrían no estar seguros de sus relaciones de
parentesco. ¿Pero cómo aplica esta explicación a la conducta humana?
Dawkins utiliza el argumento de Trivers que dice que, debido a que el macho
produce un gran número de pequeños espermatozoides y la hembra produce un número
pequeño de óvulos relativamente grandes, el macho deja la crianza de la descendencia en
manos de la hembra para poder marchar a mantener relaciones sexuales con todas las
hembras posibles y, de este modo, producir el máximo número de copas de sus genes
posible. «Como veremos, los machos de diversas especies consiguen este estado de cosas,
pero los machos de otras especies se ven obligados a compartir a partes iguales la carga de
criar a los hijos».[36] Es decir, que hay evidencias que apoyan su postura con respecto a los
machos mientras que otras la contradicen. De hecho, exceptuando las especies monógamas,
hay diversos grupos de aves, como los falaropos (aves zancudas de pequeño tamaño), en los
que la hembra deja al macho al cargo de la incubación de los huevos y la crianza de los
polluelos.
Dawkins reconoce que en las especies que viven en rebaños o en manadas, una
hembra no emparentada puede adoptar una cría que ha quedado huérfana. «En la mayoría
de casos, podríamos considerar la adopción […] como el fracaso de una regla inherente. Y
es así porque, cuidando del huérfano, la hembra generosa no está haciéndoles ningún favor
a sus genes […]. Es presumiblemente un error que sucede con tan poca frecuencia que la
selección natural no se ha “tomado la molestia” de cambiar la regla haciendo el instinto
maternal más selectivo [la cursiva es mía]».[37] Parece un poco desconsiderado por parte
de la selección natural, quién quiera que esta sea.
Otra evidencia reconocida por Dawkins en un programa de televisión que realizó
para Channel 4 en 2009 contradice también la hipótesis del gen egoísta, pero en vez de
cambiar la hipótesis para tener en cuenta estas contradicciones, Dawkins las atribuye
también a «fallos» de genes sin explicar cuál es la causa de esos fallos.[38]
El gen genial

La bióloga evolutiva de la Universidad de Stanford, Joan Roughgarden, utilizó


también la teoría de juegos, pero esta vez para desafiar los supuestos de la hipótesis de la
inversión parental de Trivers y la hipótesis del gen egoísta. Recurrió a un juego económico
distinto, cuyas reglas posibilitan que los jugadores puedan comunicar, regatear y pago de
compensaciones. En 2009, publicó The Genial Gene: Deconstructing Darwinian
Selfishness [El gen genial: desmontando el egoísmo darwiniano], que llega a la conclusión
de que la única manera de que un progenitor pueda criar con éxito a su descendencia y, en
consecuencia, conseguir la aptitud evolutiva, es a través de un grado elevado de
cooperación.[39]
Resulta tentador concluir que el resultado que obtiene Roughgarden con su modelo
ilustra una tercera ley newtoniana de la biología: para cada modelo matemático de la
biología existe un modelo igual y opuesto.
Selección multinivel

En 2010, Edward O. Wilson tuvo la perspicacia y la valentía de decir que se había


equivocado y que la sociobiología había seguido un camino erróneo en los años 60. David
Sloan Wilson y él (no guardan ningún parentesco) habían llegado de forma independiente a
la idea de la selección multinivel. Esta hipótesis afirma que la selección natural no opera en
ningún nivel privilegiado, sea este gen, célula, organismo, grupo o ecosistema. En el mundo
complejo de la biología, un nivel puede ser más significativo que otro, pero ese nivel
cambia para cada especie con el tiempo y el entorno. Además, las transiciones evolutivas
importantes se producen cuando hay un cambio en el nivel de selección, por ejemplo,
cuando las células eucariotas individuales colaboraron para formar organismos
pluricelulares. De un modo similar sucede con los insectos eusociales, en los que la
selección natural ha cambiado a los insectos individuales para transformarlos en una
sociedad de partes colaboradoras integrada por una cabeza (la reina) y unos grupos de
insectos con diversas funciones especializadas; la sociedad de insectos se comporta como
un organismo individual pluricelular.
Los neodarwinistas y los ultradarwinistas han atacado esta propuesta —Richard
Dawkins con especial acritud[40]— que ofrece un relato de la evolución biológica
consistente con las hipótesis del apoyo mutuo y de la simbiogénesis que se tratan en la
sección siguiente.
Los modelos matemáticos de los sociobiólogos que ampliaron los principios
neodarwinistas constituyen la explicación ortodoxa actual para aquellas conductas sociales
que entran en conflicto con el paradigma competitivo. Los modelos matemáticos pueden
ser una herramienta potente para insinuar leyes naturales más profundas cuando estos
modelos proyectan patrones sobre la conducta real, y las ecuaciones matemáticas pueden
expresar leyes naturales con elegancia y predecir la conducta futura de un sistema cuando
se conocen los parámetros de dicho sistema. Pero las ecuaciones y las teorías de juego de
los años 50, simplistas, fallidas, le hacen un flaco favor a la biología porque están
divorciadas de la realidad biológica, no pueden diseñarse para producir resultados, carecen
de valor predictivo y se contradicen con las observaciones de los animales en libertad y de
los humanos.
Colaboración

Stuart West considera que el hecho de que la explicación de la colaboración sea uno
de los principales problemas a los que se enfrentan las ciencias biológicas y sociales es un
problema autoimpuesto causado por la adopción del modelo neodarwinista, que está
enraizado en la competencia. Las dos hipótesis siguientes solventan este problema mediante
el sencillo dispositivo de reconocer que la colaboración supera en importancia a la
competencia como causa de la evolución biológica.
Apoyo mutuo

En un documento titulado «The Evolution of Society» [La evolución de la


sociedad], donde cuatro líderes de la especialidad presentaron sus quince contribuciones a
una reunión de dos días organizada en 2009 por la Royal Society, aparecían diversas citas
de pasajes de Darwin donde el autor destacaba que muchos animales viven en grupo y
cooperan entre sí.[41] El capítulo 16 de este libro apunta que Darwin realizó estas
observaciones en un capítulo de El origen del hombre, donde dice que las comunidades que
cuenten con un mayor número de miembros empáticos prosperarán por encima de las
demás y tendrán más descendientes. Pero en el capítulo 16 hemos dicho también que la
mayor parte de los libros de Darwin contradice este punto de vista y favorece el de la
naturaleza en guerra, siendo las peores luchas las que se producen entre miembros de la
misma especie o de especies similares. Y ahí está la base de las hipótesis darwinistas y
neodarwinistas.
El documento «The Evolution of Society» defiende que Darwin «anticipa avances
teóricos (sobre la evolución de las sociedades animales y humanas) que no se producirán
hasta cien años más tarde» y que estudios de importancia comparable no empezaron a
llevarse a cabo hasta principios de los años 60. Omite, sin embargo, cualquier mención a la
obra de Peter Kropotkin.
Como hemos visto en el capítulo 16, el libro de Kropotkin Mutual Aid: A Factor of
Evolution (publicado por primera vez en Inglaterra en 1902 y con una edición final en
1914), ofrece numerosas evidencias en distintas especies animales que sustentan sus
descubrimientos de que los animales seleccionados naturalmente —los que sobreviven más
tiempo y crían más— adoptan estrategias para evitar la competencia: colaboran para
conseguir el sustento, para protegerse de los depredadores, para emigrar temporal o
permanentemente a hábitats más favorables y para crían y a veces entrenar a su
descendencia.[42] Koprotkin concluye: «Los más adaptados son pues los animales más
sociables, y la sociabilidad parece ser el principal factor de la evolución, tanto
directamente, garantizando el bienestar de las especies y disminuyendo a la vez la pérdida
de energía, como indirectamente, favoreciendo el crecimiento de la inteligencia».[43]
Después de examinar, en el capítulo 19, las evidencias de las que disponemos
actualmente con referencia a la conducta de las especies, llegué a la conclusión de que
sustentan más si cabe la hipótesis de Kropotkin:
Dentro de cada clase, el aumento de aprendizaje social está correlacionado con un
aumento de la complejidad cerebral, que va a su vez acompañado por un aumento de la
inteligencia, medida por el nivel de invención de soluciones novedosas para los problemas
que se presentan.[44]
Y de que, en general:
La colaboración juega un papel más relevante que la competencia en la
supervivencia y en la propagación de la vida, desde el nivel de los genes hasta los
organismos unicelulares, en los orgánulos de las células eucariotas, en las células eucariotas
de los organismos pluricelulares, y en la conducta de plantas y animales, desde los insectos
hasta los primates.[45]
Simbiogénesis

El capítulo 16 esboza la hipótesis de la simbiogénesis concebida por Konstantin


Mereschkovsky, Ivan Wallin y otros a principios del siglo xx siguiendo las ideas
simbióticas avanzadas en las décadas previas.[46] Este proceso evolutivo se inicia con la
simbiosis.
Simbiosis: asociación física de dos o más tipos distintos de organismos a lo largo de
la mayor parte de la vida de uno de ellos.
En algunos casos, su interacción metabólica produce una endosimbiosis.
Endosimbiosis: asociación en la que un organismo pequeño vive en el interior de
uno más grande, normalmente en condiciones de colaboración, en las que un organismo se
alimenta de la excreción metabólica del otro.
Que puede evolucionar hacia la simbiogénesis.
Simbiogénesis: fusión de dos tipos distintos de organismos para formar un nuevo
tipo de organismo.
Unos cuarenta años más tarde, una adjunta del departamento de Biología de la
Universidad de Boston, Lynn Margulis (Lynn Sagan por aquel entonces), desarrolló esta
hipótesis. Su artículo fue rechazado por una quincena de revistas antes de que el Journal of
Theoretical Biology decidiera publicarlo en 1967. Margulis siguió desarrollando sus ideas
en un libro publicado en 1970, Origin of Eukaryotic Cells [El origen de las células
eucariotas].[47] Como sucediera en su momento con las hipótesis de Kropotkin y de los
primeros proponentes de la simbiogénesis, las propuestas de Margulis fueron rechazadas o
ignoradas por los neodarwinistas, que dominaban la biología evolutiva.
Basándose en los estudios de las bacterias y de las protoctistas (especies de
eucariotas unicelulares y sus descendientes pluricelulares carentes de tejidos especializados,
como el alga kelp gigante) actuales, que viven en un entorno anaeróbico (sin oxígeno),
Margulis propuso que hacia finales del eón arcaico (hace entre 3,8 y 2,5 miles de millones
de años), cuando en los océanos y la atmósfera apenas había oxígeno, las bacterias
nadadoras antepasadas de las actuales espiroquetas se unieron a las arqueobacterias (a las
que comúnmente nos referimos como arqueas) que vivían en un entorno rico en sulfuro y
formaron una asociación simbiótica en la que se alimentaban mutuamente de sus productos
de desecho metabólico. Algunas de estas espiroquetas arcaicas penetraron la membrana de
las arqueobacterias en busca de sustento. Es probable que el parasitismo de estos
antepasados de las espiroquetas provocara la muerte de muchas arqueobacterias pero, en
otros casos, la asociación se desarrolló para dar lugar una endosimbiosis y, con el paso de
millones de años, a una simbiogénesis, en la que el ADN de los dos organismos se
combinó.
Durante el eón proterozoico (hace entre 2,5 miles de millones de años y 540
millones de años), esta combinación generó diversas secuencias evolutivas: alrededor del
genoma combinado creció una membrana y se formó el núcleo de una célula; se
desarrollaron entonces orgánulos para dar motilidad (movimiento independiente) a la
célula, como podrían ser cilios y flagelos; el proceso de la mitosis evolucionó y el
cromosoma del interior del núcleo de la célula se duplicó y el núcleo y el citoplasma se
dividieron para producir dos nuevas células genéticamente idénticas a la original. En
algunas células, los cromosomas se duplicaron una sola vez, pero el núcleo y el citoplasma
se dividieron dos veces para formar cuatro células sexuales —óvulos o espermatozoides—,
conteniendo cada una de ellas la mitad del número de cromosomas de la célula original y
facilitando con ello la reproducción sexual en la que una célula sexual se fusiona con una
célula complementaria de otro organismo para crear un nuevo individuo que posee genes de
ambos progenitores.
Estos nuevos organismos nucleados de mayor tamaño eran protoctistas anaeróbicas,
la raíz de todas las eucariotas. Durante ese mismo eón proterozoico, se produjo una segunda
y luego una tercera fusión simbiótica, que dieron como resultado los reinos de animales,
hongos y plantas (véase figura 23.2).
La segunda fusión se produjo entre las protoctistas anaeróbicas nucleadas y
bacterias que habían evolucionado para respirar oxígeno en su metabolismo y se habían
vuelto aeróbicas; el resultado fueron protoctistas aeróbicas unicelulares en las que las
antiguas bacterias independientes se convirtieron en mitocondrias. La imposibilidad de
separarse de algunas de estas células reproductoras dio lugar a muchos tipos de eucariotas
multicelulares. Algunas perdieron la capacidad de moverse de forma independiente y
formaron la base del reino de los hongos. Otras conservaron la motilidad y formaron la base
del reino animal. La fusión de una célula sexual nadadora (un espermatozoide) con una
célula sexual que había conservado la capacidad de dividirse pero no de nadar (un óvulo)
dio lugar a la reproducción sexual con dos géneros.
La tercera fusión tuvo lugar cuando protoctistas aeróbicas ingirieron bacterias
capaces de realizar la fotosíntesis, que posteriormente perdieron su capacidad de existir de
forma independiente y se convirtieron en cloroplastos. La fusión produjo un nuevo tipo de
eucariota capaz de utilizar la luz del sol como fuente de energía, protoctistas algales verdes.
Entre ellas, algunas perdieron la capacidad de moverse independientemente y sentaron las
bases del reino vegetal.[48]
Análisis genéticos realizados en los años 70 y 80 revelaron que los genes
cloroplásticos de algunas especies de algas se parecían muy poco a los genes de los núcleos
de las algas y sí se parecían a los genes de cianobacterias fotosintéticas, mientras que otras
evidencias del ADN sugerían que las mitocondrias derivaban de proteobacterias alfa
similares a unas bacterias actuales conocidas como rickettsias. Todo esto aportó una base
genética al origen simbiogenético de los cloroplastos y las mitocondrias en las células
eucariotas.
Pese a que la mayoría de biólogos evolutivos acepta hoy en día que la simbiogénesis
ofrece la explicación más plausible para el origen de las mitocondrias y los cloroplastos en
las células eucariotas, no aceptan la hipótesis de Margulis para el origen de las células
eucariotas y la evolución de los reinos taxonómicos.
Margulis contrataca argumentando que, aparte de en los modelos matemáticos, no
se ha demostrado nunca que la acumulación gradual de mutaciones genéticas aleatorias que
defienden los neodarwinistas haya producido un nuevo órgano o una nueva especie,
mientras que la simbiosis, la endosimbiosis y la simbiogénesis están generalizadas en la
naturaleza. Algunas especies de hormigas viven en relaciones simbióticas con pulgones: las
hormigas comen la ligamaza azucarada que excretan los pulgones después de absorber la
savia de las plantas y a cambio protegen a los pulgones de los depredadores y los
transportan de plantas marchitas a plantas sanas. La endosimbiosis es la norma: por
ejemplo, un cuerpo humano está integrado por aproximadamente 100 billones de células,
pero alberga en sus intestinos una cantidad de bacterias que triplica esa cifra; las distintas
especies de esas bacterias llevan a cabo funciones útiles, como la síntesis de las vitaminas B
y K. Un ejemplo conocido de simbiogénesis son las más de 15.000 especies de líquenes. A
pesar de que su aspecto recuerda el de las plantas, no tienen antepasados vegetales; están
formados por la simbiogénesis entre miembros de dos reinos distintos: hongos y bacterias
fotosintéticas (cianobacterias) o protoctistas (algas).
Según Margulis, a pesar de que la simbiogénesis no es la única causa de la
innovación evolutiva, sí es la principal. Cuando dos o más tipos de organismos fusionan sus
respectivas identidades, el proceso genera conductas y morfologías novedosas: nuevos
tejidos, nuevos órganos o vías metabólicas, y nuevos grupos de organismos, incluyendo
nuevas especies.
A Margulis le costó publicar su trabajo en las revistas científicas y biológicas
conocidas porque, como explicó en 2011, la biología evolutiva está acaparada por
genetistas de poblaciones, zoólogos experimentales y biólogos moleculares anglo-
americanos de la escuela neoodarwinista que «bloquean cuatro quintas partes de la
información de la biología [ignorando bacterias, protoctistas, hongos y plantas] y toda la
información de la geología. No saben nada sobre sistemas biológicos como la fisiología, la
ecología y la bioquímica […]. Son reduccionistas ad absurdum».[49]
El destacado neodarwinista, Jerry Coyne, se apresuró a responder estos comentarios
en su página web a través de un artículo titulado «Lynn Margulis disses evolution in
Discover magazine, embarrases both herself and the field» [Lynn Margulis humilla a la
evolución en la revista Discover y deja la materia y a sí misma en una situación
bochornosa]. Después de reconocer la contribución de Margulis a la explicación del origen
de las mitocondrias y los cloroplastos, destaca que Margulis coincide con los creacionistas
en su visión de la ineficacia del paradigma neodarwinista, y comenta que «al menos ella no
está tan loca como para aceptar a Dios como explicación científica. Aunque sí que lo está lo
bastante como para postular su teoría “alternativa” que, naturalmente, es la simbiosis [la
cursiva es de Coyne]». Repite las bases del modelo neodarwinista y concluye diciendo que
«cuando discute la biología evolutiva, Margulis se muestra dogmática, ignorante e
intelectualmente deshonesta».[50]
El título que Coyne eligió para su respuesta es indicativo. Margulis era una
evolucionista comprometida; su falta de respeto no era hacia la evolución, sino hacia el
modelo neodarwinista de la evolución biológica. Al equiparar evolución con
neodarwinismo, Coyne revela parte del problema de la biología evolutiva contemporánea,
puesto que cualquier cuestión que ponga en duda la ortodoxia actual suscita una respuesta
desdeñosa que queda a menudo muy lejos de la ética científica.
El consenso de la biología evolutiva actual es que la vida se dividió en primer lugar
en bacterias y arqueas, y de ahí en eucariotas que evolucionaron a partir de las arqueas o de
antepasados parecidos a arqueas. Posteriormente, las eucariotas adquirieron genes de las
bacterias dos veces, obteniendo la mitocondria a partir de proteobacterias alfa y los
cloroplastos a partir de bacterias fotosintéticas, como Margulis defiende, y los tres
dominios de bacterias, Arqueas y Eucariaotas se bifurcaron en árbol de la vida darwiniano
descendiente gracias, principalmente, a la transmisión sexual y la acumulación de
mutaciones genéticas aleatorias dentro de las poblaciones de las distintas especies.
De esta hipótesis se extrae la conclusión de que en las arqueas no deberían
encontrarse genes típicamente bacterianos, y que los únicos genes bacterianos de las
eucariotas deberían ser los del ADN mitocondrial o cloroplástico o los transferidos al
núcleo desde los precursores bacterianos de esos orgánulos, y deberían estar implicados en
la respiración o la fotosíntesis. Sin embargo, secuenciaciones recientes de genomas
completos han confundido esta hipótesis al revelar transferencias horizontales
desenfrenadas de múltiples genes. Muchas arqueas poseen una reserva importante de genes
bacterianos. Los genes nucleares de las eucariotas codifican procesos no respiratorios y no
fotosintéticos que son críticos para la supervivencia de la célula. Además, muchos genes
eucariotas no se parecen en nada a los de cualquier arquea o bacteria conocida; por
ejemplo, los genes implicados en dos características definitorias de las eucariotas, el
citoesqueleto y el sistema de membranas internas.[51]
Esta evidencia genómica sugiere con fuerza que durante los primeros dos mil
millones de años de la evolución biológica, las fusiones de genomas y las transferencias
horizontales de genes resultantes de colaboraciones y simbiogénesis entre distintas especies
jugaron un papel mucho más importante en la evolución biológica que la herencia vertical
neodarwinista de genes mutados aleatoriamente.
Durante los 1,5 miles de millones de años posteriores, la transferencia horizontal
siguió siendo probablemente el mecanismo de transmisión de genes y especiación más
importante de las procariotas. Dentro del reino taxonómico de los animales, la hipótesis del
apoyo mutuo —la colaboración en el seno de una especie y entre miembros de distintas
especies (simbiosis)— ofrece una explicación más factible que la competencia
neodarwinista para el patrón evolutivo de las especies que sobrevivieron y se reprodujeron
con éxito dentro de cada clase y exhibieron habilidades cognitivas crecientes obtenidas a
través del aprendizaje social.
Mis conclusiones al final de la segunda parte incluirán las conclusiones extraídas
desde el capítulo 21 hasta el 23 más las del siguiente capítulo.
[1] Publicado en español como Sociobiología, Ediciones Omega, Barcelona, 1980.
[2]Wilson (2000).
[3]Darwin, Charles (1882), pp. 131–132.
[4]Williams (1996), p. 93.
[5]Ibíd, p. vii.
[6]Haldane, J. B. S., «Population Genetics», New Biology, 18, 1955, pp. 34–51.
[7]Hamilton, W. D., «The Genetical Evolution of Social Behaviour 1», Journal of
Theoretical Biology, 7: 1, 1964, pp. 1–16.
[8]Harman (2010).
[9]Wilson, David Sloan y Wilson, Edward O., «Survival of the Selfless», New
Scientist: 3 de noviembre de 2007.
[10] Véase página 517.
[11] Véase página 520.
[12]Trivers, Robert L., «The Evolution of Reciprocal Altruism», The Quarterly
Review of Biology, 46: 1, 1971, pp. 35–57.
[13]Wilkinson, Gerald S., «Reciprocal Food Sharing in the Vampire Bat», Nature,
308: 5955, 1984, pp. 181–184; Wilkinson, Gerald S., «The Social Organization of the
Common Vampire Bat», Behavioral Ecology and Sociobiology, 17: 2, 1985, pp. 123–134.
[14]Véase http://harvardmagazine.com/2010/08/harvard-dean-details-hauser-
scientificmisconduct, 20 de agosto de 2010;
http://www.thecrimson.com/article/2010/9/14/hauser-lab-research-professor/?page=single,
14 de septiembre de 2010; y http://grants.nih.gov/grants/guide/notice-files/NOT-OD-12-
49.html «Findings of Research Misconduct», 10 de septiembre de 2012.
[15]Hauser, Marc, et al., «Evolving the Ingredients for Reciprocity and Spite»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 364: 1533, 2009,
pp. 3255–3266.
[16]West, Stuart A., et al., «Sixteen Common Misconceptions About the Evolution
of Cooperation in Humans», Evolution and Human Behavior, 32: 4, 2011, pp. 231–262.
[17]Gardner, Andy, et al., «Spiteful Soldiers and Sex Ratio Conflict in
Polyembryonic Parasitoid Wasps», The American Naturalist, 169: 4, 2007, pp. 519–533.
[18]Wilson, Edward O., «One Giant Leap: How Insects Achieved Altruism and
Colonial Life», BioScience, 58: 1, 2008, pp. 17–25.
[19] Puvblicado en español como El gen egoísta, Salvat Editores, Barcelona, 1993.
[20]Dawkins (1989), p. 2.
[21]Ibíd, p. 87.
[22]Ibíd, p. 2.
[23]Ibíd, pp. 265–266.
[24]Ibíd, p. 248.
[25]Dawkins, Richard, «It’s All in the Genes», Sunday Times, Londres, 19 de marzo
de 2006; libros 43–44.
[26]Dawkins (1989), p. 45.
[27] Véase página 503.
[28]Ibíd, p. 88.
[29]Ibíd, p. 264–266.
[30]Koslowski (1999), p. 308.
[31]Gould (2002), p. 614.
[32]Dawkins (1989), p. 37.
[33]Ibíd, p. 36.
[34] Véase página 513.
[35]Ibíd, p. 105.
[36]Ibíd, p. 140.
[37]Ibíd, p. 101.
[38]Dawkins, Richard, «The Genius of Charles Darwin, Episode 2», The Genius of
Charles Darwin, Gran Bre taña, Channel 4 Television, 4 de octubre de 2009.
[39]Roughgarden (2009).
[40]Dawkins, Richard, «Genes Still Central», New Scientist, 15 de diciembre de
2007.
[41]Clutton-Brock, T, et al., «The Evolution of Society», Philosophical
Transactions of the Royal Society B: Biological Sciences, 364: 1533, 2009, pp. 3127–3133.
[42] Véase páginas 429 a 434.
[43]Kropotkin (1978), p. 69.
[44] Véase página 479.
[45] Véase página 478.
[46] Véase página 434.
[47]Margulis (1970).
[48]Margulis, Lynn, et al., «“Imperfections and Oddities” in the Origin of the
Nucleus», Paleobiology 31 (sp5), 2005, pp. 175–191, más comunicaciones personales del 8
de Agosto al 3 de octubre de 2011.
[49]Teresi, Dick, «Lynne Margulis», Discover Magazine, abril de 2011, pp. 66–71.
[50]http://whyevolutionistrue.wordpress.com/2011/04/12/lynn-margulis-
dissesevolution-in-discover-magazine-embarrasses-both-herself-and-the-field/, 12 de abril
de 2011.
[51]Doolittle, W. Ford, «Uprooting the Tree of Life», Scientific American, 282,
2000, pp. 90–95.
CAPÍTULO 24. LA EVOLUCIÓN DE LA CONSCIENCIA

La consciencia es un misterio tan grande para nuestra especie que no podemos ni


siquiera empezar a elucubrar sobre su existencia en otras.

Lewis Thomas, 1984

Los humanos somos algo más que los caracteres fenotípicos resumidos en la clase
taxonómica Homo sapiens. Somos seres conscientes. Filósofos, psicólogos, antropólogos y
neurocientíficos no se ponen de acuerdo en cuanto a qué es la consciencia humana. La
mayoría lo estudian como algo en sí mismo, y trataré más sobre la consciencia humana en
la tercera parte. Sugiero, sin embargo, que del mismo modo que el fenotipo humano
evolucionó a partir de las primeras formas de vida de la Tierra, también lo hizo la
consciencia humana, y podremos llegar a comprenderla mejor, o como mínimo comprender
sus correlaciones físicas, si somos capaces de seguir su trayectoria evolutiva a lo largo del
linaje humano.
Para ello, utilizaré una definición amplia de la consciencia que aplica en cualquier
forma de ser vivo incipiente o rudimentario y que lo distingue de la materia inanimada.
Consciencia: la percepción del entorno, de otros organismos y de uno mismo que
incentiva a la acción.
La consciencia así definida puede plasmarse según las acciones consiguiente, es
decir, según la conducta de los organismos, y, en consecuencia, debemos trazar la evolución
de la conducta del organismo a lo largo del linaje humano.
La evolución de la conducta

Los fósiles rara vez insinúan conductas y, por lo tanto, la única manera de trazar el
recorrido de esta evolución consiste en examinar la conducta de aquellas especies vivas que
de un modo más razonable se asemejan a los fósiles datados en su estimada primera
aparición en las categorías taxonómicas que van desde los dominios de Bacterias y Arqueas
hasta la especie Homo sapiens, según se muestra en la tabla 20.1.
Bacterias y arqueas

Las especies más parecidas a las primeras formas de vida de la Tierra son las
procariotas: bacterias y arqueas. Estos sencillos organismos actúan respondiendo
directamente a estímulos externos e internos para sobrevivir.
Los estímulos externos son el calor, la luz, los elementos químicos del entorno y la
presencia de otros organismos; pueden ser fuente tanto de sustento como de peligro. Las
bacterias y las arqueas responden moviéndose hacia los elementos químicos y los
organismos que pueden utilizar para su mantenimiento y alejándose de aquellos que pueden
resultarles nocivos. En el capítulo 19 vimos un ejemplo de bacterias que respondían a otras
bacterias emitiendo moléculas de señalización hacia su entorno inmediato y con puntos
receptores para esas moléculas. Cuando sus receptores registraban una cantidad de señales
suficiente —lo que les daba una medida de la densidad de población local—, se
desencadenaba una respuesta directa y colaborativa, como un intercambio de genes, que
llevaba a la producción y excreción de polisacáridos para un biofilm comunitario o enzimas
para digerir las presas.[1]
Las bacterias muestran también una percepción rudimentaria de sí mismas al
responder directamente a estímulos internos. Un daño importante a su ADN desencadena lo
que se conoce como la respuesta SOS: el encendido de genes SOS, normalmente en
silencio, que activa un mecanismo reparador del ADN.
Eucariotas: unicelulares

Una eucariota sencilla unicelular, como una ameba, actúa también con una respuesta
directa sencilla a un estímulo externo, por ejemplo, formando extensiones temporales de su
citoplasma (conocidas como pseudópodos, o falsos pies) para impulsarse hacia los
elementos químicos que desprenden los alimentos o alejarse de los elementos químicos
nocivos.
Las eucariotas unicelulares más complejas presentan un sistema de respuesta directo
más complejo y utilizan orgánulos, o partes especializadas de la célula, tanto a modo de
receptores de estímulos como a modo de efectores de respuesta. Entre los receptores
destacan los filamentos sensoriales rígidos de los ciliados y los puntos fotosensibles de los
flagelados. Entre los efectores destacan los cilios (apéndices múltiples con aspecto de pelo
que surgen de la superficie de la célula y son capaces de golpear al unísono) y los flagelos
(cilios más alargados que se asemejan a látigos) que impulsan la célula, junto con otros
orgánulos que atraen alimento.
Eucariotas: animales

A medida que la vida evolucionó en la Tierra, produciendo un mundo más complejo


con más y distintos depredadores, competidores y colaboradores, los organismos
multicelulares del reino animal desarrollaron un segundo sistema de respuesta que permite
una respuesta más rápida, variada y flexible a los estímulos externos. Su conducta puede
clasificarse en cinco tipologías que se solapan entre sí: respuesta directa, innata, aprendida,
social e innovadora.
a. Respuesta directa
Las respuestas directas a los estímulos vinculadas a la supervivencia constituyen la
parte principal de la conducta de animales sencillos, como los invertebrados, pero persisten
como un componente destacado del repertorio conductual de animales más complejos y de
evolución reciente, tal y como queda ejemplificado en el humano que retira rápidamente la
mano del fuego.
La conducta de respuesta directa incluye los reflejos, que son respuestas
involuntarias a los estímulos. A medida que los animales se vuelven más complejos en su
linaje, también se vuelven más complejas sus respuestas reflejas, que suelen implicar varios
grupos musculares. Por ejemplo, en los humanos, el reflejo de doblar la rodilla se produce
cuando un golpe en el tendón rotuliano produce una sacudida en los músculos de la parte
delantera del muslo lo suficientemente fuerte como para extender la parte inferior de la
pierna a partir de la rodilla.
b. Respuesta innata

Las conductas vinculadas a la respuesta directa y a la respuesta innata se solapan en


lo que podría agruparse como conductas instintivas, que son respuestas no aprendidas a
estímulos concretos. Incluyen cosas como la necesidad de mantener relaciones sexuales
estimulada por determinadas visiones u olores, la respuesta de devolver el ataque o huir
ante un ataque, etc.
Creo que resulta útil distinguir entre la respuesta directa de supervivencia que un
individuo pueda tener ante un estímulo, de las acciones heredadas, predecibles y fijas que
un miembro de una especie realice en distintos entornos (que ofrecen distintos estímulos) y
que no necesariamente le aportan un beneficio —de hecho, podría incluso tener un coste
para él—, pero que sí sirven para la preservación de su especie.
En los insectos, descendientes de antiguos artrópodos, encontramos algunos de los
ejemplos más sorprendentes de este tipo de conducta innata. En unas 47 especies de
hormigas cortadoras de hojas de Centroamérica y América del Sur, por ejemplo, la casta
encargada de buscar el alimento colabora para cortar una hoja, luego la corta en trocitos y la
transporta por el bosque o, en algunas especies, por terrenos desérticos hasta el nido, donde
los trocitos se trituran, se convierten en pulpa y se utilizan como mantillo para el huerto de
hongos del nido.[2] Esta conducta no es una respuesta directa al hambre de una hormiga
concreta. Realizada por todas las hormigas cortadoras de hojas en sus respectivas colonias,
ayuda a preservar la especie produciendo y almacenando sustento para las necesidades
futuras de la colonia.
Desconocemos prácticamente por completo el mecanismo genético, o posiblemente
epigenético, de estas conductas hereditarias fijas que tal vez no benefician en nada al
individuo. En el último capítulo vimos que las hipótesis socio-biológicas no ofrecen un
relato convincente. Lo cual queda además subrayado por el hecho de que muchas conductas
innatas no son acciones colaborativas de un grupo, independientemente de que haya en él
parentesco o no, sino que se realizan a nivel individual.
Esta conducta innata individual está extendida entre los descendientes de los
vertebrados más primitivos, como los peces del periodo cámbrico. La mayoría de especies
actuales de salmón, después de pasar entre uno y nueve años en el mar, migran hacia aguas
dulces donde tienen sus zonas de puesta de huevos. Para hacerlo, el salmón debe primero
localizar un río y luego librar una batalla contracorriente, a menudo superar cascadas, y
recorrer hasta mil kilómetros con desniveles de hasta doscientos metros. Es complicado
entender todo esto como la respuesta de un individuo a su supervivencia; de hecho, el
salmón del Pacífico muere poco después del desove. Su cortejo y su conducta reproductora
constituyen asimismo una espinosa y complicada serie de acciones que ni son una respuesta
directa simple ni una respuesta aprendida.
Discernir qué conductas humanas son innatas es cuestión de largos debates. El
filósofo y lingüista Noam Chomsky afirma que el veloz aprendizaje del lenguaje por parte
de los niños sería imposible sin una capacidad para el lenguaje biológicamente innata, o
unas reglas innatas de gramática universal, a diferencia de lo que sucede, por ejemplo, con
el aprendizaje del juego del ajedrez.[3] Por otro lado, Michael Tomasello, psicólogo
evolutivo, rechaza este argumento y propone una teoría basada en el uso que defiende que
los niños aprenden estructuras lingüísticas leyendo las intenciones y encontrando patrones
en sus interacciones discursivas con los demás.[4]
A medida que la especie evoluciona por el linaje humano y se vuelve más compleja,
también se vuelven más complejas sus conductas y las conductas aprendidas, sociales e
innovadoras pasan a desempeñar un papel cada vez más importante.
c. Respuesta aprendida

Son acciones que modifican respuestas directas o conductas innatas. En forma


rudimentaria, se observan ya en los animales más sencillos y primitivos, como los
moluscos, a través de la habituación. En este caso, cuando la respuesta repetida a un
estímulo deja de producir el resultado que producía, el animal deja de responder al
estímulo. La actitud contraria sería la sensibilización: las respuestas a un estímulo producen
resultados más intensos y el animal acaba respondiendo a un estímulo reducido.
Con la evolución biológica dando lugar a especies de mayor complejidad
morfológica, la imitación empieza a adquirir un papel cada vez más relevante en la
adquisición de la conducta aprendida. En el capítulo 19 se ofrecieron ejemplos de peces que
aprenden por imitación; la evidencia indica que se trata de una conducta hereditaria, lo que
sugiere que la conducta aprendida podría volverse innata.
En el capítulo 19 se citaba también un estudio que demostraba no solo como imitan
las suricatas, pequeños mamíferos no primates, sino también cómo los ejemplares adultos
enseñan habilidades de caza a sus pequeños.[5] La imitación se observa en primates no
humanos, sobre todo en los jóvenes que imitan las habilidades de supervivencia practicadas
por los progenitores o por parientes próximos.
Considero que debería hacerse una distinción entre los animales que imitan, o
incluso que son enseñados, por miembros de su propia especie —para lo cual es necesario
disponer de más trabajos de campo— y los animales enseñados o entrenados por humanos.
Esto último ha dado lugar a muchas hipótesis sobre la conducta animal en las que el
acuerdo no es ni mucho menos unánime. Los experimentos que llevó a cabo Ivan Pavlov
con perros a principios del siglo xx le llevaron a proponer que «el reflejo condicionado»,
asociado con determinadas áreas del córtex cerebral, explicaba toda la conducta,
incluyendo la humana, y sus teorías tuvieron gran peso en el campo de la psicología y la
psiquiatría. Sus experimentos, sin embargo, simplemente nos dicen que es posible entrenar
a animales para que ofrezcan la misma respuesta cuando el estímulo original se sustituye
por otro; no aporta grandes ideas sobre la evolución de la conducta en la naturaleza.
Los experimentos del psicólogo B. F. Skinner con ratas y palomas intentaron llegar
más lejos en la explicación del aprendizaje de nuevas conductas. Su hipótesis del
condicionamiento operante sostiene que un animal responde a su entorno con una serie de
acciones aleatorias y variadas. Una de esas acciones (por ejemplo, presionar una palanca de
su caja de experimentación) podría ofrecerle una recompensa (una bolita de comida). Este
refuerzo positivo da como resultado que el animal aprenda a repetir esta acción concreta en
el futuro. Skinner lo calificó de selección natural darwiniana de conducta a lo largo de la
vida del animal comparable con la selección natural darwiniana de caracteres físicos a lo
largo de muchas generaciones, y consideró que sería igualmente aplicable a la conducta
humana; rechazó fenómenos no observables como la mente y la intención. La hipótesis
obtuvo una aceptación considerable en el siglo xx. Sin embargo, una analogía más
adecuada sería con la selección artificial. El experimentador humano es quien diseña el
experimento y ofrece la recompensa. La hipótesis es poco más que un ejemplo de animales
que aprenden mediante el entrenamiento de la sensibilización y la habituación, y la
reivindicación de Skinner de que esto explica la conducta humana carece de una base de
evidencias consistente.
Mientras que la habituación y la sensibilización a nivel individual podrían suponer
una pequeña contribución al aprendizaje humano (si pones la mano en el fuego y te
quemas, aprendes a no volver a hacerlo), la imitación y la enseñanza juegan un papel
mucho más destacado. Hablaré más sobre esto en la tercera parte.
d. Respuesta social
Estas acciones incluyen conductas por respuesta directa, innata y aprendida, pero
van más allá de la supervivencia individual y de la descendencia, que imita las habilidades
para la supervivencia de sus padres. Incluyen todas las formas de interacción que se
producen entre los animales que viven en un grupo.
Como vimos en el capítulo 19, los animales forman comunidades que van más allá
de los padres y su descendencia cuando los animales colaboran para su supervivencia —
defensa contra los elementos (cobijo y construcción del nido), defensa contra los
depredadores y competidores, y labores de caza— y para el cuidado de las crías. Esta vida
social ofrece además oportunidades de apareamiento. Los grupos sociales de animales se
basan principalmente, aunque no de forma exclusiva, en el parentesco, y muchos de estos
grupos colaboran para formar grupos temporales más grandes con fines de supervivencia,
como sucede con las migraciones estacionales o permanentes hacia hábitats más idóneos.
Las interacciones de los miembros de un grupo social de animales son sensoriales:
tacto, olfato, gusto, vista y oído.
A medida que la complejidad morfológica de las especies aumenta con el tiempo
evolutivo y a lo largo del linaje humano, estas interacciones sensoriales cambian. En
particular, el olor, el gusto y el tacto, que tienen una gama corta, disminuyen gradualmente
en importancia. Con el incremento de complejidad de la vocalización en los primates para
comunicar una mayor variedad de mensajes a otros miembros del grupo (amenazas, placer,
gritos de alerta, etc.), el oído se desarrolla mediante la evolución de un oído interno que
permite la resolución de complejos patrones información de frecuencias y momentos. La
vista aumenta en complejidad con el desarrollo de la visión estereoscópica, que lleva a que
los ojos se adelanten en los primates y aumente su percepción espacial. Estos desarrollos
permiten a los miembros del grupo interactuar de formas más complejas y a distancias
mayores.
El valor de las interacciones sociales en la supervivencia puede ser directo o
indirecto. El juego de algunos mamíferos, como los castores, y el acicalamiento, como el de
los chimpancés, sirve para reforzar la cohesión de su único grupo social y, por lo tanto,
tiene un valor indirecto para la supervivencia.
e. Respuesta innovadora

Estas acciones se diferencian de las típicas respuestas directas, innatas o aprendidas


de las especies y se presentan comúnmente como respuestas a circunstancias desafiantes y
nuevas. El grado de innovación puede utilizarse como medida de inteligencia y a veces se
conoce como habilidad cognitiva.
Inteligencia: capacidad de adquirir conocimientos y aplicarlos con éxito con un
objetivo, especialmente en situaciones desafiantes y nuevas.
En el linaje humano se observa poca innovación hasta que emergen los primates.
(Considero aquí solo el linaje que lleva hasta los humanos, y no aquellos que llevan hasta
otras especies que hacen gala de inteligencia, como la familia del cuervo ola de mamíferos
marinos como los delfines.) Una vez más, considero de utilidad distinguir entre primates,
como los chimpancés, sometidos a «test de inteligencia» concebidos por humanos, y
primates que se comportan de forma innovadora en la naturaleza. Esto último sería la
medida más precisa de la evolución de las conductas innovadoras. Aunque resulta
complicado confirmar resultados sin ambigüedades a partir de estudios de investigación
que utilizan criterios, metodologías y supuestos subyacentes distintos.
En 2002, los biólogos del comportamiento Simon Reader y Kevin Laland
investigaron los principales artículos publicados sobre primates y encontraron 533 casos de
innovación (definida como soluciones aparentemente novedosas a problemas
medioambientales o sociales), 445 observaciones de aprendizaje social (adquisición de
información aportada por otros individuos) y 607 episodios de uso de utensilios. Después
de corregir factores como las diferencias en el esfuerzo investigador dedicado a las distintas
especies, llegaron a la conclusión de que la innovación, el aprendizaje social y el uso de
utensilios estaban correlacionados con el volumen relativo y absoluto del cerebro ejecutivo
relativo de las distintas especies. El cerebro ejecutivo es básicamente el neocórtex.[6]
Examinaré más adelante esta correlación.
Patrón evolutivo

A medida que a lo largo del linaje humano las especies se vuelven


morfológicamente más complejas, se vuelven también más complejas sus conductas. Y a
pesar de que la respuesta directa y las conductas innatas persisten, las conductas
aprendidas, sociales e innovadoras desempeñan un papel cada vez más importante. Su
mayor variedad y flexibilidad marcan el aumento de consciencia.
Correlaciones físicas del aumento de consciencia

La existencia de una consciencia rudimentaria en las procariotas y en las eucariotas


unicelulares queda demostrada por las acciones que llevan a cabo para sobrevivir en
respuesta a estímulos externos e internos. Acciones tan simples como esas están influidas
por un sistema fisicoquímico de respuesta directa.
El sistema nervioso

La evolución de los animales pluricelulares llevó al desarrollo de un segundo


sistema de respuesta capaz de permitir una respuesta más rápida y variada a los estímulos
externos. Se trata del sistema nervioso electroquímico, que utiliza unas células
especializadas eléctricamente excitables llamadas neuronas para llevar a cabo la
transmisión unidireccional a alta velocidad de impulsos eléctricos de una región del cuerpo
del animal a otra. El sistema nervioso coordina además las respuestas fisicoquímicas más
lentas, aunque más duraderas, a los estímulos internos.
Sistema nervioso: un grupo organizado de células, llamadas neuronas,
especializadas en la conducción de estímulos electroquímicos a través de una red nerviosa,
desde un receptor sensorial hasta un efector, lugar en el cual se produce una respuesta.
Neurona: célula eucariota especializada en responder a la estimulación y la
conducción de impulsos electroquímicos.
A pesar de que presentan una diversidad de tamaños y formas, la figura 24.1
muestra la estructura esencial de la mayoría de las neuronas. Las dendritas son
prolongaciones ramificadas de la pared celular que reciben impulsos electroquímicos y los
conducen hacia el cuerpo de la célula. El cuerpo de la célula contiene el núcleo y el
citoplasma que lo rodea. El axón es una prolongación relativamente larga de la pared
celular que transmite los impulsos eléctricos desde el cuerpo de la célula hacia las
terminales que se ramifican al final del axón. Las dendritas y los axones se conocen
comúnmente como fibras nerviosas.
En los animales más grandes y complejos, como los vertebrados, el axón puede ser
muy largo y estar aislado mediante una vaina de mielina, un recubrimiento graso
constituido por una serie de células gliales, o de soporte, conocidas como células de
Schwann. En los espacios vacíos que se producen entre las células de Schwann, lo que se
conoce como nodos de Ranvier, el axón no está aislado, lo que permite que el pulso
eléctrico se transmita aun con mayor rapidez.
Las neuronas pueden agruparse según tres categorías funcionales:
a. Neuronas sensoriales
Reciben la estimulación de las células receptoras sensoriales o de un órgano (de las
células que forman la capa exterior del animal o de un ojo, por ejemplo), y transmiten
directamente un impulso eléctrico a las neuronas motoras o a las interneuronas
coordinadoras. En este último caso, reciben también el nombre de neuronas aferentes.
b. Neuronas motoras
Transmiten un impulso eléctrico a una célula efectora o a un órgano (un músculo,
por ejemplo). Se conocen también como neuronas eferentes.
c. Interneuronas
Reciben impulsos de las neuronas sensoriales y controlan, coordinan y transmiten
respuestas a las neuronas motoras.
La transmisión de impulsos eléctricos de una neurona a otra o a una célula efectora
suele producirse en las regiones microscópicas que se crean entre ellas, conocidas como
sinapsis, a través de unos elementos químicos llamados neurotransmisores. La
comunicación eléctrica directa puede producirse asimismo cuando las membranas se
fusionan; las sinapsis eléctricas se producen principalmente en invertebrados y vertebrados
primitivos.
A través de sus dendritas y de sus axones terminales, las neuronas pueden recibir
impulsos y enviar impulsos a muchas otras neuronas, formando de este modo una red. La
figura 24.2 muestra esquemáticamente cómo se conectan los distintos tipos de neuronas
entre sí y con células sensoriales y efectoras en un animal con sistema nervioso central.
Las interneuronas se conectan también entre sí y juntas integran, coordinan y
controlan muchos reflejos individuales, de tal modo que la respuesta del animal es algo más
que la simple suma de reflejos individuales: su conducta se caracteriza por la flexibilidad y
la adaptabilidad a las circunstancias cambiantes.
El incremento de consciencia a lo largo del linaje humano se correlaciona con la
evolución del sistema nervioso. Esto no significa que todos los sistemas nerviosos
evolucionaran siguiendo la misma trayectoria lineal, como daba a entender el modelo del
cerebro triúnico puesto en boga por el neurocientífico y psiquiatra Paul MacLean, y que fue
muy influyente en los años 70 y 80.
Las evidencias acumuladas por la neuroanatomía comparativa a lo largo de los
últimos treinta años sugiere que los distintos sistemas nerviosos evolucionaron a lo largo de
los distintos linajes animales provocando, por ejemplo, que algunos pulpos, aves y
mamíferos marinos actuales tengan sistemas nerviosos estructuralmente distintos de los de
los primates no humanos, aunque con capacidades cognitivas comparables. Pero nuestro
viaje se centra en la evolución del hombre, razón por la cual intentaré seguir la evolución
del sistema nervioso que dio como resultado el de los humanos.
El sistema nervioso en el linaje humano

Las neuronas no dejan fósiles. La única manera de realizar el seguimiento de la


evolución del sistema nervioso a lo largo del linaje humano consiste en examinar el sistema
nervioso de las especies vivas morfológicamente más similares a los fósiles datados según
su estimada primera aparición en las categorías taxonómicas del reino Animalia hasta llegar
a la especie Homo sapiens, tal y como muestra la tabla 20.1.
Sistema nervioso difuso
Los primeros fósiles animales son radialmente simétricos, como los cnidarios de la
fauna ediacárica.[7] Los sistemas nerviosos más primitivos actuales los encontramos en
animales radialmente simétricos muy simples, como los cnidarios (hidroides, medusas,
anémonas de mar, corales), y se los conoce como sistemas nerviosos difusos porque las
células nerviosas están distribuidas por todo el organismo, normalmente bajo la capa
epidérmica externa, de la que probablemente evolucionaron. Sus conexiones forman una
red neural, o red nerviosa, que queda ilustrada por la hidra de la figura 24.3.

Sistemas nerviosos central y periférico


Los platelmintos se cuentan entre los primeros invertebrados que mostraron simetría
bilateral, con lados derecho e izquierdo que son imágenes aproximadamente especulares.[8]
Se cuentan asimismo entre los primeros que mostraron un sistema nervioso central
rudimentario y un sistema nervioso periférico, tal y como ilustra la figura 24.4.
El sistema nervioso del platelminto refleja su bilateralidad morfológica. Dos grupos
de interneuronas interconectadas forman un cerebro rudimentario del que emergen dos
cordones de fibras nerviosas que corren a lo largo de los lados derecho e izquierdo del
cuerpo; estos cordones están conectados entre sí mediante nervios transversales que
recuerdan los peldaños de una escalera de mano. El conjunto constituye un sistema
nervioso central primitivo. A partir de los cordones, se extienden hacia los lados pequeños
nervios que dan lugar a redes entrelazadas de nervios periféricos que forman un sistema
nervioso periférico. Estos nervios periféricos están asociados con órganos sensoriales
repartidos por todo el cuerpo. Los ocelos que responden a la luz están situados cerca del
cerebro, mientras que la boca se encuentra en la zona central del cuerpo. Las neuronas
motoras están asimismo repartidas por el cuerpo.
La evolución de los animales bilaterales muestra un patrón de aumento en el
número de neuronas así como un proceso de centralización por el cual los grupos de
neuronas sensoriales se acercan progresivamente a un cerebro de mayor tamaño.
El linaje humano sigue un camino evolutivo que conduce hasta los vertebrados. Su
sistema nervioso central comprende un cerebro protegido por un cráneo y cordones
nerviosos protegidos por una columna vertebral segmentada. El patrón de centralización
continúa con la cefalización: los grupos de neuronas sensoriales (por ejemplo, las que se
estimulan mediante los olores o los sonidos) se aglutinan cerca del cerebro en el extremo
donde se sitúa la cabeza, mientras que los cordones nerviosos están constituidos por grupos
de fibras nerviosas que transmiten señales hacia y desde un cerebro formado por dos grupos
interconectados y más grandes de interneuronas controladoras y coordinadoras.
El sistema nervioso periférico de los vertebrados se divide en dos. El sistema
nervioso autónomo comprende fibras nerviosas motoras que conectan con los órganos
efectores internos, como el cerebro, los pulmones y las glándulas endocrinas (que producen
y segregan unos elementos químicos, conocidos como hormonas, hacia el sistema
circulatorio que los conduce hasta células objetivo alejadas donde regulan el metabolismo
celular), principalmente para mantener la homeostasis, es decir, el funcionamiento regular
del animal adulto. Está regulado por la parte más antigua del sistema nervioso central, el
tallo encefálico (que los humanos comparten con descendientes de los primeros reptiles),
que responde automáticamente a los estímulos. El sistema nervioso somático comprende
fibras nerviosas motoras que conectan con los órganos efectores, como los músculos,
situados principalmente en o cerca de las capas exteriores del animal; se activa mediante el
sistema nervioso central que responde a estímulos externos y sensoriales y está bajo control
voluntario.
La evolución de los vertebrados muestra también un patrón de aumento de la
complejidad. El incremento en el número de interneuronas que controlan las respuestas en
las especies morfológicamente más complejas lleva al cerebro a desarrollar tres nuevos
elementos interconectados, asociados cada uno de ellos a un sentido concreto: un cerebro
anterior asociado con el olfato, un cerebro medio asociado con la visión y un cerebro
posterior asociado con el sonido y el equilibrio. La evolución posterior a lo largo del linaje
humano da como resultado un par de elementos interconectados que emergen del cerebro
anterior para formar los hemisferios cerebrales, un elemento que emerge del cerebro medio
para formar un «techo» del cerebro medio, o téctum, y un elemento en forma de bola
corrugada de tejido nervioso que emerge del cerebro posterior y da lugar al cerebelo
(«cerebro pequeño» en latín). La figura 24.5 ilustra estas estructuras junto con las que se
describen a continuación que evolucionaron para formar el cerebro humano.
La incorporación de estos centros nerviosos al tallo encefálico primitivo permite
una mayor coordinación y asociación entre las fibras sensoriales y motoras. La evolución
desde los vertebrados más antiguos hasta los más recientes presencia un cambio gradual de
función que se desplaza del tallo encefálico situado en la región inferior hacia el córtex
cerebral de la región superior. Este córtex cerebral es la capa exterior que cubre los
hemisferios cerebrales, la materia gris, y está constituida por cuerpos celulares de neuronas
que cubren la materia blanca, construida por axones protegidos por una vaina blanquecina
de mielina.
La emergencia de la clase taxonómica de los mamíferos está marcada por la
incorporación de dos nuevas estructuras cerebrales. El neocerebelo, que parece un hongo y
se desarrolla a partir del cerebelo y el neocórtex, que se desarrolla a partir del córtex como
una nueva y fina capa exterior de aproximadamente 2 milímetros pero cada vez más
arrugada.
La figura 24.6 muestra este desarrollo. En la mayoría de los mamíferos, como el
ratón, el neocórtex es pequeño en comparación con el resto del cerebro, lo que deja el tallo
encefálico claramente visible; en un primate no humano, como el mono, el neocórtex es
relativamente más grande y crece en el interior del cráneo doblándose sobre sí mismo, lo
que le da ese aspecto arrugado, dejando al descubierto parte del tallo encefálico; en el
humano, el neocórtex es mucho más grande, cubre la totalidad del tallo encefálico y está
muy arrugado.
Visto en la misma escala, el crecimiento del neocórtex es lo que evidencia el
sorprendente cambio evolutivo. En los humanos, tiene solamente el doble de grosor que el
del ratón, pero su superficie es mil veces mayor, y mientras que solo es un 15 por ciento
más grueso que el del mono, multiplica prácticamente por diez su superficie.
La incorporación de nuevas regiones especializadas e interconectadas, concentradas
todas ellas en la cabeza, aumentó tanto la centralidad como la complejidad del sistema
nervioso. Además, el aumento de tamaño del cerebro a lo largo del linaje humano hizo que
no solo aumentara el tamaño de neuronas, sino también el número de conexiones a través
de sus dendritas y axones terminales. Según una estimación realizada en 2009, el cerebro
masculino adulto contiene aproximadamente 86 mil millones de neuronas[9] (que es
inferior a la cifra tradicional de 100 mil millones) que se transmiten señales entre ellas a
través de unos 500 billones (0,5 x 1015) de conexiones sinápticas,[10] lo que lo convierte
en el objeto más complejo del universo conocido. Además, estas conexiones neurales no
son fijas, como se creía en su día. Los estudios llevados a cabo desde los años 70 muestran
la capacidad de las neuronas para cambiar sus conexiones en respuesta a nueva información
y nueva estimulación sensorial, además de al daño o la disfunción. Este fenómeno,
conocido como neuroplasticidad, aumenta la flexibilidad conductual y se asocia con el
aprendizaje y la innovación.
El aprendizaje y la innovación suelen tomarse como medidas de la capacidad
cognitiva, o inteligencia, características de los niveles superiores de consciencia. Distintos
investigadores utilizan distintas definiciones, distintos métodos y distintos supuestos (a
menudo no verificados) para correlacionar estas conductas con el sistema nervioso de las
especies. Los siguientes son los cuatro enfoques principales:
1. Tamaño del cerebro
Partiendo del supuesto de que la capacidad cognitiva es función del número de
neuronas y sus conexiones, y de que estas se incrementan con el tamaño del cerebro, la
capacidad craneal se ha venido utilizando como parámetro de inteligencia. Es, además, el
parámetro más fácilmente mensurable en fósiles y animales muertos.
Un enfoque tan simplista como este, sin embargo, está plagado de problemas.
¿Cómo tener en cuenta el hecho de que los mamíferos más grandes tienen un cuerpo más
grande y, en consecuencia, una superficie más grande y, por lo tanto, necesitan un número
mayor de interneuronas controladoras que procesen más neuronas sensoriales y motoras en
vez de neuronas que procesen conductas innovadoras? Esto no explica por qué la
flexibilidad conductual y la capacidad de innovación de los macacos, por ejemplo, es tan
superior a la de ungulados, como las vacas, que tienen un cerebro entre cuatro y cinco veces
mayor que el de esos monos, o por qué la inventiva del hombre excede considerablemente
la de los elefantes, que poseen un cerebro hasta seis veces mayor.
Si la supuesta correlación entre tamaño absoluto del cerebro inteligencia se desglosa
en órdenes taxonómicos, ¿se mantiene dentro de un orden como el de los primates? En
2007, Robert Deaner, del departamento de Psicología de la Grand Valley State University
de Michigan y sus colegas, analizaron toda la literatura relacionada con la cognición en las
especies de primates y llegaron a la conclusión de que «las medidas del tamaño absoluto
del cerebro eran el mejor predictor de la capacidad cognitiva de los primates».[11]
Sin embargo, en 2011, Marta Mirazon Lahr, antropóloga especializada en biología
de la Universidad de Cambridge, señaló que el registro fósil, pese a ser incompleto, sugiere
que los humanos más antiguos poseían un cerebro más grande que los humanos actuales.
Por ejemplo, un hombre de Cromañón adulto, que vivió entre 30.000 y 25.000 años antes
que nosotros, era alto y musculoso, con un peso corporal de entre 80 y 90 kilos y un
volumen cerebral medio de 1.500 centímetros cúbicos (aproximadamente el mismo
volumen que el de los neandertales, que se extinguieron más o menos por la misma época).
Este tamaño cerebral se mantuvo aproximadamente igual hasta hace unos 10.000 años,
cuando empezó a reducirse hasta alcanzar el tamaño del humano actual, que tiene un
volumen cerebral medio de 1.350 centímetros cúbicos, lo que representa una reducción de
un 10 por ciento (con el correspondiente 10 por ciento de reducción del peso corporal).[12]
No creo que nadie vaya a sugerir que los humanos de hace 10.000 años exhibían un
10 por ciento más de conducta innovadora que los actuales humanos. O que las mujeres son
menos innovadoras e inteligentes que los hombres porque un cerebro femenino adulto es
aproximadamente un 10 por ciento más pequeño que el de un varón adulto.
2. Proporción entre el cerebro y el peso corporal

En 1973, el neuroanatomista Hartwig Kuhlenbeck comparó distintas especies por la


proporción entre el peso del cerebro y su peso corporal.
Pero este criterio no sirvió para superar otros problemas. Los animales terrestres
necesitan la activación neural de los músculos para superar la fuerza de la gravedad que se
opone a sus movimientos, mientras que la flotabilidad del agua anula en gran manera esta
fuerza y beneficia a los peces y los mamíferos marinos. Además, gran parte de la masa de
las ballenas, por ejemplo, es aceite neuralmente inerte que las aísla del frío del mar.
3. Cociente de encefalización

Aquel mismo año, Harry Jerison, del departamento de Psiquiatria y ciencias


conductuales de UCLA, especializado en el estudio de fósiles y su capacidad craneal,
propuso el cociente de encefalización, o EQ (del inglés, Encephalization Quotient), como
una medida mejor del tamaño efectivo del cerebro en las especies mamíferas. Se basa en la
relación entre peso del cerebro y peso corporal para distintas especies de mamíferos
corregida por una función de potencia derivada de las mediciones de distintos mamíferos y
demuestra que el tamaño del cerebro aumenta menos que el tamaño del cuerpo a medida
que el tamaño del cuerpo aumenta; permite realizar un cálculo para predecir la masa
cerebral de cualquier especie.
El EQ indica qué cantidad de la masa cerebral observada de una especie se desvía
del valor que cabría esperar por su masa corporal: un EQ de 1 muestra que la masa cerebral
observada es igual a la masa esperada; un EQ mayor que 1 significa que el tamaño del
cerebro de esa especie es mayor de lo que cabría esperar por su masa corporal. Comparados
con la clase de los mamíferos, los humanos tienen el EQ mayor con diferencia, entre 7 y 8.
Comparados con la familia de los homínidos, los humanos tienen un EQ de más de 3; los
gorilas y los orangutanes tal vez sean más grandes que los humanos, pero su cerebro tiene
un tercio del tamaño del humano.
El EQ es el estándar más utilizado. Sin embargo, la fórmula para predecir la masa
cerebral depende de la combinación de especies observada. Además, su correlación con la
inteligencia asume que cuánto más grande es el cerebro en relación con el cuerpo, más peso
cerebral queda disponible para tareas cognitivas complejas: cabría esperar que los animales
con cerebro pequeño y EQ grande tengan más inteligencia que los animales con cerebro
grande y EQ inferior. Pero, a pesar de que el mono capuchino tiene un EQ muy superior al
de los gorilas, el rendimiento cognitivo de estos últimos los supera con creces.
En resumen, a pesar de suponer una mejora con respecto a la proporción entre
cerebro y peso corporal, el EQ sigue siendo una medida demasiado burda que no tiene en
cuenta qué partes concretas del cerebro son responsables de la conducta innovadora.
4. Neocórtex

En 1969, Heinz Stephan, del Max Planck Institute for Brain Research y O. J. Andy,
del departamento de Neurocirugía del University of Mississippi Medical Center, llegó a la
conclusión de que todos los primates, así como muchos, sino todos, los órdenes más
recientes de mamíferos placentarios, descienden de antiguos insectívoros, pequeños
mamíferos comedores de insectos.
Quince años más tarde, Stephan, junto con Pierre Jolicoeur y sus colegas del
departamento de Ciencias biológicas de la Universidad de Montreal, examinaron las
diferencias en el cerebro de 28 especies actuales de insectívoros, 63 especies de quirópteros
(el orden de los murciélagos) y 48 especies de primates. Descubrieron que el componente
del cerebro que experimenta el mayor incremento volumétrico relativo desde los
insectívoros hasta los primates es el neocórtex, que está 150 veces más desarrollado en el
Homo sapiens que en un hipotético insectívoro basal del mismo peso corporal.[13]
Por lo tanto, la característica más distintiva de la evolución del cerebro humano con
respecto a otros mamíferos y especies de primates es el crecimiento del neocórtex, la parte
del cerebro de evolución más reciente, que procesa funciones cognitivas superiores como la
memoria a corto plazo, la asociación, la innovación, el lenguaje, el racionamiento y la
introspección, características todas ellas de niveles superiores de consciencia.
El aspecto arrugado del neocórtex es importante por tres motivos. En primer lugar,
los dobleces del tejido neural proporcionan una centralización incluso mayor: en el mismo
volumen pueden caber más neuronas, lo que consigue una mayor densidad neuronal. En
segundo lugar, y como consecuencia de lo primero, la longitud de las fibras que conectan
estas neuronas es inferior que si las neuronas estuvieran más distanciadas, lo que reduce la
transmisión interneuronal y el tiempo de respuesta del cerebro. En tercer lugar, todo esto
implica que la cabeza no tiene que crecer para acomodar más volumen de cerebro. Como
resultado de este tercer factor, el tamaño del animal no tiene por qué aumentar; de ahí que
la cantidad y la longitud de las fibras nerviosas que conectan con el tejido sensorial, como
la piel, y con el tejido efector, como los músculos, situados en partes remotas del cuerpo no
necesita aumentar. Esto reduce el tiempo de transmisión neural; y da también como
resultado un porcentaje mayor de neuronas asociadas a funciones cognitivas avanzadas con
respecto a neuronas asociadas a funciones motoras o de mantenimiento. En términos
generales, optimiza la proporción cerebro-cuerpo para una respuesta más flexible y más
rápida y para funciones cognitivas avanzadas, como la innovación. Todo esto no es
resultado de la selección natural entre un abanico prácticamente ilimitado de posibilidades
aleatorias, sino de las leyes de la física.
[1] Véase página 510.
[2]Conway Morris, pp. 197–200.
[3]Chomsky (2006).
[4]Tomasello (2003).
[5] Véase página 519.
[6]Reader, Simon M. y Laland, Kevin N., «Social Intelligence, Innovation, and
Enhanced Brain Size in Primates», Proceedings of the National Academy of Sciences of the
United States of America. 99: 7, 2002, pp. 4436–4441.
[7] Véase página 462.
[8] Por qué los animales evolucionaron bilateralmente en vez de hacerlo, por
ejemplo, trilateralmente o cuadrilateralmente es una pregunta que rara vez se formula y que
nunca se ha respondido de manera satisfactoria. El «principio adaptativo» no lo hará: el
entorno posee tres dimensiones espaciales.
[9]Azevedo, Frederico A. C., et al, «Equal Numbers of Neuronal and Nonneuronal
Cells Make the Human Brain an Isometrically Scaled-up Primate Brain», The Journal of
Comparative Neurology, 513: 5, 2009, pp. 532–541.
[10]Kendrick, Keith, «Understanding the Brain: A Work in Progress», Gresham
College Lecture, Londres, 22 de noviembre de 2010.
[11]Deaner, R. O., et al, «Overall Brain Size, and Not Encephalization Quotient,
Best Predicts Cognitive Ability across Non-Human Primates», Brain, Behavior and
Evolution, 70: 2, 2007, pp. 115–124.
[12]Lahr, Marta Mirazon, «African Origins – the Morphological and Behavioural
Evidence of Early Humans in Africa», Human Evolution, Migration and HistoryRevealed
by Genetics, Immunity and Infection, Royal Society, Londres, 6 de junio de 2011.
[13]Jolicoeur, Pierre, et al, «Brain Structure and Correlation Patterns in Insectivora,
Chiroptera, and Primates», Systematic Zoology, 33: 1, 1984, pp. 14–29.
CAPÍTULO 25. REFLEXIONES Y CONCLUSIONES SOBRE EL ORIGEN
Y LA EVOLUCIÓN DE LA VIDA

En la era post-copernicana de la historia de la humanidad, ninguna persona


racional y bien informada podría imaginarse que la Tierra ocupa una posición única en el
universo.

Michael Rowan-Robinson, 2004

Nuestra existencia presentaba en su día el mayor de los misterios, pero ha dejado


de ser un misterio porque está solucionado. Lo solucionaron Darwin y Wallace, aunque
deberíamos seguir durante un tiempo incorporando notas a pie de página a su solución.

Richard Dawkins, 1986

Nullius in verba (En las palabras de nadie) (No aceptes nada por autoridad).

Lema de la Royal Society

Reflexiones

Una de las alegrías de este viaje ha sido descubrir cosas que no me esperaba. Los
cosmólogos ven el planeta Tierra como una de las cosas más insignificantes de una galaxia
integrada por miles de millones de estrellas, muchas de las cuales tienen su propio sistema
planetario, y esa galaxia no es más que una entre las cien mil millones de galaxias del
universo visible que es, según la cosmología ortodoxa actual, una parte increíblemente
mínima de la totalidad del universo.
Sin embargo, desde la relativamente nueva ciencia de la astrobiología es posible
deducir seis condiciones necesarias para que las moléculas más complejas de 13 átomos del
espacio interestelar y los asteroides evolucionen hasta crear seres tan complejos como el
hombre. Estas seis condiciones reducen dramáticamente los lugares en una galaxia y en un
sistema solar donde una evolución como esta podría tener lugar en conformidad con las
leyes físicas y químicas conocidas. La superficie de la Tierra ofrece estas condiciones pero
—y aquí llega la sorpresa— solo las ofrece porque se produce en ella una coincidencia de
hechos estelares y planetarios de lo más poco común. Si no es única, lo que sí que es la
Tierra es un lugar excepcional para albergar vida inteligente en esta galaxia.
Otra sorpresa es la ausencia de una definición generalmente acordada del concepto
de vida. Las definiciones propuestas no son ni suficientes ni necesarias para distinguir los
seres vivos de los que no lo están, y muchas de ellas excluyen seres vivos, como las mulas,
que no se reproducen. Confío en que la definición sugerida en el capítulo 13 ofrezca una
distinción viable y muestre que existe una frontera irreversible, aunque trazada con
imprecisión, que marca una importante transición evolutiva de la materia inanimada a la
vida.
Estoy muy agradecido a los astrobiólogos y los geólogos que corrigieron los errores
de hecho u omisión y comentado mis conclusiones en los borradores de los capítulos. Lo
hicieron con mentalidad abierta y sin dogmatismo, siguiendo la mejor tradición de la
ciencia. Tal vez sea así porque la astrobiología es una ciencia nueva y emergente y la
geología vivió un cambio de paradigma en los 60, después de que cincuenta años de
testarudez ortodoxa rechazando la hipótesis de la deriva continental cayeron bajo el peso de
las evidencias que sustentaban el mecanismo de las placas tectónicas, cuyos detalles siguen
investigándose hoy en día.
Por desgracia, en lo referente a la investigación de la evolución de la vida, gran
parte de las respuestas a mis preguntas y mis borradores fueron similares a las posturas de
los cosmólogos y los físicos teóricos ortodoxos comentadas en el capítulo 11, al final de la
primera parte. Estas respuestas podrían agruparse en cinco tipologías:
a. Imperiosamente despectivas.
b. Educadamente despectivas.
c. Usted desconoce los hechos.
d. Usted parece conocer los hechos pero no entiende nada.
e. El neodarwinismo es compatible con todas las evidencias y con las distintas
hipótesis.
Una respuesta imperiosamente despectiva a una petición de revisar el borrador de
un capítulo que empezaba afirmando que en los últimos cuarenta años ha habido muy pocos
estudios sobre las especies vivas diseñados para investigar si la evolución biológica se
produce o no, empezaba con «No he pasado [sic] de la primera fase de su artículo […]. Lo
que usted dice no podría estar más lejos de la verdad». Continuaba diciendo que ha habido
miles de estudios experimentales diseñados para investigar si la evolución biológica se
produce o no, y añadía «No puedo evitar la sensación de que cualquiera que sea objetivo y
esté debidamente informado debería conocerlos». Y proseguía recomendándome un libro
publicado en 1986 o cualquier libro de texto universitario sobre la evolución.
Fue precisamente porque reconozco mi ignorancia en su campo que le pedí que me
corrigiera los errores de hecho u omisión en el borrador de aquel capítulo. Pero resulta que
aquel libro de 1986 no examina si la evolución biológica se produce o no, sino los métodos
para investigar su mecanismo neodarwinista, que era precisamente lo que decían la segunda
y la tercera frase del borrador; el resto del borrador hablaba sobre los ejemplos
proporcionados en los actuales textos universitarios. Esta respuesta supone un ejemplo
extremo de los biólogos evolutivos que equiparan el fenómeno de la evolución biológica
con el mecanismo neodarwinista, que no es más que uno de sus supuestos mecanismos.
Un destacado miembro de la élite biológica de los Estados Unidos respondió en
cuestión de horas el mensaje de correo electrónico en el que le pedía si podía revisar el
borrador de mi capítulo diciendo: «He realizado una lectura rápida del texto que me ha
enviado […]. Lo que ha escrito resulta ingenuo a veces, incompleto y sesgado en su
totalidad, no está actualizado en muchos casos y lleno de errores de hecho y atribución, así
como de teoría».
39 de las 60 referencias citadas, y correctamente atribuidas, en el borrador eran
artículos publicados a lo largo de los seis años anteriores, incluyendo una larga entrada de
una enciclopedia redactada por él mismo y publicada online aquel mismo año. Le respondí
diciéndole que me preocupaban mucho sus comentarios y que le estaría agradecido si
pudiera aclararme dónde estaba mi sesgo e indicarme los principales errores y atribuciones
erróneas. A pesar de que posteriormente le envié un recordatorio, sigo aún esperando
respuesta.
Las respuestas educadamente despectivas me decían que no estaban de acuerdo con
mis conclusiones pero que me deseaban lo mejor. Algunos insinuaban que estaba atacando
la teoría evolutiva —una interpretación errónea de mis intenciones, que había dejado muy
claras— y me daban a entender que era prácticamente un creacionista. Me vi por ello
obligado a realizar un prefacio en mis solicitudes posteriores, declarando que no creía ni en
el creacionismo ni en el diseño inteligente y que en capítulos previos había llegado a la
conclusión de que ambos quedaban fuera del territorio de la ciencia.
En el libro trazo brevemente el desarrollo de la teoría científica en cada campo para
ilustrar la evolución de la ciencia en respuesta a las evidencias y las ideologías más
novedosas antes de iniciar el examen de la teoría ortodoxa actual, que suscribe la amplia
mayoría de los investigadores del campo en cuestión.
Uno de los consultados mostró sus objeciones ante el uso de la palabra «ortodoxia»,
basándose en que es un término que implica creencia. Dos ejemplos de la ortodoxia vigente
en la biología son la hipótesis de la aptitud inclusiva y la del «altruismo recíproco», que
invocan los sociobiólogos para explicar cómo es posible que un fenómeno tan extendido
como la colaboración sea compatible con la competencia neodarwinista.
Edward O. Wilson, considerado en términos generales su fundador, tuvo la
perspicuidad de decir que la sociobiología había dado un giro equivocado en los años 60 y
70. En 2010, y junto con dos biólogos matemáticos evolutivos, publicó un artículo en
Nature argumentando que la teoría de la aptitud inclusiva había demostrado ser de escaso
valor para explicar el mundo natural. Cinco meses más tarde, Nature publicó un comentario
firmado por 138 biólogos evolutivos proclamando: «Creemos que sus argumentos se basan
en una comprensión fallida de la teoría evolutiva y en una interpretación errónea de la
literatura empírica [la cursiva es mía]». Una nota al pie decía que varios científicos más que
habían contribuido de forma importante al documento no aparecían listado porque
aparecían nombrados en distintos cometarios. 17 académicos más firmaron otros cuatro
comentarios atacando distintos aspectos del artículo de Wilson. Que 155 biólogos
evolutivos suscriban un artículo declarando que creen que el fundador de la sociobiología
no entiende sus teorías, me parece que ilustra bien a qué me refiero cuando hablo de la
ortodoxia y de la mentalidad grupal que con frecuencia engendra.
En el capítulo 23 se comenta lo mucho que le costó a Lynn Margulis ser publicada
en las principales revistas de ciencias y biología revisadas por sus colegas, a pesar de las
evidencias genéticas que demostraban sin ninguna duda que al menos varias de sus
hipótesis eran válidas.
El modo en que la clase dirigente de los biólogos trata a los disidentes de dentro y a
los de fuera que se hacen preguntas recuerda en exceso lo que sucede con la clase dirigente
cosmológica. Sospecho que se debe en gran parte a los mismos motivos. En el campo de la
biología, la clase dirigente está dominada por una escuela que integra, por un lado, teóricos
que utilizan la estadística de los genetistas de poblaciones y, por el otro, por zoólogos
experimentales que trabajan principalmente en el laboratorio con la mosca de la fruta y que
extrapolan sus descubrimientos no solo a todos los demás animales sino también a las
plantas, los hongos, las protoctistas y las bacterias. Esa escuela ha hecho grandes
contribuciones en el campo de la biología y sus hipótesis han explicado gran parte de lo que
conocíamos en su momento.
Pero más de sesenta años después, la situación se ha osificado en una cultura que
equipara evolución biológica con modelo neodarwinista y que fusiona pruebas matemáticas
con pruebas empíricas. Las evidencias contradictorias, especialmente las proporcionadas
por el registro fósil y por las observaciones de un amplio rango de especies en la naturaleza,
se ignoran o se contratacan con afirmaciones carentes de base, falacias lógicas o modelos
matemáticos cuyos parámetros arbitrarios pueden ajustarse para producir los resultados
deseados. Otras hipótesis son descartadas de entrada o se acusa a sus proponentes de atacar
la evolución biológica.
Un factor específico de los biólogos, y muy especialmente en los Estados Unidos, es
su respuesta al intento de enseñar en las escuelas, junto con la evolución biológica, tanto el
creacionismo como el diseño inteligente. Paradójicamente, ignorar o negar las evidencias
que contradicen el neodarwinismo da alas a los creacionistas y al movimiento que defiende
el diseño inteligente.
Quiero expresar mi agradecimiento a todos aquellos que entablaron lo que acabó a
menudo siendo un largo diálogo conmigo aun sosteniendo su punto de vista ortodoxo. Me
remitieron a algunos artículos de los que no estaba al corriente y me llamaron la atención
hacia partes del borrador donde el razonamiento no era sólido o había una falta patente de
claridad. Algunos, al final, reconocieron que el borrador tenía varios puntos válidos.
El quinto tipo de respuesta fue la de aquellos biólogos evolutivos que reconocían
contradicciones entre el neodarwinismo y las evidencias de la naturaleza así como la
plausibilidad de hipótesis alternativas. Adoptaron el punto de vista de que la ciencia avanza
y que el neodarwinismo es compatible con todas las evidencias y las hipótesis. Para citar
uno: «Hay neodarwinistas que creen que el cambio debe ser gradual. Si hubiera equilibrio
puntuado, o incluso saltación, se demostraría que esos puntos de vista concretos de esos
científicos concretos están equivocados, no que el neodarwinismo está equivocado». Pero
el gradualismo es un principio básico tanto para el darwinismo como para el
neodarwinismo.
Una postura tan tolerante, que abarca hipótesis mutuamente contradictorias e
hipótesis que las evidencias contradicen, hace que cualquier teoría pierda sentido. Una
teoría científica se define por sus principios básicos, y Jerry Coyne tendría que llevarse el
mérito por haber definido los principios básicos del neodarwinismo contemporáneo.
El patrón histórico de las teorías científicas es aquel que muestra pequeños pasos
progresivos hacia el refinamiento y la aplicación de los principios básicos, seguidos por el
aumento de evidencias nuevas y de nuevas ideas que desafían esos principios básicos, luego
por la resistencia defensiva a esos desafíos y, finalmente, por la aceptación de un nuevo
conjunto de principios básicos, normalmente por parte de los investigadores de la
generación más joven. Es lo que sucedió en la geología y también en la física: Neils Bohr
se vio desanimado a seguir estudiando física porque el punto de vista newtoniano clásico no
admitía discusión y no quedaban más descubrimientos importantes que hacer en ese
sentido. Un punto de vista del que Richard Dawkins se hace eco en la cita que aparece justo
después del título de este capítulo.
La biología evolutiva tiene que pasar aún por este cambio de paradigma. La
humildad frente a lo que aún no sabemos ni entendemos es una cualidad admirable, aunque
no universalmente presente, en los biólogos.
Las evidencias robustas reveladas en el transcurso de los últimos quince años por la
secuenciación rápida de genomas completos de muchas especies, han generado modelos
que reflejan mejor las nuevas evidencias e ideas y que ofrecen una nueva visión de ideas
anteriormente ignoradas o rechazadas que en realidad son compatibles con dichas
evidencias. Confío en que acabe emergiendo una nueva teoría de la evolución biológica en
la que el neodarwinismo, o partes del mismo, se consideren un caso especial o limitador.
No todos los biólogos evolutivos respondieron a mis borradores del modo en que he
esbozado antes. Un investigador eminente hizo el siguiente comentario: «He leído la
sección de su libro y es, con diferencia, el caso sobre el incremento de complejidad más
completo que he visto nunca». Mientras que otro escribió: «Aplaudo su esfuerzo por
presentar todas las teorías alternativas, etc. de las que dispone, sobre todo teniendo en
cuenta que […] muchas de ellas han sido ignoradas o no han sido puestas a disposición del
gran público […]. En general, creo que su presentación mantiene un tono de neutralidad
que necesitábamos desde hace mucho tiempo».
Conclusiones

El resumen de los descubrimientos de la segunda parte me lleva a las siguientes


conclusiones:
1. Para que las moléculas orgánicas de 13 átomos que encontramos en el espacio
interestelar y en los asteroides evolucionen hasta transformarse en seres tan complejos
como el hombre, son necesarias seis condiciones: un planeta con los elementos y las
moléculas esenciales, fuentes de energía, una masa mínima y probablemente también una
masa máxima, protección contra las radiaciones nocivas y los impactos, un rango de
temperatura estrecho justo por debajo y justo por encima de la superficie, y la estabilidad de
esta biosfera a lo largo de miles de millones de años. (Capítulo 12).
2. La coincidencia excepcional de una serie de factores galácticos, estelares y
planetarios propició estas seis condiciones en la Tierra, produciendo un flujo de energía
cambiante a través de un sistema fisicoquímico que se ha mantenido estable, aunque
alejado del equilibrio termodinámico, durante aproximadamente 4 mil millones de años. Lo
que sugiere que la Tierra, si no única, es un planeta extraño en la galaxia, y tal vez en el
universo, en cuanto a que posee las condiciones necesarias para la aparición y la evolución
de formas de vida con base carbónica tan complejas como el hombre. (Capítulo 12).
3. La vida podría definirse como la capacidad de una entidad cerrada de responder a
cambios tanto en su interior como en su entorno, de extraer energía y materia de su entorno,
y de convertir esa energía en actividades dirigidas internamente, actividades que incluyen el
mantenimiento de su propia existencia. Su aparición marca un cambio de tipología, no
simplemente de grado, a partir de la materia inanimada. (Capítulo 13).
4. Las evidencias fósiles conclusivas de la aparición de la vida se han identificado
en rocas datadas hace 2 mil millones de años, unos 2,5 miles de millones de años después
de que se formara la Tierra. Suponiendo que estos microorganismos evolucionaran a partir
de formas de vida más simples, la vida habría existido ya antes. Los científicos no se ponen
de acuerdo en la datación del origen de la vida y las estimaciones lo sitúan hace 3,5 miles
de millones de años, o incluso 3,8 o 3,85 miles de millones de años, en el eón hádico,
cuando la Tierra sufrió un bombardeo de asteroides y otros desechos. Las mejores
estimaciones actuales sitúan ese origen hace 3,5 miles de millones de años. (Capítulo 14).
5. El descubrimiento de extremófilos, organismos que viven en la actualidad en
condiciones extremas similares a las que se cree que debía de haber en el eón hádico,
sugiere que la vida podría haber existido en ese momento, 700 millones de años después de
que la Tierra se formara, aunque no lo demuestra. (Capítulo 14).
6. Debido a la escasez generalizada del registro fósil, y debido a que prácticamente
todas las rocas sedimentarias de los primeros 2 mil millones de años de la Tierra se han
visto subducidas o han sufrido metamorfosis, es casi seguro que nunca encontraremos
evidencias sólidas ni de las primeras formas de vida ni de cuándo aparecieron en la Tierra.
(Capítulo 14).
7. Los análisis genéticos de una amplia variedad de células sugiere con fuerza,
aunque no demuestra, que la vida apareció de forma natural en la Tierra una sola vez, y que
todas las formas de vida actuales —desde los muchos tipos de bacteria hasta el hombre—
evolucionaron a partir de un único antepasado común. (Capítulo 14).
8. Ninguna hipótesis científica explica por qué las proteínas —moléculas esenciales
para el funcionamiento de toda célula conocida y, por lo tanto, también de las primeras
células independientes— se forman a partir de combinaciones de hasta 20 aminoácidos
concretos, de entre los cerca de 500 aminoácidos conocidos, y por qué solo se utiliza el
isómero izquierdo de cada aminoácido habiendo dos disponibles. (Capítulo 14).
9. Ninguna hipótesis científica explica de forma convincente cómo el número de
átomos y moléculas de los que constan los componentes complejos esenciales, junto con
sus configuraciones cambiantes y su funcionamiento, que constituyen la forma de vida
independiente más simple, y presumiblemente la más primitiva, emergieron sobre la
superficie de la recién formada Tierra a partir de las interacciones de átomos y moléculas
formadas por hasta 13 átomos. (Capítulo 15).
9.1. El relato de la bioquímica ortodoxa de cómo surgió la vida a partir de una «sopa
primigenia» de estos elementos químicos carece de base experimental y es inválido porque,
entre otras razones, existe una improbabilidad estadística abrumadora de que reacciones
aleatorias en una solución acuosa pudieran producir moléculas de ARN auto-replicante o
incluso péptidos auto-replicantes, y mucho menos con aminoácidos levógiros.
9.2. Otras hipótesis —como la de la complejidad auto-organizada, el replicador de
arcilla, el replicador de pirita de hierro o un mecanismo cuántico en vez de termodinámico
— ofrecen posibilidades intrigantes, pero hasta el momento, carecen de explicaciones de
los pasos claves así como de base empírica.
9.3. Las distintas propuestas de que la vida llegó a la Tierra desde el espacio exterior
posponen la pregunta original, y en su mayoría han quedado desaprobadas o se sustentan
sobre supuestos altamente cuestionables y sin base alguna.
9.4. El principio antrópico débil no explica nada, mientras que las interpretaciones
del principio antrópico fuerte y las propuestas de un diseño inteligente de la primera célula
no son falsables y, por lo tanto, quedan fuera del terreno científico.
10. Igual que sucede con la aparición de la materia, es muy probable que la
explicación de la aparición de la vida quede más allá del alcance de la ciencia. (Capítulo
15).
11. Las evidencias fósiles, o de cualquiera de las estructuras homólogas, vestigios,
embriología, biogeografía, bioquímica, genética y genómica de las especies vivas, no
ofrecen por ellas mismas evidencias indiscutibles del fenómeno de la evolución biológica.
Sin embargo, en conjunto, ofrecen evidencias abrumadoras de que el hombre evolucionó a
partir de las primeras formas de vida de la Tierra, que se extenderían por la superficie del
planeta para formar una biosfera o, más concretamente, una biocapa. Además, las
evidencias muestran un patrón claro. (Capítulos 17 y 18).
12. El patrón del registro fósil a lo largo del tiempo va de simple a más complejo:
loas procariotas aparecen antes que las eucariotas, las eucariotas unicelulares antes que las
pluricelulares, la simetría radial antes que la bilateral y la cefalización, los invertebrados
antes que los vertebrados, los peces antes que los anfibios, los reptiles antes que las aves,
los mamíferos antes que los primates y los monos antes que los humanos. (Capítulo 17).
13. No se trata de una progresión lineal sino de una evolución con redes, fusiones y
ramificaciones a partir de un antepasado universal común que se dividió en muchos linajes
que, en su inmensa mayoría, terminaron en la extinción. (Capítulos 17 y 18).
14. A pesar de que la frontera que marca la aparición de una nueva especie suele ser
borrosa, como sucede siempre que surge algo nuevo, es una frontera, de todos modos: una
vez superada, no hay marcha atrás. (Capítulo 17).
15. Los linajes alcanzan la estasis, durante la cual la última especie muestra pocos
cambios, bien antes de la extinción bien, menos comúnmente, durante varias decenas o
incluso centenares de millones de años hasta llegar a la actualidad. (Capítulo 17).
16. Las evidencias indican que la complejidad suele aumentar a lo largo de los
linajes; este es claramente el caso del linaje que lleva hasta el hombre. (Capítulos 17 y 18).
17. Las especies vivas forman un patrón de complejidad creciente que va desde las
procariotas hasta el hombre. (Capítulo 18).
18. La colaboración juega un papel más importante que la competencia en la
supervivencia y la propagación de la vida, desde los genes que actúan de forma concertada,
pasando por las procariotas que colaboran en colonias para mantenerse y replicarse, los
orgánulos que colaboran en el seno de una eucariota unicelular para mantener y replicar la
célula, los grupos de células especializadas que colaboran dentro de organismos
pluricelulares, hasta los animales que colaboran en sociedades, como las colonias de
insectos, los bancos de peces, las bandadas de aves, y las familias, clanes, tropas y otros
grupos sociales de muchos mamíferos. La colaboración está también extendida entre
miembros de distintas especies. (Capítulo 19).
19. En especies unicelulares y animales, la colaboración suele adoptar la forma de
un grupo dentro de una especie que comunica y trabaja en conjunto para construir un
refugio comunitario, engendrar y criar la descendencia, buscar alimento, defenderse, atacar
a las presas y migrar hacia un entorno mejor para su supervivencia y reproducción. En
algunos casos, varios grupos dentro de una misma especie, e incluso entre especies
relacionadas, colaboran también en busca del beneficio propio, sobre todo en tareas de
migración. (Capítulo 19).
20. La colaboración en las especies unicelulares es innata. Entre animales simples,
como muchas especies de insectos, la colaboración también es innata, aunque más compleja
y normalmente forzada; es mejor describir esta conducta como colectivismo, para
distinguirla del cooperativismo, en el que el beneficio es mutuo o la colaboración es
voluntaria. (Capítulo 19).
21. A medida que la complejidad morfológica de las especies aumenta, desde los
peces hasta los primates, el aprendizaje social, que es más eficiente que el aprendizaje
individual por el método de prueba y error, aumenta y suplementa la conducta innata; las
habilidades socialmente aprendidas pueden ser hereditarias. Además, dentro de cada clase,
el aumento el aprendizaje social se correlaciona con el aumento de la complejidad cerebral,
junto con un aumento de la inteligencia medido por la invención de soluciones cada vez
más novedosas para problemas desafiantes. (Capítulo 19).
22. La explicación ortodoxa actual del fenómeno de la evolución biológica es una
síntesis actualizada de la selección natural darwinista de caracteres hereditarios generados
aleatoriamente, que hace que los individuos de la población de una especie estén mejor
adaptados para competir por los recursos limitados de su entorno y, en consecuencia,
puedan sobrevivir más tiempo y reproducirse más; la genética de poblaciones con base
estadística; y el dogma central de la biología molecular, que dice que la información es un
flujo unidireccional que va desde el gen hasta la proteína de las células. (Capítulo 16).
23. Muchos defensores de este paradigma neodarwinista dicen que la selección
natural es la causa de la evolución biológica, pero no puede ser una causa a menos que la
naturaleza la elija, puesto que seleccionar es elegir. Tampoco puede ser una metáfora de una
ley natural, puesto que sus defensores no invocan en ningún momento, y mucho menos
ofrecen prueba de la existencia, de una ley natural de la evolución biológica basada en el
gen que aplique a todos los seres vivos. Si la selección natural es algo más que un
argumento circular (los organismos que sobreviven más tiempo y se reproducen más son
aquellos seleccionados naturalmente para sobrevivir más y reproducirse más), será un
registro pasivo de los efectos causados por otras cosas. (Capítulo 21).
24. Según el modelo neodarwinista, las tres causas principales de la evolución de las
especies son (capítulo 21):
24.1. Mutaciones genéticas generadas aleatoriamente que codifican para caracteres
que dan a un miembro de la población de una determinada especie una ventaja en la
competencia por los recursos limitados y lo protege contra los depredadores del entorno
donde habita la población.
24.2. La competencia, principalmente entre miembros de una población creciente en
un entorno con recursos finitos, lo que permite a los ganadores sobrevivir más tiempo y
tener más descendencia.
24.3. La reproducción sexual que disemina estas mutaciones genéticas ventajosas a
través del acervo génico de la población a lo largo de decenas o centenares de miles de
generaciones.
25. Esta hipótesis ortodoxa neodarwinista explica plausiblemente el patrón más
dominante en las evidencias —las grandes extinciones de especies— como resultado de una
de las causas siguientes, o de una combinación de las mismas: la competencia mortal entre
miembros de una especie en crecimiento por los recursos limitados del entorno de dicha
población, la depredación por parte de otras especies, la propagación de mutaciones
genéticas nocivas en el acervo génico de una población (puesto que una sola mutación
puede acabar resultando fatal mientras que para producir la innovación morfológica son
necesarias muchísimas mutaciones genéticas) y la incapacidad de una especie de adaptarse
a un cambio en su entorno. (Capítulos 16, 17, 18, 19, 21 y 22).
26. Muchas especies experimentan variaciones reversibles como respuesta a
cambios ambientales, en su mayoría debidos a cambios en las cantidades relativas de
variaciones genéticas ya presentes en el acervo génico de una población más que a una
acumulación gradual de nuevas mutaciones genéticas. Pero el cambio reversible no
constituye la evolución de una especie. Para distinguir entre cambio adaptativo reversible y
cambio irreversible, habría que definir la evolución biológica como un proceso de cambio
en organismos que da como resultado una nueva especie. (Capítulos 18 y 21).
27. No existen evidencias que sustenten la explicación neodarwinista de la
evolución irreversible de las nuevas especies. (Capítulo 18).
28. La hipótesis ortodoxa neodarwinista no explica:
28.1. Por qué el registro fósil de los animales muestra una estasis morfológica con
cambios menores, y a menudo oscilantes, puntuados por la aparición geológicamente súbita
(decenas de miles de años) de nuevas especies completamente formadas que permanecen
sin cambios durante decenas e incluso cientos de miles de años, hasta que se extinguen o,
más raramente, continúan su existencia hasta nuestros días.
28.2. Por qué la acumulación de mutaciones genéticas es aproximadamente la
misma en los distintos linajes, pero en algunos linajes esto da como resultado la
inexistencia de cambios morfológicos o de especies durante decenas o centenares de
millones de años, a pesar de los cambios considerables que sufre el entorno.
28.3. Por qué algunas especies con genes muy similares tienen fenotipos muy
distintos, mientras que otras especies que difieren sustancialmente en sus genes tienen
fenotipos similares.
28.4. La especiación inmediata, y no gradual, a través de la poliploidía, que es un
aumento del número normal de cromosomas por célula que se produce de manera natural
en muchas plantas, así como en peces, anfibios, reptiles e incluso en algunos mamíferos, y
que está probablemente más extendida de lo que suponían los escasos intentos de
investigación del fenómeno.
28.5. Por qué o cómo se heredan los caracteres adquiridos sin que haya ningún
cambio genético subyacente.
28.6. La función de cerca del 98 por ciento del genoma humano que no consiste en
genes definidos como segmentos de ADN codificador de proteínas y que durante cincuenta
años fue ignorado como «ADN basura» antes de que análisis genómicos mostraran que en
su mayoría está implicado en la regulación de la expresión de redes genéticas, una función
que determina el fenotipo tanto como los genes codificadores de proteínas.
28.7. Por qué una única célula fertilizada, resultado de la fusión de una célula sexual
masculina y una célula sexual femenina, se replica en células madre idénticas que luego se
diferencian en células especializadas con funciones distintas, que posteriormente
evolucionan en un adulto independiente y complejo masculino o femenino.
28.8. Por qué o cómo las especies más numerosas del planeta evolucionan; es decir,
las procariotas no se reproducen sexualmente sino que se replican clonándose y realizando
una transferencia genética horizontal, a veces entre especies muy distintas.
28.9. Por qué o cómo las evidencias de la evolución biológica se caracterizan por
dos patrones importantes y relacionados entre sí: el aumento de complejidad y la
colaboración. (Capítulos 20, 21 y 22).
29. La afirmación de los defensores del diseño inteligente de que la hipótesis
darwinista no puede explicar las innovaciones biológicas importantes y su patrón de
aumento de complejidad está sustentada por una buena cantidad de evidencias. Sin
embargo, llegar a la conclusión de que estas innovaciones biológicas han sido dirigidas por
un agente inteligente es una falacia lógica. Que la hipótesis neodarwinista no puede
explicar estos fenómenos, no implica que otras hipótesis científicas verificables no puedan
ofrecer una explicación ahora o en el futuro. Los defensores del diseño inteligente no
ofrecen explicaciones verificables de sus creencias, lo que sitúa el diseño inteligente fuera
del terreno de la ciencia. (Capítulo 22).
30. Por lo que se refiere a las otras hipótesis que complementan o desafían el
paradigma neodarwinista, la hipótesis del equilibrio puntuado no se aleja radicalmente del
neodarwinismo pero desafía su método de especiación basándose en que las mutaciones
genéticas de una población diseminada en un área geográfica grande quedan diluidas por el
tamaño de la población y por los cambios constantes en el entorno, lo que provoca cambios
morfológicos menores que fluctúan alrededor de una media, algo que evidencia el registro
fósil. Propone que las mutaciones genéticas se propagan rápidamente en subpoblaciones
pequeñas aisladas de la periferia y que eso produce nuevas especies incapaces de
reproducirse con éxito con el grupo principal. (Capítulo 22).
31. De un modo similar, la hipótesis del origen súbito desafía también el
gradualismo neodarwinista. Sustentada sobre evidencias bioquímicas, afirma de forma
persuasiva que el estado normal de los organismos es la homeostasis, puesto que los
mecanismos de reparación celular corrigen constantemente las mutaciones generadas
aleatoriamente e impiden de este modo el cambio. El estrés relativamente repentino y grave
sería lo único capaz de superar estos mecanismos y de permitir que las mutaciones que
sufren las células sexuales queden sin reparar y provoquen cambios genómicos que afecten
el desarrollo del organismo. La hipótesis, sin embargo, resulta vaga en cuanto a la manera
en cómo esto conduce a la aparición de especies viables o produce transiciones evolutivas
que muestren un patrón de complejidad creciente. (Capítulo 22).
32. La teoría neutral desafía la acumulación gradual de mutaciones genéticas que el
neodarwinismo defiende como único mecanismo de especiación. Argumenta que, a nivel
molecular, la mayoría de cambios genéticos acumulados no confiere ventajas adaptativas o
competitivas y que la especiación podría producirse por la acumulación casual de
mutaciones «selectivamente neutras». A pesar de desaprobar la idea del mecanismo único,
la teoría neutral se muestra también vaga en cuanto a la manera en cómo esto conduce a la
aparición de especies viables o produce transiciones evolutivas que muestren un patrón de
complejidad creciente. (Capítulo 22).
33. La hipótesis de la duplicación total del genoma, o 2R, propuesta por primera vez
en 1970, ofrece una explicación de cómo se ha producido el cambo evolutivo en los
vertebrados mediante el duplicado del número normal de juegos de cromosomas por célula
seguido por la degeneración a dos juegos de cromosomas por célula pero con el doble de
genes. A pesar de que la hipótesis fue ignorada o rechazada en su momento, la reciente
secuenciación de genomas completos ofrece una base al demostrar, por ejemplo, que una
gran parte del genoma humano comprende cuatro juegos de genes con estructura similar en
distintas regiones cromosómicas.
Esta hipótesis ofrece una explicación plausible para la especiación relativamente
rápida que muestra el registro fósil. Sin embargo, tal y como se ha desarrollado hasta ahora,
no explica cuál fue la causa de la duplicación del genoma o cuál, de entre varios
mecanismos, estuvo implicado. Es posible que futuros estudios sobre la poliploidía en
plantas y animales revelen respuestas tanto para estas preguntas como a la de hasta qué
punto este mecanismo ha estado presente en la evolución biológica. (Capítulo 22).
34. La teoría de la epigenética busca ampliar el actual paradigma más allá del
neodarwinismo proponiendo mecanismos no genéticos tanto para la morfogénesis (la
diferenciación de las células madre en células especializadas que luego evolucionan hasta
dar lugar a un individuo adulto, complejo e independiente) como para la herencia de
caracteres adquiridos, pero no explica por qué se producen estos fenómenos. (Capítulo 22).
35. La teoría de la convergencia desafía la postura de los neodarwinistas actuales
que afirman que las causas del cambio genético son aleatorias y que, en consecuencia, sus
efectos fenotípicos serán también aleatorios. La teoría defiende que la herencia a nivel
bioquímico y el principio adaptativo restringen la evolución biológica a un número limitado
de resultados fenotípicos que muestran, entre otras cosas, un patrón de aumento de
complejidad, siendo la aparición del hombre un suceso casi inevitable.
Tal y como está desarrollada en la actualidad, esta hipótesis no reconoce
adecuadamente la evidencia de divergencia en la evolución biológica (el aumento de
complejidad progresivo se da en linajes divergentes). La distinción entre evolución
convergente y evolución paralela (los órganos, los planes orgánicos o las conductas son
similares en distintas especies porque todos ellos, o versiones anteriores de ellos, están
presentes en un antepasado común) es borrosa porque los genes reguladores del desarrollo
son muy similares en un amplio rango de especies; por otro lado, los planes orgánicos
resultantes de genes tan similares son muy distintos.
En la evolución biológica hay patrones de divergencia y de convergencia. Pero
atribuir la causa de la convergencia a la herencia describe un patrón, no la causa de ese
patrón, mientras que invocar el principio adaptativo imposibilita la definición de una ley
aplicable a todos los organismos. (Capítulo 22)
36. La hipótesis de la emergencia busca explicar por qué, de entre innumerables
posibilidades, en la evolución de la vida solo se produce un número limitado de grandes
emergencias de complejidad cada vez mayor. Mientras que la idea de que existan una o más
leyes de selección subyacentes capaces de explicar esto resulta atractiva, esta ley o leyes
siguen sin estar identificadas. Igual que sucede con su explicación de la emergencia de la
vida, la teoría no ha avanzado más allá de la mera descripción del fenómeno. (Capítulo 22).
37. La complejidad auto-organizada afirma explicar tanto la diferenciación de las
células madre en células especiales que acaban desarrollándose en un adulto
interdependiente (morfogénesis), como la evolución de las especies, tratándolas como una
red autorregulada gobernada por unas normas de encendido y apagado que siguen un tipo
particular de lógica booleana que produce estabilidad al borde del caos. Sin embargo, desde
su presentación en 1991, sus predicciones matemáticas se han visto contradichas por
evidencias genéticas y genómicas y, por otro lado, no se ha avanzado en la labor de aplicar
sus diversos modelos de simulación a los datos biológicos. En consecuencia, igual que
sucede con su explicación de la emergencia de la vida, esta hipótesis no ofrece por el
momento más que la esperanza de que sus modelos corregidos nos conduzcan hacia leyes
de la biología novedosas y más profundas. (Capítulo 22).
38. La hipótesis de que existen leyes naturales de la evolución del genoma fue
presentada en 2011 después del aluvión de datos proporcionado por la secuenciación rápida
de genomas completos. Afirma que los datos disponibles muestran varios patrones
universales en la evolución del genoma y el fenoma de linajes de grupos tan diversos como
las bacterias, las arqueas y las eucariotas; y que, además, estos patrones pueden explicarse
mediante modelos matemáticos sencillos, similares a los que utiliza la física estadística.
Como que estos modelos no incorporan la selección natural, los patrones están
conformados por propiedades emergentes de conjuntos de genes. En consecuencia, sugiere
la hipótesis, podrían conseguirse leves de biología evolutiva comparables en categoría a las
leyes de la física.
Este enfoque ofrece una vía de investigación potencialmente fructífera para intentar
determinar de qué modo, entre un mar de infinitas posibilidades, los resultados de la
evolución biológica están limitados a tan pocas. (Capítulo 22).
39. La hipótesis de la ingeniería genética natural fue presentada también en 2011
como un desafío al paradigma neodarwinista que afirma que la causa de la evolución
biológica son cambios genéticos generados aleatoriamente en genomas que, por lo demás,
se mantienen estáticos. Defiende que las células poseen una habilidad innata para
reorganizar sus genomas como respuesta a centenares de inputs distintos; además, los
genomas no son solo sistemas de memoria tipo solo lectura sujetos a cambios accidentales,
sino también orgánulos de almacenamiento de información lectura-escritura en todas las
escalas del tiempo, desde el ciclo de la célula hasta los eones evolutivos. A medida que la
evolución avanza, también lo hace la «evolutibilidad»: los organismos vivos son seres que
se modifican a sí mismos y son intrínsecamente teleológicos. Defiende que el actual
paradigma no logra explicar la rapidez y la variedad del aumento de complejidad biológica,
y que la integración de la ciencia biológica con un enfoque basado en la información —y en
sistemas de información—, producirá un nuevo paradigma para el siglo xxi.
Esta hipótesis no aporta un nuevo paradigma, sino más bien una agenda a seguir
para un paradigma basado en el concepto de la auto-modificación de los organismos que
sea más consistente con las evidencias que el actual paradigma. (Capítulo 22).
40. La biología de sistemas desafía el reduccionismo del modelo neodarwinista
adoptando una visión holística de los fenómenos naturales y aspira a descubrir propiedades
emergentes. Estudia los seres vivos como una red integrada e interactiva de genes,
proteínas y reacciones químicas que da lugar a la vida y es responsable de la forma y las
funciones de los organismos. Estas propiedades emergentes no son atribuibles a ninguna
parte única del sistema vivo que es, por lo tanto, una entidad irreducible.
Este concepto refleja la realidad del mundo biológico mucho mejor que el modelo
simplista neodarwinista y ofrece un enfoque potencialmente gratificante para una
comprensión más completa de las causas y los mecanismos de la evolución biológica. El
principal peligro en el futuro es que, al basarse en la bioinformática para afrontar un
volumen de datos de secuenciación molecular que crece a ritmo exponencial, y con su
deseo de ser tan rigurosos como los reduccionistas, los biólogos de sistemas se centren
hasta tal punto en la investigación especializada de las partes que acaben perdiendo el foco
en el todo. (Capítulo 22).
41. Similar en concepto pero más amplia al extender su ámbito de aplicación a toda
la Tierra, la hipótesis de Gaia propone que la biosfera, la atmósfera, los océanos y el suelo
de la Tierra constituyen un sistema interactivo autorregulado; la evolución de los
organismos vivos está tan estrechamente relacionada con la evolución de su entorno, que
juntos constituyen un único proceso evolutivo. Mientras que se trata de un enfoque que
tiene sentido desde un punto de vista intuitivo y tiene, además, cierta base empírica a nivel
global, la hipótesis no ofrece aún una explicación lo bastante tangible de la evolución de las
especies. (Capítulo 22).
42. La hipótesis de la causación formativa propone no sólo cómo tienen lugar la
morfogénesis y la evolución biológica, sino además por qué lo hacen. Según este punto de
vista, no existen leyes universales inmutables, que son conceptos deterministas
newtonianos que no consiguen responder cuál es la causa de que estas leyes existan.
Propone que lo que es habitual es la naturaleza. Todas las especies recurren y contribuyen a
una memoria colectiva universal evolutiva de sus especies que adopta la forma de campos
mórficos universales evolutivos. Por un proceso de resonancia, cada campo mórfico
impone su patrón de conducta a una actividad que, por lo demás, sería aleatoria o
indeterminada para causar, por ejemplo, que idénticas células madre humanas se
diferencien en células especializadas que se desarrollan y dan lugar a individuos adultos
independientes. Evidencias experimentales en la conducta de la rata son inconsistentes
tanto con la hipótesis neodarwinista como con la herencia epigenética de caracteres
adquiridos, y son consistentes con la causación formativa. La ausencia de pruebas
experimentales de la hipótesis desde que fue presentada en 1981 podría atribuirse a la
escasa mentalidad abierta de la clase biológica dominante. (Capítulo 22).
43. Los intentos de explicar según el modelo neodarwinista la conducta no
competitiva de todas las especies, incluyendo la humana, dio como resultado una visión
teórica de la evolución biológica centrada en el gen y adoptada por la sociobiología. Sus
principales hipótesis son las siguientes. (Capítulo 23).
43.1. Altruismo por parentesco o aptitud inclusiva
Basándose en la teoría matemática, esta hipótesis defiende que la conducta altruista
es resultado de la conducta de los individuos que los lleva a transmitir copias de sus genes a
la siguiente generación no solo directamente a través de la reproducción sexual, sino
también indirectamente, facilitando el éxito reproductivo de los parientes más próximos
compartiendo parte de sus genes, aunque eso les suponga un coste.
Sin embargo:
a. No tiene en cuenta la conducta de las especies mayoritarias del planeta, las
procariotas, que se replican clonándose y pueden transmitir de inmediato sus genes a otras
procariotas de especies muy distintas;
b. Asume que todos los miembros de un grupo se comportarán de la misma manera
si comparten los mismos genes, cuando las evidencias muestran que la relación entre genes
y conducta es mucho más compleja;
c. Utiliza el término «altruismo», un acto desinteresado, para describir la
colaboración forzada;
d. Confunde conducta animal innata y forzada con conducta humana intencionada;
e. No explica el altruismo en los humanos;
f. No explica la colaboración entre animales con relaciones más lejanas que primos
hermanos.
43.2. «Altruismo reciproco»
Esta hipótesis afirma que animales y humanos se comportan altruistamente porque
cualquier acto desinteresado acaba siendo reciprocado en el futuro. Se basa en una
contradicción de términos: si un acto es reciprocado ya no es altruismo; será ayuda mutua o
cooperación. Padece de los cinco primeros fallos de la hipótesis del altruismo por
parentesco. Además, no existen evidencias de especies en libertad no entrenadas que
sustenten sus afirmaciones. Sus «pruebas» son teóricas, igual que lo son sus extensiones
para explicar conductas cooperativas, egoístas y rencorosas. Se basan en modelos
matemáticos que no plasman patrones de conducta real o en las teorías de juegos
económicas de los años 50, simplistas y de escaso éxito, que están divorciadas de las
realidades biológicas, pueden diseñarse para producir cualquier tipo de resultado deseado,
carecen de valor predictivo y cambian si no se invierte el significado generalmente
aceptado de las palabras.
43.3. El gen egoísta
Esta hipótesis afirma que los genes son los principales impulsores de la vida, que
los cuerpos individuales no tienen que existir, y que los genes compiten egoístamente entre
ellos para su supervivencia y replicación. Se basa en el error conceptual de atribuir
intenciones a segmentos de un ácido y está contradicha por una cantidad importante de
evidencias.
43.4. El gen genial
Ilustra la conclusión de que las teorías de juegos pueden diseñarse para conseguir
cualquier tipo de resultado deseado.
43.5. Selección multinivel
Esta hipótesis reconoce que las hipótesis sociobiológicas anteriores están mal
concebidas, ofrece un relato más realista del complejo mundo de los organismos y de las
interacciones entre ellos y su entorno, y su descripción de cómo surgen las grandes
transiciones evolutivas es consistente con la colaboración como causa principal de la
evolución biológica.
44. El punto de vista de que la colaboración es uno de los principales problemas que
tienen pendientes de explicar las ciencias biológicas y sociales es un problema
autoimpuesto provocado por la adopción del modelo neodarwinista, que está enraizado en
la competencia. Este problema se solventa reconociendo que la colaboración es extensiva a
todos los niveles de la vida y es la causa principal que lleva a los organismos a desarrollarse
y sobrevivir (capítulo 19):
44.1. Los genes trabajan en colaboración para el desarrollo de un organismo, a
menudo regulados por otros genes que a su vez trabajan en colaboración;
44.2. Un organismo unicelular consta de diversas partes que realizan funciones
específicas y colaboran entre sí para mantener y replicar dicho organismo;
44.3. Una célula eucariota consta de un núcleo que controla la colaboración de las
partes de la célula, u orgánulos, que realizan funciones específicas para el mantenimiento y
la replicación de dicha célula, mientras que un organismo pluricelular consta de una
jerarquía de grupos de células especializadas que colaboran entre sí, con escaso conflicto,
para mantener al organismo con vida y producir descendencia;
44.4. Los organismos, desde las procariotas más simples hasta el hombre, colaboran
para su supervivencia y reproducción.
45. Además, es la colaboración, más que la competencia neodarwinista, lo que
posiblemente causa la evolución biológica, que se caracteriza por el aumento de
complejidad, la innovación y la diversificación de las formas de vida a partir de las
procariotas más simples y primitivas. La colaboración entre distintos tipos de bacterias
arcaicas para su mutua supervivencia (simbiosis) llevó a que organismos pequeños vivieran
dentro de organismos más grandes (endosimbiosis), a lo que siguió su fusión
(simbiogénesis) para formar las primeras eucariotas unicelulares (más grandes, más
complejas y con células nucleadas). Simbiogénesis posteriores con otras bacterias arcaicas,
seguidas por transferencias genéticas de endosimbiontes a núcleos, formaron células
eucariotas más grandes y complejas si cabe que contenían los orgánulos colaboradores
característicos de los reinos taxonómicos de los animales, las plantas y los hongos. Los
miembros colaboradores de las colonias de eucariotas unicelulares se combinaron para
formar, dentro de esos reinos, eucariotas multicelulares todavía más complejas. (Capítulo
23).
46. Más que resultado de una acumulación gradual neodarwinista de mutaciones
genéticas generadas aleatoriamente en el seno de la población de una especie a lo largo de
miles de generaciones, el aumento de complejidad evolutivo y el reino animal fueron más
probablemente resultado de (capítulos 17, 18, 22 y 23):
46.1. Transposones (genes saltarines) implicados en la regulación de la expresión
del gen que generaron distintos tipos de células y distintas estructuras biológicas.
46.2. Transferencias horizontales de conjuntos de genes entre especies.
46.3. La fusión de genomas a través de la hibridación.
46.4. La duplicación de genomas completos (a través de la hibridación o de la
polipliodía).
47. La colaboración entre miembros del grupo de una especie para construir un
refugio comunitario, producir y criar descendencia, defenderse, buscar alimento, atacar a
los depredadores y migrar hacia un entorno con mejores recursos (la hipótesis del apoyo
mutuo), junto con la colaboración entre miembros de distintas especies, es un factor más
importante que la competencia neodarwinista en el aumento de la probabilidad de que esos
miembros sobrevivan y se reproduzcan con éxito. (Capítulos 16 y 23).
48. Igual que sucede con la competencia, la colaboración puede ser tanto innata —
conducta que ha demostrado su éxito para la supervivencia y la reproducción y se hereda
genéticamente, epigenéticamente, o tal vez como resultado de un campo mórfico— como
intencionada, como en el caso de las sociedades de ayuda mutua y cooperación de los
humanos. (Capítulo 23).
49. La colaboración, además, proporciona una explicación más probable que el de la
competencia neodarwinista para el patrón que se observa en aquellas especies de las clases
taxonómicas que muestran un incremento de las aptitudes cognitivas a través del
aprendizaje social. (Capítulos 19 y 23).
50. La evolución de la vida es algo más que evolución biológica. La consciencia —
entendida como percepción del entorno, de otros organismos y de uno mismo que incentiva
a la acción— emerge en formato rudimentario en las procariotas, las formas de vida más
primitivas y antiguas de la Tierra, tal y como ponen en evidencia las acciones que llevan a
cabo para sobrevivir y que adoptan la forma de una respuesta directa a estímulos internos y
externos. A medida que las procariotas fueron colaborando en comunidades, evolucionaron
las respuestas directas colaborativas para la supervivencia colectiva. (Capítulo 24).
51. La consciencia se desarrolla a lo largo de los linajes animales, y queda
demostrada por la evolución de acciones más complejas y variadas, en especial por la
incorporación de conductas innatas, aprendidas, sociales e innovadoras. A medida que a lo
largo del linaje humano evolucionan especies más complejas, las conductas aprendidas,
sociales e innovadoras ganan en importancia. (Capítulo 24).
52. La correlación física de este aumento de la consciencia es la evolución de
animales con un sistema nervioso electroquímico que permite progresivamente respuestas
más rápidas, variadas y flexibles a los estímulos externos. Se caracteriza por cuatro
tendencias interrelacionadas. (Capítulo 24).
52.1. Crecimiento
Se desarrolla un incremento neto del número de neuronas, o células nerviosas, y de
sus conexiones.
52.2. Aumento de la complejidad
El sistema nervioso se vuelve más complejo, no solo gracias al aumento del número
de neuronas y de sus conexiones modificables (hasta la emergencia del cerebro humano
como el objeto más complejo del universo conocido), sino también gracias al crecimiento
en número y tamaño de grupos interconectados y especializados de neuronas que procesan
y controlan las respuestas a una gama cada vez mayor de estímulos externos e internos. El
neocórtex —la parte del cerebro más compleja y de evolución más reciente— exhibe un
gran crecimiento desde los primeros mamíferos hasta los humanos que se correlaciona con
un incremento en la conducta innovadora —un signo de inteligencia— desde los mamíferos
hasta los primates, seguido por un incremento inmensamente mayor en la conducta
innovadora y la inteligencia en los humanos.
52.3. Centralización
El crecimiento y el aumento de complejidad van acompañados por una
centralización progresiva que va desde una red difusa de neuronas en los animales
primitivos más simples, hasta un sistema nervioso centralizado en los vertebrados en el que
casi todos los grupos de neuronas se concentran en la cabeza, y el resto en la zona de la
columna vertebral.
52.4. Optimización
La centralización y el aumento de complejidad reducen la longitud de las
conexiones neurales y, por consiguiente, el tiempo de transmisión y, como consecuencia de
ello, el tiempo de respuesta, además de aumentar el tipo de respuestas. Mientras que, en
términos generales, los animales han aumentado de tamaño a medida que su linaje ha
evolucionado, el cerebro y el tamaño corporal del humano actual es inferior al de los
primeros humanos, lo cual resulta consistente con la optimización del tamaño cerebro-
cuerpo para conseguir la eficiencia máxima del sistema nervioso electroquímico y ofrecer
una mayor velocidad y una mayor flexibilidad de respuesta.
53. Los organismos que colaboran por la supervivencia en su entorno causaron
probablemente la selección natural de redes genéticas que fomentaran el crecimiento, el
aumento de complejidad y la centralización del sistema nervioso que constituye la
correlación física del aumento de consciencia que hasta el momento ha alcanzado su
máximo nivel en la especie humana. La optimización del sistema nerviosos electroquímico
para la velocidad y la flexibilidad de respuesta deriva de las leyes de la física. (Capítulo
24).
En general, a partir de las evidencias podríamos deducir cuatro leyes cualitativas de
la evolución biológica:
Primera ley de la evolución biológica: la competencia y el rápido cambio
medioambiental causaron la extinción de especies.
Segunda ley de la evolución biológica: la colaboración causa la evolución de las
especies.
Tercera ley de la evolución biológica: los seres vivos evolucionan mediante el
aumento de la complejidad y la centralización a lo largo de linajes que se fusionan, bifurcan
y que desembocan en estasis en todos, excepto en un linaje.
Cuarta ley de la evolución biológica: el aumento de la consciencia se correlaciona
con un aumento de la colaboración, la complejidad y la centralización.
En la tercera parte, examinaré si la aparición del ser humano señala un cambio de
nivel o de tipo en la evolución de la vida.
TERCERA PARTE.
La emergencia y la evolución del hombre
CAPÍTULO 26. LA EMERGENCIA DEL HOMBRE

La cualidad esencial del hombre […] es el pensamiento conceptual.

Julian Huxley, 1941

El origen y desarrollo de la cultura humana —lenguaje hablado articulado e ideas


con intermediación simbólica, creencias y conducta— se cuenta entre los mayores
rompecabezas sin resolver en el estudio de la evolución humana. Son preguntas que ni los
datos óseos ni arqueológicos pueden solventar.

Russel Howard Tuttle, 2005

Cualquier explicación sobre de dónde venimos —cuándo, cómo y por qué


evolucionamos de los primates— depende de comprender qué significa ser humano. Por lo
tanto, empezaré la tercera parte considerando las distintas definiciones del término
«humano», formularé la definición que voy a utilizar, examinaré las evidencias de la
emergencia del hombre y luego evaluaré las actuales explicaciones científicas.
¿Qué es un humano?

Igual que sucede con la definición de la vida, no existe un acuerdo en la definición


del término «humano». Los científicos definen el humano según la perspectiva de sus
distintas especialidades e, incluso dentro de una misma disciplina, encontramos diferencias
importantes.
Los paleoantropólogos recurren a los conocimientos de la arqueología, la
antropología y la anatomía para estudiar la emergencia de los humanos, razón por la cual
resulta instructivo empezar considerando cómo identifican ellos a los humanos. Según
Donald Johanson, que descubrió el esqueleto parcialmente fosilizado de una criatura a la
que bautizó como «Lucy» y que dictaminó que había caminado erecta sobre los dos pies,
«la bipedestación es la característica definitoria más primitiva y distintiva de los humanos».
Pero los pingüinos, los emús, los avestruces y otras aves también son bípedos. Entre los
primates, los chimpancés caminan a veces erectos, aunque con las rodillas dobladas.
Cuando los orangutanes se desplazan por las ramas de los árboles en los que viven, suelen
hacerlo erectos, con las piernas estiradas como el hombre y los brazos levantados para
mantener el equilibrio o sujetarse. E incluso Johanson asignó a Lucy el taxón pre-humano
Australopithecus afarensis.
Los dientes son con frecuencia los únicos fósiles de homíninos que encontramos en
los yacimientos prehistóricos y se han utilizado cantidades tan mínimas como uno o dos
dientes para definir un fósil como humano o como perteneciente a otra especie. El
razonamiento que se sigue en estos casos es que el chimpancé actual, la especie
genéticamente más próxima al humano actual, posee caninos grandes, puntiagudos y
sobresalientes, premolares inferiores con una única cúspide que afilan los caninos
superiores, y una capa fina de esmalte dental; el hombre actual tiene caninos más pequeños,
muy similares a sus incisivos centrales, premolares inferiores con doble cúspide y esmalte
dental grueso. De ahí que el grado de parecido entre los dientes fosilizados y los dientes
humanos o los dientes de chimpancé indicaría la situación de la criatura en el árbol
filogenético que va desde el antepasado común de humanos y chimpancés hasta el humano
actual. El supuesto de base, sin embargo, es que los dientes cambiaron en la ramificación
correspondiente al linaje que lleva hasta el humano actual, pero no cambiaron en la
ramificación correspondiente al linaje que lleva hasta el chimpancé actual. Como veremos
más adelante, los descubridores del Ardipithecus ramidus afirman que el antepasado común
del chimpancé y el hombre no se parece al chimpancé actual. Además, el orangután actual
también tiene esmalte dental grueso.
Otros paleoantropólogos utilizan la capacidad craneal como característica
definitoria de los humanos. Pero, como hemos visto en el capítulo 24, los elefantes tienen
una capacidad craneal aproximadamente seis veces superior a la de los humanos, mientras
que la capacidad craneal de los humanos de hace 30.000 años es similar a la de los
neandertales del mismo periodo, que se estima un 10 por ciento superior a la del humano
actual.[1]
Chris Stringer, del Museo de Historia Natural británico, intenta cubrir todas las
bases utilizando un conjunto de características para definir al humano: volumen cerebral
grande, cráneo alto y abovedado, frente vertical, cara pequeña y plana, arcos superciliares
poco prominentes, mandíbula inferior con barbilla ósea, dientes pequeños y sencillos, hueso
timpánico de construcción ligera que contiene los huesecillos del oído, un hueso en la parte
anterior de la pelvis corto y con una sección transversal prácticamente circular, sin pilar
iliaco que refuerce la pelvis por encima del acetábulo de la cadera y fémures de sección
transversal oval y engrosados en la parte anterior y posterior.[2] Sin embargo, aun en la
circunstancia de que en un ejemplar prehistórico se encontraran todos estos huesos, lo cual
no ha sido nunca el caso— indicarían grados de diferencia relativamente pequeños con
respecto a otros homininos más que características exclusivas del humano.
El zoólogo Desmond Morris defiende que la característica definitoria de los
humanos es la carencia de pelo, que los distingue de las 193 especies de monos y simios.[3]
Pero esto no distingue a los humanos de las ballenas, delfines y muchos otros mamíferos.
Aun el en caso en que se definiera a los humanos como simios sin pelo, no serviría para
identificar la emergencia de los humanos porque el pelo fosilizado es extremadamente raro.
Los genetistas definen a los humanos por sus genes. Sin embargo, en el capítulo 18
hemos visto que el hombre comparte cerca del 94 por ciento de sus genes con el chimpancé
y posiblemente el 90 por ciento con la rata.[4] El primer borrador del análisis del genoma
del neandertal publicado en 2010 sugiere que los genes del humano y el neandertal solo se
diferencian en un 0,3 por ciento;[5] a pesar de ser menos que el 6 por ciento de diferencia
con respecto al chimpancé, no es mucho más que la variación estimada de entre un 0,1 y un
0,15 por ciento que se da en el humano actual.[6]
Algunos genetistas están intentando identificar genes concretos, o variaciones, que
sean exclusivos de los humanos, pero creo que esta investigación presenta escasas
probabilidades de encontrar una característica exclusiva, no solo por las variaciones
genéticas que se dan entre los humanos, sino también por el hecho de que debido a que la
mayoría de genes actúa en sintonía con muchos otros genes a través de redes, los genes se
ven a menudo implicados en distintas funciones, y sus efectos dependen de manera muy
importante de su regulación: hasta qué punto están activados, cuándo y por cuánto tiempo.
Una serie de antropólogos actuales defiende que lo que define al humano no son los
genes, sino la cultura; la ortodoxia actual es co-evolución genético-cultural. Pero dentro de
este marco de trabajo, la mayoría proclama que la cultura es exclusiva de los humanos. Por
ejemplo, en su libro Not by Genes Alone: How Culture Transformed Human Evolution [No
solo fueron los genes: cómo transformó la cultura la evolución humana], Peter Richerson y
Robert Boyd definen esa cultura como «información capaz de afectar la conducta de los
individuos que adquieren a partir de otros miembros de su especie a través de la enseñanza,
la imitación y otras formas de transmisión social». Pero, como hemos visto en el capítulo
19, todos estos rasgos, excepto el de la enseñanza, se observan en distintos grados en los
animales, desde los peces hasta los primates no humanos, y en los suricatos se ha observado
incluso enseñanza.[7]
Muchos neurocientíficos afirman poder definir un humano identificando en qué
regiones del cerebro se localizan las aptitudes exclusivas de los humanos —como el
lenguaje, la utilización de símbolos y el sentimiento de identidad— e identificando
asimismo las redes neurales y los mecanismos cognitivos que las sustentan. Examinaré más
adelante si estas aptitudes no son más que actividad neural en determinadas partes del
cerebro y si la actividad neural correlacionada con estas aptitudes es una cuestión más
metafísica que científica. Pero para el propósito de identificar la emergencia de los
humanos a partir de sus antepasados primates, las neuronas no dejan fósiles, razón por la
cual necesitamos otro tipo de evidencias.
Definición propuesta

Lo que hace a los humanos únicos no es la bipedestación, los dientes, la capacidad


craneal, la estructura esquelética, la ausencia de pelo, los genes, la cultura tal y como se
acaba de describir o la actividad neural en distintas regiones del cerebro. Se trata, en todos
los casos, de características presentes en otros organismos o en las que la variante humana
se diferencia muy poco de la presente en otros organismos.
Poseemos, sin embargo, una característica que, por lo que yo sé, es única.
El patrón de evidencias identificado en la segunda parte nos dio una pista. La
evolución de la vida, en general, está marcada por un aumento de consciencia, definida
como:
Consciencia: la percepción del entorno, de otros organismos y de uno mismo que
incentiva a la acción; una propiedad compartida por todos los organismos en mayor o
menor grado, desde niveles rudimentarios en organismos muy simples hasta niveles más
sofisticados en organismos con sistemas cerebrales complejos.
Con el aumento de complejidad, la centralización y, en el caso de los humanos, la
optimización del sistema nervioso, la consciencia aumenta a lo largo del linaje humano
hasta el punto en que se convierte en consciente de sí misma. Como el agua cuando alcanza
los 100º Celsius, se produce un cambio de fase: la consciencia reflexiona sobre sí misma.
Consciencia reflexiva: la propiedad de un organismo por la que es consciente de su
propia consciencia, es decir, no solo lo sabe, sino que además sabe que lo sabe.
En consecuencia, los humanos podrían definirse como:
Homo sapiens: la única especie que sabemos que posee consciencia reflexiva.
Esta facultad permite al humano pensar sobre sí mismo y sobre su relación con el
resto del universo, del que sabe que forma parte.
Evidencias de consciencia reflexiva

La evidencia más convincente de esta facultad la obtenemos cuando el humano


pregunta, e intenta responder, a cuestiones como «¿Qué somos?», «¿De dónde venimos?»,
«¿Qué es el universo en el que vivimos?», etc., es decir, la materia que ocupa la religión, la
filosofía y, en consecuencia, también la ciencia.
Estamos ante el florecimiento completo de la consciencia reflexiva. Pero no
apareció de repente totalmente formada, del mismo modo que un volumen de agua caliente
no se transforma de repente en vapor cuando la temperatura alcanza los 100º Celsius.
¿Cómo detectamos, pues, esta emergencia, sus primeros destellos en tiempos
prehistóricos? La respuesta, sugiero, está en las evidencias de aquellas facultades
secundarias de los primates que la consciencia reflexiva transforma y en las evidencias de
las nuevas facultades secundarias que dicha consciencia genera. Entre las facultades
secundarias que la consciencia reflexiva transforma radicalmente Estan la comprensión, la
memoria, la previsión, la cognición, el aprendizaje, la invención, la intención y la
comunicación. Las nuevas facultades secundarias que genera son el pensamiento, el
razonamiento, la perspicacia, la imaginación, la creatividad, la abstracción, la voluntad, el
lenguaje, las creencias y la ética. Estar en posesión de consciencia reflexiva desmarca la
cooperación (colaboración racional y voluntaria) del colectivismo (colaboración instintiva,
condicionada o coercitiva).
Estas facultades secundarias tienden a actuar de manera sinérgica y los resultados de
estas acciones dejan evidencias. Por ejemplo, la comprensión combinada con la inventiva,
la previsión y la imaginación dan lugar a herramientas especializadas y compuestas; la
cognición combinada con la imaginación produce creencias en poderes sobrenaturales que
dan como resultado rituales religiosos; la cognición combinada con la comunicación
produce arte representativo que da como resultado pinturas y esculturas; y la imaginación y
el arte se extienden hacia imágenes que no se observan en la vida; si a eso le añadimos la
abstracción, el arte se extiende a los símbolos.
Hemos visto en la segunda parte que el aumento de consciencia en las especies iba
también asociado a miembros de las especies que vivían en grupos, lo que facilitaba, entre
otras cosas, aprendizaje social. Las facultades individuales transformadas o generadas por
la consciencia reflexiva que se comparten en sociedades humanas constituyen su cultura.
Cultura humana: el conocimiento, las creencias, los valores, la organización, las
costumbres, la creatividad expresada en forma de arte y la innovación expresada en forma
de ciencia y tecnología, de una sociedad, aprendido y desarrollado todo ello por sus
miembros y transmitido entre ellos y hacia los miembros de generaciones sucesivas.
Esta definición distingue características exclusivas de las sociedades humanas y la
diferencia de la definición de cultura de Richerson y Boyd, que aplica a muchas sociedades
no humanas.
Predecesores humanos

Para detectar la emergencia de los humanos —esos primeros destellos de


consciencia reflexiva que dejan evidencia los signos de las facultades secundarias que
transforma o genera— necesitamos saber a partir de qué emergieron esos humanos.
La tabla 20.1 muestra el punto de vista mayoritario, aunque en absoluto unánime, de
la taxonomía de la especie humana: el Homo sapiens es la única especie superviviente del
género de los humanos, Homo, dentro de una tribu de homininos que forma parte de la
familia homínidos dentro de la superfamilia de los hominoides, que es una rama del orden
de los primates. La mayoría de investigadores considera que estas clasificaciones reflejan el
linaje en un árbol evolutivo ramificado desde un género de primate parecido al mono, como
el Proconsul sin cola, que existió hace entre 25 y posiblemente 5 millones de años en la
zona oriental de África y se asigna tentativamente a la superfamilia Hominoidea. La figura
26.1 describe las ramas de este árbol evolutivo, con ejemplos de especies actuales.
Incorpora la subfamilia adicional Homininae, que incluye la tribu de los homininos, las dos
especies de chimpancés y los gorilas, pero excluye a los orangutanes.
Sin embargo, trazar el linaje hasta el humano moderno (especie Homo sapiens) es
tremendamente problemático; la escasez de evidencias complica la situación y da lugar a
interpretaciones encontradas y a desacuerdos sobre las clasificaciones taxonómicas y las
relaciones ancestrales, tal y como refleja la figura 26.2.

Las evidencias y sus problemas

Aproximadamente una vez al año, la prensa popular, y a menudo también las


revistas científicas, anuncian el descubrimiento de un nuevo fósil, o la nueva datación de un
fósil existente con la utilización de las últimas técnicas, lo que reescribe la historia de la
aparición del hombre. En los artículos académicos, más que en las ruedas de prensa, sin
embargo, los científicos suelen mostrarse más cautelosos. Y es comprensible.
Tal y como lo expresó el arqueólogo e historiador Robin Derricourt, de la
Universidad de Nueva Gales del Sur, Australia:
Tanto la paleoantropología como la arqueología de los primeros humanos operan en
un marco de trabajo en el que la ciencia no es experimental, los datos son escasos y las
hipótesis no son refutables ni replicables fácilmente. Hay pocas ciencias, aparte de estas,
donde una pieza aislada de evidencia sea capaz de sustentar o de cambiar un modelo
interpretativo a gran escala sin que este sea susceptible de ser verificado.
En este contexto, la personalidad juega un papel importante: el pensador
conservador o innovador, el dogmático o el escéptico, el aficionado a la división
taxonómica o a su agrupamiento.[8]
Lo cual proporciona un terreno fértil para la ley de la interpretación de los datos y
casos solo excepcionales, aunque importantes, de fraude.[9]
Para deducir las relaciones evolutivas y la conducta de las especies que precedieron
al humano moderno, se utilizan cinco tipos de evidencias: fósiles, otros restos, dataciones
relativas y «absolutas» (radiométricas), genética y especies actuales. Cada una de ellas
presenta sus propias limitaciones.
Fósiles
El principal problema que presentan es su tremenda escasez. En el periodo
comprendido entre 2,5 y 1 millón de años antes de nuestra época, solo se han conseguido
clasificar unos 50 individuos como especie Homo, y muchos de ellos constan solo de uno o
dos dientes o un fragmento de hueso.
No se han descubierto esqueletos completos de tiempos prehistóricos. Incluso el
famoso esqueleto Lucy, datado hace 3,2 millones de años, consiste en fragmentos que
encajados dan como resultado 47 huesos que son poca cosa en comparación con el total de
206 huesos que forman el esqueleto de un humano adulto. Los fósiles más comunes son
fragmentos de dientes, mandíbulas inferiores y huesos faciales y craneales, seguidos por
fragmentos de fémures, mientras que los restos de pies, manos, pelvis y columna son
extremadamente raros.
Resulta fácil dejarse seducir por las sofisticadas imágenes en 3-d generadas por
ordenador que representan un cráneo, pero su nivel de precisión depende de supuestos
sobre cómo reconstruir los fragmentos descubiertos y dónde irían colocados en uno o más
cráneos y, luego, de un programa de ordenador que genera un cráneo completo a partir de
los datos introducidos.
Suelen utilizarse estimaciones de la capacidad craneal para asignar un fósil a una
especie en particular. La tabla 26.1 muestra estos tamaños cerebrales para distintos
homininos; muestra asimismo la escasez de ejemplares en que se basan dichos supuestos.

Aun en el caso de que las capacidades craneales estimadas de las muestras fueran
correctas y el tamaño de la muestra mucho mayor, vimos en el capítulo 24 que ni el tamaño
del cerebro ni la relación entre tamaño del cerebro y peso corporal son criterios fiables de
capacidad cognitiva y, por lo tanto, de nivel de consciencia.[10]
En cuanto a los esqueletos, en términos generales los adultos son más grandes que
los jóvenes y la mayoría de homínidos varones son más grandes que las hembras, pero el
grado de dimorfismo por género varía entre especies, lo que complica la interpretación de
algunos fragmentos, a menudo dispersos. Durante muchos años, el Ramapithecus, un
género que se creía vivió hace entre 15 y 5 millones de años, se consideró antepasado del
Australopithecus y, por lo tanto, del humano moderno. Esta postura se basaba en la
mandíbula reconstruida y los fragmentos de dentición descubiertos en lugares tan apartados
entre sí como Fort Ternan, en Kenia, y las montañas Siwalik, en India. La genética
molecular y fósiles descubiertos posteriormente llevaron a la hipótesis de que eran, de
hecho, hembras de un género previamente descrito, el Sivapithecus, que al reconstruirse
pasó a considerarse como un antepasado del orangután.[11]
A partir del registro fósil, resulta imposible determinar si un ejemplar es un híbrido.
Como hemos visto, cuando la hibridación entre mamíferos relacionados produce
descendencia fértil el asunto se complica (véase páginas 453 y 489); y esto sucede también
entre el chimpancé y el bonobo y entre muchas más especies de mono. La hibridación con
éxito puede producir cambios fisiológicos importantes en los descendientes.
La escasez del registro fósil hace además especialmente difícil deducir conductas
con un buen grado de fiabilidad.
Otros restos
Los ejemplares encontrados junto con homininos o a menudo aislados, se utilizan
para deducir la conducta —y, por lo tanto, el nivel de consciencia— de los homininos.
Los más comunes son utensilios, y en particular utensilios de piedra porque son los
que mejor se conservan, lo que dio lugar al término «Edad de Piedra». Y ahí aparece una
limitación: no sabemos si los primeros homininos utilizaron utensilios perecederos y otras
herramientas, por ejemplo, lanzas y flechas de madera o dardos venenosos, o refugios
construidos con bambú y pieles.
Cuando los utensilios son los únicos restos descubiertos en una capa geológica,
interpretar su función, su nivel de sofisticación y su similitud con los utensilios de piedra
asociados a los escasos ejemplares fósiles descubiertos en otra parte de un continente, o
incluso en otro continente, y deducir a partir de ahi qué especie los fabricó es, en el mejor
de los casos, todo un arte, más que una ciencia.
Los restos de carbón vegetal pueden ser de una hoguera, lo que demostraría el uso
controlado del fuego para proporcionar calor, protegerse contra los depredadores o preparar
comida, pero también podría tratarse del tronco de un árbol calcinado por un incendio
forestal. Entre otros restos destacan los fósiles de animales, como fragmentos de huesos de
león o de lobo. Tanto estos como los demás fósiles de homininos suelen presentarse
esparcidos por todo el yacimiento y, con frecuencia, no queda en absoluto claro si el
hominino mató o devoró al animal o viceversa, o uno arrastró parte del cadáver del otro
desde otro lugar, todo lo cual afecta a la datación.
Datación
La datación relativa asume que los ejemplares encontrados en las capas geológicas
inferiores son más antiguos que los encontrados en las capas superiores. Pero las erosiones,
los corrimientos de tierra, los terremotos y otros fenómenos geológicos pueden confundir la
cronología de las capas. En casos excepcionales, las cenizas de una erupción volcánica
pueden diseminarse y puede afirmarse con confianza que los ejemplares encontrados en una
capa de este estilo corresponden a la misma época pero, aun siendo así, ese hecho no sirve
para proporcionar la datación.
La datación por radiocarbono introducida en los años 50 fue prometedora en este
sentido.[12] Sin embargo, posteriormente se reconoció que las dataciones anteriores a
30.000 años son poco fiables debido a que la cantidad de carbono-14 que queda en una
muestra transcurrido ese tiempo es demasiado pequeña como para poder realizar
mediciones precisas y la contaminación puede, además, distorsionar los resultados.
Descubrimientos posteriores sobre las fluctuaciones de los rayos cósmicos y los cambios en
la circulación atmosférica de la Tierra socavaron el supuesto de que el porcentaje de
carbono-14 en la atmósfera ha sido siempre constante.
Se han desarrollado otras técnicas radiométricas, resumidas en la tabla 26.2, para
extender el rango de datación y ofrecer más verificaciones. Todas, sin embargo, presentan
sus propias limitaciones y problemas, que resume con precisión Chris Stringer.

Las técnicas se refinan y mejoran continuamente, lo que ha provocado nuevas


dataciones de ejemplares descubiertos hace muchos años, a veces con resultados
sorprendentes. Por ejemplo, un fragmento de cráneo humano descubierto en 1932 en
Florisbad, Sudáfrica, había sido datado en 40.000 años de antigüedad mediante el análisis
por radiocarbono de la turba de la ciénaga donde había sido encontrado. En 1996, la
datación por resonancia de espín electrónico del esmalte de un molar superior situó su edad
en 260.000 años.[13]
Genética
El análisis genético fue acogido como una técnica capaz de aportar un enfoque más
científico y preciso al camino de la aparición del hombre. Después de que se descubriera
que el ADN mitocondrial de la madre, aunque no el del padre, se clonaba en la mitocondria
de la célula fertilizada a partir de la cual se desarrollaba un hijo, Rebecca Can, Mark
Stoneking y Allan Wilson, del departamento de Bioquímica de la Universidad de
California, Berkeley, concibieron un medio para realizar el seguimiento retrospectivo del
linaje matrilineal a partir de los cambios en el ADN mitocondrial (ADNmt) a lo largo del
tiempo. En un fundamental artículo publicado en Nature en 1987, explicaron cómo habían
analizado el ADNmt de 147 mujeres de cinco regiones geográficas distintas, habían
introducido los resultados en un programa informático que habían creado y habían llegado
a la conclusión de que «Todos los ADN mitocondriales provienen de una mujer que
suponemos que vivió hace 200.000 años, probablemente en África».[14]
Tanto la prensa científica como popular elogiaron el logro como la identificación
del antepasado de todos los humanos modernos, la llamada «Eva mitocondrial». El
resultado proporcionó robustas bases a la hipótesis de los orígenes africanos recientes
(véase más abajo). Sin embargo, el trabajo acabó recibiendo todo tipo de críticas. Se dijo,
por ejemplo, que el programa informático podía producir muchos miles de árboles
genealógicos y no todos tenían sus raíces en África, que la calibración del tiempo era
cuestionable y que las muestras eran discutibles (muchas muestras supuestamente de
mujeres africanas eran, de hecho, de mujeres afroamericanas).[15]
Posteriormente se llevaron a cabo otros estudios similares sobre los cambios en el
cromosoma Y que solo poseen los varones. Los distintos análisis que remontan el linaje
patrilineal hasta el Adán originario del cromosoma Y lo sitúan entre hace 142.000 millones
de años[16] o en un momento tan reciente como hace entre 100.000 y 60.000 millones de
años en África.[17] Nunca se ha llegado a explicar cómo los miembros de una pequeña
población de Adanes cromosoma-Y consiguieron fecundar a los miembros de una pequeña
población de Evas mitocondriales que eran 58.000 o incluso 140.000 años mayores que
ellos. Estas discrepancias refuerzan la escasa fiabilidad de los análisis genéticos, y de la
técnica del reloj molecular en particular, para llegar a los orígenes de la evolución
biológica, tal y como se comentó en el capítulo 20 (véase página 525).
Especies actuales
Los paleoantropólogos invocan a menudo dos tipos de especies actuales para
deducir la conducta de nuestros antepasados prehistóricos: el chimpancé, basándose en que
es la especie genéticamente más próxima al humano moderno, y el humano cazador-
recolector.
Muchos investigadores asocian la conducta agresiva del chimpancé macho adulto a
sus caninos largos, afilados y sobresalientes, y asumen que la presencia de una dentadura
similar en los homininos implica una conducta parecida. Sin embargo, como ya se ha
comentado, el supuesto de que la dentadura del chimpancé ha permanecido sin cambios
durante un periodo de tiempo que oscila entre 5 y 7 millones de años, mientras que la
dentadura humana ha evolucionado durante este tiempo, es altamente cuestionable.
El problema que conlleva deducir la conducta de los homininos a partir de sus
similitudes esqueléticas con el chimpancé actual queda perfectamente ilustrada por el
bonobo. Mientras que el chimpancé común, Pan troglodytes, vive en las selvas del África
ecuatorial, el bonobo, Pan paniscus, se encuentra solo en las selvas tropicales del sur del río
Congo, en la República Democrática del Congo. A pesar de que al bonobo se lo conoce a
menudo como chimpancé pigmeo, hay un solapamiento considerable entre individuos de
ambas especies, que además son genéticamente muy similares. Si se desenterrase un
esqueleto completo, sería complicado discernir si es de chimpancé o de bonobo, e
imposible si dispusiéramos únicamente de fragmentos de osamenta fósil. Su conducta, sin
embargo, presenta importantes diferencias.
El chimpancé come principalmente fruta y hojas, pero de vez en cuando caza
también mamíferos y monos pequeños. Vive en comunidades de entre 15 y 100 miembros,
pero suele buscar comida y cazar en bandas de tamaño flexible que oscilan entre 6 y 10
individuos. Un macho alfa domina cada comunidad y los demás machos adultos forman
una jerarquía lineal en la que el dominio se conserva, o se pierde, por demostraciones de
agresión o por agresión real; todos los machos adultos dominan a las hembras, que forman
su propia jerarquía social, más compleja. Los chimpancés machos suelen patrullar sus
límites territoriales y realizar ataques violentos, y con frecuencia letales, sobre miembros de
las comunidades vecinas.[18]
El bonobo, por otro lado, es mucho menos agresivo. Complementa también su dieta
con algún que otro mamífero, pero no caza monos, sino que juega con ellos y los asea. A
diferencia del chimpancé, no se ha observado al bonobo practicando infanticidio o
canibalismo. Sus comunidades son mucho más igualitarias, las hembras suelen asumir el
liderazgo y practican todo tipo de actividad sexual: heterosexual, homosexual, oral y anal.
Utilizan el sexo para liberar las tensiones en el seno de la comunidad y tienen menos
conflictos con las comunidades vecinas de bonoboes.[19]
A falta de evidencias conductuales directas de los predecesores de los humanos,
podría parecer razonable deducir su conducta a partir de los cazadores-recolectores
actuales, como los pigmeos aka y bofi de la cuenca del Congo o los pila nguru del gran
desierto Victoria, en el oeste de Australia. Pero al recurrir a este tipo de evidencias hay que
formularse dos preguntas. En primer lugar, ¿hasta qué punto ha evolucionado su conducta
con relación a antepasados que vivieron hace entre 15.000 y 10.000 años? En segundo
lugar, ¿hasta qué punto son representativos de sus ancestros cazadores-recolectores de
aquel periodo? El hombre exhibe un rango de competencias en distintas habilidades que
suele representarse como una campana de Gauss. Por ejemplo, en capacidad intelectual,
encontramos a Einstein y unos pocos más en un extremo, a la mayoría de nosotros
agrupados alrededor de una mediana, y luego un pequeño número con una capacidad
intelectual baja. Como veremos en el próximo capítulo, podemos asumir con confianza que
la mayoría de los cazadores-recolectores humanos arcaicos inventaron la agricultura, o
adoptaron su invención, como la forma más efectiva de sustento. Los cazadores-
recolectores actuales suponen aproximadamente un 2 por ciento de toda la población
humana. ¿Son los descendientes de los humanos arcaicos que carecían de capacidad para
inventar, o adoptar, esta forma más eficiente de obtener sustento, o carecieron de la visión
necesaria para migrar a otras regiones done pudieran hacerlo?
Teniendo siempre presentes estas reservas con respecto a las evidencias, intentaré
resumir lo que sabemos sobre los antepasados homínidos ilustrados en la figura 26.2.
Tribus de homininos

El paleontólogo Michel Brunet afirma que el fósil de hominino más antiguo es un


cráneo agrietado y deformado, tres fragmentos de mandíbula y varios dientes sueltos que
descubrió en 2001 en un desierto de Chad, a 2.600 kilómetros al oeste del gran valle del
Rift, en África oriental. Lo clasificó como una nueva especie, Sahelanthropus tchadensis y,
entre gran controversia, sugirió que se trataba de una criatura bípeda. La datación indirecta
situó su edad en 7 millones de años, lo cual significa que sería más antigua que la datación
genética generalmente aceptada de entre 6,3 y 5,4 millones de años del último antepasado
común de humanos y chimpancés del que supuestamente descendia.[20] Véanse, sin
embargo, la página 525 para una crítica de la técnica de la datación molecular y la página
528 para el amplio rango de fechas en las que situar la separación entre humano y
chimpancé al que han llegado distintos investigadores utilizando esta técnica.
Otro candidato a hominino bípedo es el Orrorin tugenensis, datado hace
aproximadamente 6 millones de años y clasificado en base a tres fragmentos de fémur,
parte de un húmero, parte de una mandíbula y varios dientes y huesos de dedos de pies y
manos hallados en 2000 en cuatro yacimientos de las montañas Tugen, en Kenia.[21]
En 2009, un gran equipo internacional liderado por Tim White, de la Universidad de
California, Berkeley, anunció un descubrimiento más sustancioso en la región de la
depresión de Afar, al nordeste de Etiopia. Quince años de reconstrucción de fragmentos de
hueso y un cráneo aplastado hasta quedar con un grosor de 4 centímetros, encontrados en
sedimentos datados hace 4,4 millones de años, habían dado como resultado 110 ejemplares,
incluyendo el esqueleto parcial de una hembra y partes de otros 35 individuos.
Clasificado como una nueva especie, el Ardipithecus ramidus vivió en lo que por
aquel entonces era un terreno mixto de bosques y selva. La hembra era pequeña —unos 120
centímetros de altura y aproximadamente 50 kilos de peso— y el tamaño estimado del
cerebro era similar al de un chimpancé. Según uno de los miembros del equipo, C. Owen
Lovejoy, de la Ken State University, Ohio, a diferencia del chimpancé, cuyas piernas cortas
y brazos largos están estructurados para balancearse entre las ramas y un desplazamiento
cuadrúpedo en el suelo, apoyándose en los nudillos, el A. ramidus se movía entre las ramas
sirviéndose de manos y pies y caminaba erecto en el suelo, aunque no con tanta eficiencia
como homininos posteriores. A partir de su esqueleto y su dentadura, el equipo llegó a la
conclusión de que el A. ramidus demuestra que el antepasado común de humanos y
chimpancés no se parecía al chimpancé, y que las facciones de este último evolucionaron
por un camino distinto del de los humanos.[22] David Pilbream, de la Universidad de
Harvard, es uno de los varios paleoantropólogos que se mantiene escéptico ante tal
conclusión.
El equipo descubrió más fósiles en la misma área, que dataron hace
aproximadamente 5,5 millones de años y dictaminaron que representaban una especie
anterior del mismo género, que clasificaron como Ardipithecus kadabba.
No está claro cómo se relacionan los Ardiphitecus con el género posterior
Australophitecus, del que el Australophitecus afarenssis (Lucy) es la especie más conocida.
Los australopitecos se caracterizan por una postura completamente erguida y locomoción
bípeda, a pesar de que el grado en el cual las distintas especies podían caminar
cómodamente erguidas es un tema controvertido. Su cavidad craneal es similar en forma y
tamaño a la del chimpancé, aunque proporcionalmente mayor si tenemos en cuenta el
tamaño del cuerpo. Según la tendencia taxonómica a dividir o agrupar de cada especialista,
existen entre cinco y ocho especies de Australophitecus; la mayoría de paleoantropólogos
ha reasignado en la actualidad dos especies robustas, A. robustus (sur de África) y A. bosei
(este de África), a un género distinto, el Paranthropus, tal y como indica la figura 26.2.
Distintos paleontólogos afirman que una o más especies de Australophitecus
evolucionaron hace alrededor de 2 millones de años para dar lugar a la primera especie del
género Homo. El candidato en 2011 era el Australophitecus sediba. Basándose en dos
esqueletos bien conservados y medio completos que habían descubierto en la cueva
Malapa, Sudafrica, Lee Berger, de la Universidad de Witwatersrand, y sus colegas,
declararon que, pese a que el A. sediba tenía los brazos largos y una cavidad craneal
pequeña como anteriores australopitecos, sus dientes pequeños, molde endocraneal que
insinúa la existencia de un lóbulo frontal grande, su nariz sobresaliente, la forma de la
pelvis, las articulaciones de los tobillos, el pulgar y el meñique grandes y las piernas largas,
es mucho más humano. En consecuencia, defienden que el A. sediba es el antepasado más
probable del Homo, posiblemente del Homo erectus. Análisis isotópicos con uranio de la
calcita depositada por el agua en el suelo de la cueva dieron una datación de 1.977 millones
de años. De ahí que el equipo de Berger afirme que el descubrimiento invalida la
clasificación como humana de cualquier especie anterior.[23]
Fred Spoor, del University College de Londres y del Max Planck Institute for
Evolutionary Anthropology de Leipzig, es uno de los varios paleoantropólogos que desafía
esta aseveración, argumentando, entre otras cosas, que los análisis morfológicos y las
comparaciones realizadas por Berger y sus colegas son insuficientes para sustentar sus
hipótesis, que una mandíbula superior de un A. afarensis de Hadar, Etiopia, es mucho más
humana que la del A. sediba, que lo precedería unos 370.000 años, y que un máximo de
80.000 años es insuficiente para el cambio evolutivo de A, sediba a la especie Homo.[24]
El género Homo

Las relaciones ancestrales no están claras cuando consideramos el género Homo. Se


cree que la primera especie fue el Homo habilis, fósiles del cual se estiman con una
antigüedad de entre 1,9 y 1,5 millones de años y se localizan en Kenia y Tanzania, estando
algunos de ellos acompañados por utensilios de piedra extremadamente primitivos,
conocidos como utensilios de tradición olduvayense (ver más adelante); se dice que
utensilios similares tienen una antigüedad de 2,6 millones de años. Un cráneo re-
reconstruido con una nueva datación que lo sitúa hace 1,9 millones de años se considera
bien una variante de H. habilis, bien una especie distinta, H. rudolfensis. El descubrimiento
conocido en 2012 de un hueso facial y dos huesos de mandíbula con dientes datados entre
1,78 y 1,95 millones de años atrás, llevó a la sugerencia de que el H. rudolfensis era, de
hecho, una especie distinta.[25]
Para los que los dividen en distintas especies, cualquiera o ninguno de los Homo
habilis, Homo rudolfensis u Homo ergaster, podría haber sido el antepasado del Homo
erectus, y cualquiera o ninguno de ellos podía haber sido el antepasado del Homo
heidelbergensis, el Homo neanderthalensis y el Homo sapiens, mientras que el H.
heidelbergensis podría o no haber sido el antepasado del H. neanderthalensis o el H.
sapiens, o de ambos.
Neandertales
Anatómicamente, los neandertales se distinguen de los humanos por ser más bajos
pero más robustos. La capacidad craneal del neandertal adulto, con 1.400 centímetros
cúbicos de media, es superior a la del actual Homo sapiens, pero la relación entre cerebro y
tamaño corporal es ligeramente inferior; las principales diferencias en la estructura craneal
se muestran en la tabla 26.3.

La frente retraída ha sido interpretada como una indicación de que los neandertales
tenían un cerebro anterior, la región donde se procesan las funciones cognitivas superiores,
menos desarrollado que los humanos.
Mientras que los análisis del ADN mitocondrial han datado hace 500.000 años la
división entre el linaje neandertal y el del humano moderno, los análisis de su ADN nuclear
sugieren que dicha división se produjo hace entre 440.000 y 270.000 años.[26]
Los restos atribuidos al Homo neanderthalensis se han encontrado en lugares
repartidos por toda Europa, Asia occidental, y tan al este como en Uzbekistán, en Asia
central, y tan al sur como Oriente Próximo. Su datación les da una antigüedad de entre
400.000 y 30.000 años, lo que significa que los neandertales se solaparon con el Homo
sapiens durante al menos 10.000 años. Algunos se solaparon también geográficamente, tal
y como sugiere el primer borrador del genoma neandertal antes mencionado. El análisis del
ADN nuclear extraído de tres huesos de tres individuos encontrados en la cueva de Vindija,
Croacia, indica que los humanos tienen entre un 1 y un 4 por ciento de genes del
neandertal, lo que da a entender que hubo cruzamiento.[27]
Entre los utensilios de piedra asociados con los yacimientos neandertales
encontramos raspadores, hachas de mano triangulares bifaciales, puntas triangulares con
una talla en láminas que sugiere que formaban parte de lanzas, probablemente más para
clavar que arrojadizas, y punzones, o utensilios puntiagudos utilizados para hacer agujeros,
aunque ningún utensilio de hueso, como agujas.[28]
En 2010, Joao Zilhao, de la Universidad de Bristol, y sus colegas, anunciaron que
en dos yacimientos neandertales de la provincia de Murcia, en el sudeste de España, habían
encontrado conchas marinas perforadas y manchadas con pigmentos que supuestamente
habrían sido ornamentos corporales. En cualquier otro yacimiento, el hallazgo habría sido
considerado como señal de un nivel elevado de consciencia, incluso de consciencia
reflexiva, y se habría asumido que eran artefactos humanos. Pero Zilhai dice que las
conchas tienen «aproximadamente 50.000 años de antigüedad». Constituyen «una
evidencia segura de que […] diez milenios antes de que se haya registrado la presencia del
humano moderno en Europa, la conducta de los neandertales ya estaba organizada
simbólicamente». De hecho, la información complementaria de su artículo deja constancia
de la datación por radiocarbono de cinco conchas con fechas que van desde 30.150 ± 360
hasta 45.150 ± 650 años en uno de los yacimientos, y de cuatro ejemplares de carbón de
leña de otro yacimiento que van desde 98 ± 23 hasta 39.650 ± 550 años.[29] Lo cual
contradice los supuestos 50.000 años de antigüedad.
La mayoría de paleoantropólogos señalan la ausencia de evidencias sólidas de
símbolos, arte y otros indicios de consciencia reflexiva en los yacimientos neandertales en
comparación con su extensa presencia en yacimientos humanos y llegan a la conclusión de
que los neandertales eran cognitivamente inferiores a los primeros humanos.
A falta de evidencias fiables, la extinción de los neandertales hace aproximadamente
30.000 años es más una cuestión de especulación que una hipótesis. Los paleoantropólogos
sugieren distintos factores para su extinción: que, a diferencia de los humanos, no
consiguieron adaptarse a los rápidos cambios climáticos de la época; que se reprodujeron
con humanos y acabaron siendo asimilados por ellos; que contrajeron enfermedades
humanas a las que no eran inmunes; que los humanos los mataron a todos.
Hobbits
En 1994, un equipo conjunto australiano-indonesio reconstruyó los huesos
fosilizados descubiertos en una cueva de la isla indonesia de Flores y obtuvo el esqueleto
parcial de un adulto de un metro de altura, con brazos largos, frente retraída y sin barbilla.
Le estimaron una capacidad craneal de 380 centímetros cúbicos, aproximadamente la
misma que la del australopiteco más pequeño que se conoce e inferior a la del chimpancé;
pero el yacimiento estaba asociado con utensilios de piedra e indicios de una hoguera, junto
con los restos de un stegodón, un elefante enano, que aparentemente había sido cazado.
El equipo de investigadores llegó a la conclusión de que la criatura descendía del
Homo erectus, que se cree que llegó a la región hace aproximadamente un millón de años.
En aquella isla aislada, sin competencia y con alimento limitado, aquellos homininos se
habían empequeñecido, igual que el stegodón. (De hecho, en Flores se han encontrado
también restos de ratas enormes, lagartos gigantescos y tortugas descomunales, y no está
claro por qué algunas especies empequeñecieron mientras otras se hicieron
excepcionalmente grandes.) Clasificaron el hallazgo como una nueva especie humana, el
Homo floresiensis, apodado «Hobbit», un hecho que generó gran publicidad a nivel
mundial y controversia en el campo de la paleontología.[30] Posteriormente fueron
localizados más restos que corresponden a entre seis y nueve individuos, según como se
reconstruyan, y tienen una antigüedad de entre 17.000 y 95.000 años.
En 2009, Peter Brown, miembro del equipo de la Universidad de Nueva Inglaterra
que había designado de entrada la criatura como Homo floresiensus, cuestionó la
clasificación. Declaró que investigaciones posteriores habían demostrado que el Homo
erectus asiático no era el antepasado de los Hobbits, cuyas características tenían más en
común con los australopitecos que con los fósiles de 1,75 millones de años de antigüedad
de Dmanisi, Georgia, que se consideran representantes de la primera especie Homo fuera de
África.[31]
Denisovanos
En 2010, un equipo internacional liderado por Svante Paabo, del Max Planck
Institute for Evolutionary Anthropology, anunció que habían identificado una nueva
población de homininos en base no a evidencias fósiles, sino tan solo a evidencias
genéticas. Habían extraído ADN del hueso de un dedo desenterrado en la cueva Denisova,
en el sur de Siberia, donde los restos de utensilios de piedra indicaban que el lugar había
estado ocupado por ejemplares de Homo desde hacía 280.000 años. El hueso se había
localizado en una capa de entre 50.000 y 30.000 años de antigüedad que había producido
previamente lascas microscópicas de piedra y piedras pulidas típicas del Paleolítico
superior, así como utensilios más toscos más típicos del Paleolítico medio, lo que había
llevado a especular que la cueva había estado ocupada en uno u otro momento tanto por
neandertales como por humanos modernos.
Los análisis del ADN mitocondrial (ADNmt) indicaron que aquel individuo
pertenecía a un grupo clasificado como denisovano que se había separado hacía un millón
de años del linaje común que lleva al humano moderno y al neandertal, es decir, el doble de
tiempo antes de que se produjera la divergencia entre el neandertal y el humano moderno y,
en consecuencia, se trataba de una especie anterior. Se demostraba asimismo que el genoma
denisovano difería del genoma humano moderno el doble de lo que difería del genoma
neandertal.
Sin embargo, análisis posteriores del ADN nuclear basados en varios supuestos,
incluyendo entre ellos la fecha de la divergencia entre el humano y el chimpancé, indicaron
que el individuo compartía un origen común con los neandertales hace aproximadamente
640.000 años, y que el genoma denisovano difería del genoma humano moderno en la
misma proporción en que difería del genoma neandertal. El equipo de Paabo utilizo el
análisis del ADNmt de un diente que no se parecía ni a un molar humano ni neandertal para
sugerir que los denisovanos tenían una historia poblacional diferente. En particular, los
denisovanos no habían realizado ninguna contribución genética al humano euroasiático,
como sí habían hecho los neandertales, pero entre el 4 y el 6 por ciento de su genoma sí
había contribuido al de los melanesios actuales, aunque no al de otras poblaciones asiáticas
más próximas a Denisova, como los chinos han o los mongoles.
El equipo se contuvo de asignar a los denisovanos o los neandertales a una
clasificación taxonómica específica. E interpretó los resultados genéticos del dedo y el
diente hallados en Denisova como la existencia de al menos dos formas de homininos
arcaicos en Eurasia a finales del Pleistoceno (hace entre 125.000 y 10.000 años): los
neandertales, que estaban ampliamente extendidos por la zona occidental de Eurasia y los
denisovanos, que estaban ampliamente extendidos por la zona oriental de Asia; cada uno de
ellos tuvo un cruzamiento limitado, aunque independiente, con el Homo sapiens.[32]
Primeros indicios de Homo sapiens

Tim White, de la Universidad de California, Berkeley, y sus colegas, declararon en


2003 que los fósiles más antiguos similares al humano moderno son tres cráneos
descubiertos en Herto Bouri, Etiopia, en la región del triángulo de Afar, datados mediante
radioisótopos con una antigüedad de entre 160.000 y 154.000 años. No llegaron a clasificar
los ejemplares como humanos modernos totalmente desarrollados, sino que lo hicieron
como una subespecie, Homo sapiens idaltus, que, bajo su punto de vista, representa
probablemente nuestro antepasado más inmediato.[33]
En 2008, John Fleagle, de la Stonybrook University, Nueva York, revisó la datación
de dos ejemplares descubiertos por Richard Leakey en 1967 en Kibish, Etiopia, cerca del
río Omo, pasándola de 130.000 a cerca de 196.000 años de antigüedad. No sin controversia,
anunció que el primero de ellos, Omo 1, un esqueleto conservado parcialmente más
fragmentos de un hueso facial y una mandíbula, era el primer fósil completamente humano.
El segundo, Omo 2, un cráneo sin huesos faciales, era más primitivo.[34]
Independientemente de si esta afirmación es válida o no, habla solo de anatomía y
no de la característica exclusiva de la consciencia reflexiva. Para ello, es necesario
encontrar evidencias de las facultades secundarias que transforma o genera.
Utensilios

Anteriormente he sugerido que la comprensión combinada con la inventiva, la


previsión y la imaginación dan lugar a herramientas especializadas y compuestas. Los
arqueólogos clasifican los utensilios de piedra por tradición, o industria, según el
yacimiento donde se estudió por vez primera un conjunto de esos utensilios, pese a que
también se utilizan otras clasificaciones, como las regionales o los Modos I - V. La
clasificación de los utensilios no solo ha cambiado y continúa cambiando, sino que también
han cambiado los periodos culturales caracterizados por los distintos tipos de utensilios.
Inicialmente, la Edad de Piedra europea estaba dividida en dos, el Paleolítico, o Vieja Edad
de Piedra, y el Neolítico, o Nueva Eda de Piedra. Luego, el Paleolítico se dividió en tres
fases principales —Inferior, Medio y Superior— y posteriormente se insertó el Mesolítico
entre el Paleolítico superior y el Neolítico.
El Paleolítico inferior (llamado Primera Edad de Piedra en el África subsahariana)
empieza con los primeros utensilios de piedra reconocibles, conocidos como olduvayenses
por el yacimiento de la garganta de Olduvai, Tanzania, consistentes en lascas de piedras
talladas. Las lascas se supone que se utilizaban para raspar y las piedras talladas para
golpear. Muy probablemente, los homininos habían utilizado previamente piedras no
talladas para golpear, tal y como se observa en algunos chimpancés, pero esas piedras
serían muy difíciles de distinguir de cualquier otra. Los primeros utensilios olduvayenses
encontrados hasta la fecha son los de Gona, Etiopia, datados hace aproximadamente 2,6
millones de años.[35] El siguiente avance importante, datado hace 1,7 millones de años,
son los utensilios achelenses, cuyo nombre procede del yacimiento de Saint-Acheul, en el
norte de Francia. Aquí las lascas corresponden a piedras talladas por ambos lados, lo que
produce hachas de mano en forma de pera y picos. Se han descubierto utensilios bifaciales
de este tipo en yacimientos de Europa, África, Oriente Próximo, India y Asia con
dataciones que ocupan todo el Paleolítico inferior, que termina hace alrededor de 180.000
años en Europa y hace 150.000 años en África,[36] lo cual representa más del 93 por ciento
del alcance temporal de la arqueología.
Resulta complicado ver evidencias de consciencia reflexiva en utensilios tan
primitivos como los olduvayenses y los achelenses, que se desarrollaron hace casi 2,5
millones de años. Después de eso, el ritmo de mejora, que refleja el nivel de consciencia de
sus productores, aumenta.
No está claro cuándo aparecieron los primeros utensilios compuestos
especializados. Se ha dicho que los fragmentos de piedra y las puntas encontrados en los
ríos Gemelos de Zambia fueron concebidos para ser montados en mangos de madera y
datan de hace 260.000 años.[37] Kyle Brown, estudiante de doctorado de la Universidad de
Ciudad del Cabo, afirmó en 2009 que los utensilios de silcreta (una costra silícea dura
semejante al cemento) solo podían haberse fabricado calentando primero la silcreta para
mejorar facilitar la extracción de las lascas y darle un brillo. Los utensilios de silcreta se
localizan en muchos yacimientos desde hace aproximadamente 72.000 años y aparecen en
una fecha tan temprana como hace 164.000 años en Pinnacle Point, en la costa sur de
Sudafrica.[38] Si la silcreta se hubiera calentado durante varias horas antes de su lascado,
indicaría un elevado nivel de cognición e inventiva.
El Paleolítico medio y la transición hacia el Paleolítico superior se caracterizan por
utensilios de piedra de refinamiento cada vez mayor. Entre ellos destacan finos pedernales
bifaciales tallados, que se supone que eran cuchillos primitivos, junto con lascas
triangulares afiladas de distintos tamaños que se supone que formaban la cabeza de flechas
y lanzas: utensilios compuestos empleados para matar a distancia. En los yacimientos
europeos del Paleolítico superior se han encontrado asimismo utensilios como arpones con
púas y punzones muy afilados junto con agujas hechas con dientes de mamut o de reno, lo
que sugiere la utilización de pieles de animales cosidas entre sí con filamentos de tripa, tal
vez, así como prendas para vestir y/o tiendas. El Paleolítico superior termina en Europa
hace aproximadamente 10.000 años, con la llegada del Mesolítico, que se caracteriza por
pequeños utensilios compuestos, conocidos como microlitos, antes de la aparición de los
utensilios característicos de las sociedades agrícolas y metalúrgicas.
En África subsahariana, el equivalente aproximado al Paleolítico superior y el
Mesolítico se clasifica como Edad de Piedra tardía, la duración de la cual varía
considerablemente según la región. La fabricación de utensilios persiste actualmente en las
comunidades de cazadores-recolectores de algunas zonas, igual que en algunas selvas de
Sudamérica.
Uso controlado del fuego

Es difícil establecer cuándo se inició el uso controlado del fuego y la fecha oscila
entre hace 0,2 y 1,7 millones de años. Las evidencias de creatividad y métodos de
invención para generar y utilizar el fuego para calentarse, cocinar y protegerse de los
depredadores se encontraron en Sudáfrica en forma de huesos calcinados con una datación
que se sitúa entre 200.000 y 700.000 años antes de nuestros días.[39]
Símbolos y ornamentos

Las primeras evidencias de utilización de símbolos y de la capacidad para la


expresión artística aparecen en África. Distintos niveles de la cueva de Blombos, en la costa
sur de Ciudad del Cabo, Sudáfrica, con una antigüedad de entre 100.000 y 75.000 años,
ofrecen no solo nuevas formas de puntas de piedra cuidadosamente talladas y utensilios de
hueso, sino también piezas de ocre grabadas con dibujos abstractos y conchas perforadas,
algunas de las cuales aparecen manchadas con ocre.[40]
Este tipo de conchas, que se asume que se utilizaban a modo de ornamentos como
collares, se ha encontrado también en Qafzeh y Skhul (Israel), Qued Djebbana (Argelia) y
Taforalt (Marruecos). Su datación es problemática, pero las estimaciones disponibles son
que el yacimiento marroquí tiene entre 85.000 y 80.000 años de antigüedad, mientras que la
capa del yacimiento de Skhul, en Israel, se supone que tiene entre 135.000 y 100.000 años
de antigüedad.[41]
Estos artefactos de mediación simbólica demuestran capacidad de pensamiento,
imaginación, creatividad y abstracción.
¿Comercio?
Tres de los yacimientos marroquíes con conchas perforadas se encuentran a entre 40
y 60 kilómetros de la costa, mientras que el yacimiento argelino está a 190 kilómetros del
mar. Francesco d’Ericco y sus colegas llegaron a la conclusión de que tribus que vivían en
la costa fabricaban y comerciaban con estos ornamentos.[42] La localización de las conchas
perforadas también podría explicarse por la migración de tribus desde la costa hasta lugares
más protegidos o lugares con mejor accesibilidad al alimentos que llevaron consigo dichos
ornamentos. Si su localización fuera resultado del comercio, evidenciaría previsión,
creatividad y voluntad; demostraría asimismo cooperación, diferenciada de la
colectivización, y se deduciría la presencia del lenguaje, por rudimentario que fuese.
Travesías marítimas

Los humanos aparecen en Australia, en la garganta Deaf Adder, en el norte del


continente, hace entre 60.000 y 53.000 años, sino antes.[43] En ninguno de los periodos de
glaciación, el nivel de las aguas bajó lo suficiente como para proporcionar pasarelas entre
Asia y Australia, y se estima que la migración exigió un mínimo de 100 kilómetros de
navegación en aguas abiertas.[44] Una hazaña de este calibre precisa de un elevado nivel de
comprensión, previsión y voluntad para planificar y llevar a buen puerto la travesía
marítima, junto con los correspondientes niveles de creatividad e inventiva necesarios para
diseñar y construir una balsa o una barca idónea. El éxito de una empresa así depende con
casi toda seguridad de la cooperación, lo que queda sustentado por lo que conocemos de la
organización social de las tribus aborígenes posteriores, lo cual también exigiría el uso del
lenguaje.
Enterramientos y cremaciones ceremoniales

Según Chris Stringer, del Museo Británico de Historia Natural, el enterramiento


simbólico más antiguas que se conoce se remonta a hace 115.000 años, en la cueva de
Skhul, Israel, y es el de un hombre moderno que aparece enterrado abrazado a la mandíbula
inferior de un jabalí.[45]
James Bowler y sus colegas de la Universidad de Melbourne defienden que las
nuevas técnicas de datación sitúan la fecha de los enterramientos con restos de ocre más
antiguos del mundo y los primeros datos de cremaciones hace 40.000 ± 2.000 años en el
lago Mundo, en la región oeste de Nueva Gales del Sur.[46]
Algunos rituales sugieren elevados niveles de comprensión, imaginación y, muy
probablemente, creencias.
Pinturas, estatuillas y flautas

En 1994, Jean-Marie Chauvet descubrió, junto con dos colegas, una serie de
imágenes espectaculares en los muros de una cueva situada en el desfiladero del río
Ardeche, en el sur de Francia. Incluyen cuatro cabezas de caballo dibujadas con sombreado
y perspectiva, junto con sofisticadas representaciones de dos rinocerontes con los cuernos
enredados, leones persiguiendo una manada de bisontes, osos y otros animales. En su
mayoría están pintadas con carboncillo o con un pincel o un dedo embadurnados con
pigmento rojo.
En la cueva no se detectó presencia de humanos, pero sí los huesos de más de 190
osos, incluyendo un cráneo colocado encima de una gran roca plana. Los hallazgos
suscitaron la sugerencia de que la cueva tenía un uso más ceremonial que ocupacional, tal
vez para la invocación de los espíritus de los animales con el fin de garantizar el éxito en la
cacería.
Se han realizado más de ochenta dataciones con radiocarbono de las marcas de las
antorchas y las pinturas de las paredes, así como de los huesos de animales y el carbón del
suelo, proporcionando una cronología detallada de lo que ahora se conoce como la cueva de
Chauvet. Las dataciones muestran que las obras de arte se realizaron en dos periodos
distintos, uno hace 30.000 años y el otro hace 35.000 años, lo que las convierte en las
pinturas murales más antiguas que conocemos.[47]
Algunos paleoantropólogos pusieron en duda estas dataciones, en particular por la
sofisticación de las pinturas, y sugirieron que las muestras estaban contaminadas o que el
carbón era de un periodo posterior, pero las técnicas de datación se defendieron con vigor.
[48] Pero es posible que estas pinturas no sean las más antiguas. Un equipo italiano que
trabaja en la cueva de Fumane, cerca de Verona, ha datado fragmentos de piedra con
imágenes de un animal y uno en el que aparece una figura medio humana, medio animal,
con una antigüedad que oscila entre 32.000 y 36.500 años, aunque los fragmentos estaban
separados de la pared de la cueva.[49]
En Francia y en España se han descubierto casi 350 cuevas con arte de tiempos
prehistóricos. Las más famosas son las de Lascaux, en una cueva situada en la ladera de una
montaña de la región de la Dordogne, en el sur de Francia. Este gigantesco complejo
contiene cerca de 600 imágenes en los techos y las paredes, creadas con carbón y diversos
pigmentos minerales; algunas están grabadas en la piedra. La altura a la que Estan situadas
muchas de ellas sugiere el montaje de andamios para su elaboración, lo que implica
cooperación y, muy probablemente, lenguaje.
En común con otro arte cavernícola del oeste de Europa, las pinturas de Lascaux
representan animales salvajes de tamaño grande, como bisontes, caballos, uros y ciervos;
uno de los ejemplares ha sido clasificado como un unicornio, pero podría tratarse también
de un caballo con una lanza clavada en la cabeza. Las paredes de la cueva están además
decoradas con huellas de manos humanas, así como con dibujos abstractos, lo que se
conoce como estrías o acanalado con dedo. Dataciones recientes con radiocarbono ofrecen
un rango de fechas para las distintas imágenes que sitúa las más antiguas entre 18.900 y
18.600 años atrás.[50]
Las imágenes de humanos son muy excepcionales y cuando se encuentran, son de
figuras que combinan el humano con el animal, lo cual evidencia imaginación además de
representación; se trata posiblemente de humanos con tocados de cabezas de león, águila u
otros animales depredadores. En cualquier caso, constituyen evidencia de creencia,
probablemente en espíritus de animales cuya intercesión debían de buscar los chamanes.
Las evidencias de creencias e imaginación se ven reforzadas por el descubrimiento
de fragmentos de colmillos de mamut en la parte posterior de la cueva de Hohlestein-
Stadel, en el sudoeste de Alemania. Estos fragmentos, datados recientemente con
radiocarbono en unos 40.000 años de antigüedad, se han unido para crear la figura
espectacularmente detalla de un hombre de 30 centímetros de altura con la cabeza de un
león. En la cueva de Hohle Fels, a 40 kilómetros al sudoeste de Hohlenstein-Stadel, se
encontró la figurilla de un humano con cabeza de león creada a partir de marfil de mamut
de tamaño mucho más pequeño (2,5 centímetros de altura).
Esta región alemana ha producido muchas más figurillas con una antigüedad de
entre 30.000 y 35.000 años que se han encontrado en capas de cuevas ricas en utensilios de
piedra. Entre ellas destaca una figurilla de marfil de mamut de una mujer sin cabeza ni
piernas con pechos, nalgas y vulva exageradamente grandes. El escultor omitió
deliberadamente la cabeza para surtirla por un pequeño aro de marfil del que debía de
colgar la figurilla. Este tipo de figuritas, de menos de 10 centímetros de altura, se han
encontrado también en otros yacimientos de Europa. Algunas son de animales; muchas
representan mujeres en distintas fases de su vida fértil: jóvenes, embarazadas y dando a luz.
A pesar de que algunas van adornadas con collares de cuentas o cinturones, casi todas van
desnudas a pesar datadas en una Edad del Hielo en la que debía de ser habitual vestirse con
pieles. Muchas de las figuritas exhiben pechos y nalgas grandes, cuando debía de tratarse
de una morfología excepcional (los restos de esqueletos indican cuerpos delgados que
caminan grandes distancias, cargan bultos pesados y sufren con frecuencia desnutrición).
Los detalles se concentran más en el cuerpo desnudo que en las extremidades o la cara, que
a menudo ni siquiera se representan, lo que sugiere que tratarse de símbolos de fertilidad.
Muchas de estas figuras incluyen un orificio, por lo que se piensa que es probable que se
concibieran como talismanes para llevar colgados. En las sociedades actuales de cazadores-
recolectores, los hombres no toman parte del proceso del parto por lo que es posible que las
mujeres fueran las encargadas de tallas estas figuras.[51]
Tres de los yacimientos alemanes de datación similar han producido también los
instrumentos musicales más antiguos. Se han encontrado cuatro flautas fabricadas con
huesos de alas de cisnes y buitres, con orificios en toda su longitud situados a intervalos
regulares; la más completa fue encontrada a 70 centímetros de la figurita de mujer sin
cabeza ni extremidades.
Una demostración de incluso mayor inventiva, imaginación, creatividad y raciocinio
es una flauta fabricada con colmillo de mamut, reconstruida a partir de 31 fragmentos
hallados en la cueva de Geisenklosterlen, cerca de Ulm. En vez de fabricarla a partir del
hueso hueco de un ala de ave, su creador tuvo que partir el colmillo curvo sin estropearlo,
vaciar cada mitad, realizar tres orificios en cada parte y luego pegar las dos mitades de
marfil sin que quedaran espacios por donde se pudiera filtrar el aire.[52]
Muchos arqueólogos siguen considerando estas evidencias del Paleolítico superior
en forma de arte representativo, imaginativo y simbólico, plasmado en ornamentos
personales, esculturas, pinturas y utensilios decorados, junto con los instrumentos
musicales, como un fenómeno único de la región occidental de Europa. Tal y como Colin
Refrew, del McDonald Institute for Archaeological Research de la Universidad de
Cambridge escribió en 2008:
Es importante recordar que lo que se califica a menudo como arte rupestre —las
pinturas de las cuevas, las bellas figuritas de «Venus»— se produjo durante el Paleolítico
(es decir, en el periodo climático del Pleistoceno) y se limita a una única trayectoria de
desarrollo que localizamos en Europa occidental.[53]
Pero no es ni mucho menos así. Como ya se ha mencionado, distintos niveles de la
cueva sudafricana de Blombos, datados con una antigüedad de entre 100.000 y 75.000
años, han producido piezas de ocre tallado con símbolos. En la cueva Apolo XI, situada en
las montañas Huns, al sudoeste de Namibia, se encontraron siete losas de piedra con
pinturas datadas con una antigüedad de entre 35.500 y 23.500 años que poseen una
sofisticación comparable a la de las muestras europeas. Decorar paredes rocosas con
pinturas utilizando materiales similares sigue siendo una actividad habitual en algunas
zonas tribales actuales, aunque la exposición a las condiciones climáticas sugiere que su
longevidad es limitada.[54] En Australia se han encontrado también pinturas rupestres. En
2010, por ejemplo, se descubrió una pintura realizada con ocre rojo en la zona central de la
meseta de la Tierra de Arnhem donde aparecen representadas dos aves de aspecto similar a
un emú con el cuello estirado; se dice que esas aves debían de pertenecer al género
Genyornis, aves gigantes que se extinguieron hace más de 40.000 años.[55] Cinco grupos
de abrigos rocosos en la meseta central de India exhiben pinturas similares a muchos
ejemplos europeos. No se han aplicado las técnicas de datación más recientes, pero se cree
que tienen alrededor de 12.000 años de antigüedad; los miembros de las tribus locales de la
actualidad siguen pintando en las rocas.[56]
Estos descubrimientos dejan la impresión de que la cantidad muy superior de
muestras de arte prehistórico que se ha encontrado en Europa es consecuencia del esfuerzo
mayor que se ha consagrado a descubrirlo y analizarlo, junto con condiciones más
favorables para su conservación, que a la posibilidad de que se trate de un fenómeno único
de los humanos europeos arcaicos. Para determinar si el arte encontrado en yacimientos de
África, Asia y Australia es más antiguo, contemporáneo o posterior al europeo, se
necesitarían técnicas de datación más rigurosas.
Lenguaje

Los miembros de muchas especies con niveles elevados de consciencia utilizan


sonidos y gestos para comunicar miedo, alerta, amenaza, placer y otras emociones, tanto
entre sus propios miembros como hacia otras especies. La consciencia reflexiva, sin
embargo, transforma la comunicación en lenguaje, que defino como:
Lenguaje: comunicación de sentimientos, narraciones, explicaciones o ideas a
través de una estructura compleja de símbolos aprendidos hablados, escritos o de signos,
que transmite un sentido en el seno de la cultura en la que se utiliza.
La capacidad única del lenguaje de transmitir experiencias e ideas no solo a otros
miembros vivos de la especie humana, sino también a generaciones sucesivas, que de este
modo se benefician de la sabiduría acumulada, permitió el florecimiento cada vez más
rápido de la consciencia reflexiva.
Resulta difícil determinar cuándo surgió el lenguaje. Algunos investigadores
defienden que el área de Broca del cerebro es la evidencia del habla y se basan para ello en
que cuando esta área está dañada, el individuo pierde la capacidad de hablar. La posesión
del área de Broca se deduce a partir de un molde endocraneal, la impresión que deja el
cerebro en el cráneo. Sin embargo, algunos chimpancés tienen un área de Broca prominente
y ninguno de ellos ha sido capaz de articular una sola frase a pesar de los esfuerzos que se
han dedicado a enseñarlos.
Otros creen que la presencia del gen FOXP2 indica capacidad de habla, puesto que
las mutaciones de este gen regulador se asocian con dificultades en la articulación de
palabras acompañadas por disfunciones lingüísticas y gramaticales. La proteína FOXP2 del
neandertal es idéntica a la del humano, que se diferencia de la del chimpancé en solo dos
aminoácidos y de la del ratón en solo tres. Svante Paabo y sus colegas del Max Planck
Institute for Evolutionary Anthropology especulan que la versión humana que permite el
habla articulada fue seleccionada después de la división entre humano y chimpancé.[57]
Sin embargo, el gen FOXP2 regula un gran número de genes y está implicado en el
desarrollo no solo de tejidos neuronales sino también del pulmón y el intestino.[58] No creo
que la posesión de la variante humana del FOXP2 sea una evidencia adecuada de habla.
La única evidencia no ambigua de lenguaje son los escritos, pero ¿cómo detectar la
utilización del lenguaje escrito en tiempos prehistóricos? Mi sugerencia es que podemos
seguirle la pista a partir de aquellas cosas en las que la escritura está obligatoriamente
implicada.
La mayoría de eruditos considera que los primeros sistemas de escritura escrita
fueron los cuneiformes, con ejemplos que encontramos grabados en tablillas de arcilla en
Sumeria, Mesopotamia, con una antigüedad aproximada de 5.000 años, y los jeroglíficos,
que encontramos grabados en piedra en Egipto hacia la misma época. Estos sistemas
evolucionaron a partir de la proto-escritura —cuyo límite con la escritura es confuso—, que
consiste en símbolos abstractos que registraban cantidades de los productos, como el trigo,
que se comerciaban o entregaban a modo de tributo o impuesto. Estos símbolos habían
evolucionado a su vez a partir de símbolos pictóricos, el origen de los cuales se encuentra
probablemente en el arte y los símbolos rupestres junto con los símbolos grabados en ocre
antes mencionados.
Los primeros escritos narran tanto las hazañas de los gobernantes y de sus
antepasados, como de los dioses y los espíritus, historias que los ancianos o los contadores
de historias debían de haber transmitido oralmente. También parece razonable la hipótesis
de que los símbolos pintados y grabados tuvieran un paralelo hablado, por básico que fuera,
que poco a poco fue sofisticándose. Y he sugerido asimismo que algunos logros concretos,
como la migración de 100 kilómetros por mar de un grupo de humanos o el comercio de
productos, requiere la presencia de lenguaje hablado.
A pesar de que cualquier evidencia de lenguaje en tiempos prehistóricos es
necesariamente indirecta, todo sugiere que el lenguaje hablado emergió en el Paleolítico
superior.
La culminación de la emergencia del hombre

La combinación de las evidencias disponibles indica que la emergencia del hombre


quedó completada a finales del Paleolítico superior (la Edad de Piedra tardía en África) y
probablemente incluso antes. Los primeros destellos de consciencia reflexiva aparecen en
forma de distintas manifestaciones de facultades secundarias nuevas o radicalmente
transformadas en diversos lugares y periodos, como burbujas de vapor que aparecen en
distintos momentos de distintos lugares donde hay agua en ebullición. En la superficie,
algunas burbujas pueden condensarse y volver a ser líquido. Pero por encima de esta
superficie de transición, por mucho que las moléculas de agua puedan tener la misma
temperatura de 100 º Celsius que las que se forman en el líquido de abajo, son
indiscutiblemente gas: se ha producido un cambio de fase. De un modo similar, la
consciencia entra en una fase nueva, la reflexiva, que marca la presencia del Homo sapiens.
Hipótesis explicativas

La escasez de evidencias y los problemas de su interpretación han dado lugar a


numerosas hipótesis que pretenden explicar este fenómeno. Pueden agruparse en seis
hipótesis principales, algunas de las cuales se complementan mientras otras contradicen a
las demás. Todas coinciden, sin embargo, en que hace aproximadamente 1,7 millones de
años se produjo una oleada de emigración del Homo erectus desde África hacia Oriente
Próximo, Asia y Europa.
Modelo multirregional

Postulado por Milford Wolpoff y otros, el modelo multirregional defiende que


grupos de Homo erectus llegaron a China, Indonesia y tal vez Europa hace
aproximadamente un millón de años. Se adaptaron a las distintas condiciones
medioambientales de las distintas regiones y acabaron evolucionando hacia el humano
moderno, cuyas diferencias raciales son un reflejo de estos distintos entornos. La unidad de
los humanos como especie se mantuvo gracias al cruce entre miembros de los distintos
grupos regionales.
Sustitución o modelo de orígenes africanos recientes

Chris Stringer y otros defendieron al principio que los Homo erectus que se
dispersaron regionalmente murieron o evolucionaron hacia especies sucesoras, como el
Homo neanderthalensis en Eurasia; solo en África, y muy probablemente en un área
pequeña y propicia como África Oriental, evolucionaron hacia Homo sapiens hace
aproximadamente 130.000 años.
Hace cuestión de 100.000 años, algunos grupos de Homo sapiens migraron hacia
Israel y Oriente Próximo y algunos llegaron a Australia hace unos 60.000 años. El rápido
desarrollo de los utensilios en la Edad de Piedra tardía y la conducta compleja del Homo
sapiens en África hace alrededor de 50.000 años, permitió que algunos pudieran migrar
hacia Europa, adonde llegaron hace 35.000 años (aunque, al parecer, el Homo erectus o su
sucesor ya había llegado a Asia y Europa un millón de años antes sin utensilios tan
avanzados y sin conductas tan complejas).
El Homo sapiens, cognitivamente más avanzado, sustituyó a las especies indígenas
de Homo, que acabaron extinguiéndose. Solo después de esta emigración relativamente
reciente desde África, y como consecuencia de la adaptación a los entornos regionales, se
fueron desarrollando las distintas características raciales.
Los defensores del modelo argumentaron que los trascendentales análisis del ADN
mitocondrial (la «Eva mitocondrial») sustentaban su hipótesis, aunque estos análisis fueron
criticados posteriormente (véase página 680).
Modelo de asimilación

Este modelo de compromiso, avanzado por Fred Smith y Erik Trinkaus, acepta las
tesis del modelo de los orígenes africanos recientes sobre el origen del Homo sapiens pero
defiende que, en vez de que los humanos modernos sustituyeran a las especies de Homo
indígenas de las distintas regiones, fueron el cruce y la selección natural local lo que llevó a
la asimilación de las especies indígenas, lo cual explicaría las características raciales del
humano moderno.
Orígenes africanos recientes con modelo de hibridación

Como resultado de los análisis genómicos antes mencionados que indicaban que se
habían producido cruces entre Homo sapiens y Homo neanderthalensis, Stringer y sus
colegas modificaron su modelo original. El genoma neandertal es más similar al del
humano asiático y europeo occidental actual que al del humano africano, lo que sugiere que
estos cruces tuvieron lugar en Oriente Próximo después de que los humanos salieran de
África, pero antes de su expansión por Europa y Asia.
Términos como «cruce» y «asimilación» podrían transmitir cierta impresión de
armonía, como sucede con las parejas interraciales contemporáneas, pero hay que recordar
que la violación lleva mucho tiempo siendo un arma de guerra. Se menciona en numerosas
ocasiones en la Biblia, por ejemplo en Zacarías 14: «Reuniré a todas las naciones para
luchar contra Jerusalén, y la ciudad será tomada, las casas saqueadas y las mujeres
violadas».
Es un recurso constante desde tiempos históricos hasta la actualidad. Un informe de
las Naciones Unidas documentó la violación sistemática de las mujeres tutsi por parte de
los hutu en la guerra genocida que libraron en 1994 por el control de Ruanda y se estimó
que el resultado habían sido entre 2.000 y 5.000 embarazos.
Modelo de revolución humana

El descubrimiento de pinturas rupestres espectacularmente sofisticadas en Francia y


España, en contraste con el desarrollo de utensilios a lo largo de 2,5 millones de años para
pasar de las piedras talladas en una cara a las piedras talladas en ambas caras, suscitó la
hipótesis de Richard Klein, de la Universidad de Stanford, de que los humanos modernos
emergieron de forma repentina hace aproximadamente 35.000 años; la causa más probable
sería una mutación genética a nivel cerebral que transformó el proceso neural y dio lugar a
un incremento dramático de la consciencia.
Hallazgos posteriores de pinturas y esculturas similares en otros continentes
cambiaron el lugar y el momento de la hipotética mutación. El lugar se trasladó a África y
el momento a antes de la emigración del Homo sapiens. Según Klein, este hecho se produjo
hace entre 50.000 y 40.000 años, mientras que Paul Mellars, de la Universidad de
Cambridge, lo sitúa entre 80.000 y 60.000 años atrás. Fue un suceso que equipó al Homo
sapiens con el poder intelectual necesario para poder migrar con éxito desde África
(aunque, como se ha observado previamente, habría miembros de la especie Homo erectus,
supuestamente peor dotada a nivel intelectual, que ya habrían emprendido ese viaje hace
1,7 millones de años) y sustituir la especie Homo, cognitivamente inferior en todo el
mundo, lo que apoyaría, por lo tanto, el modelo de sustitución.
Modelo gradualista

Sally McBrearty, de la Universidad de Connecticut, y Alison Brooks, de la George


Washington University, rechazan con mordacidad el modelo de la revolución humana y lo
tachan de eurocéntrico. Observan que las evidencia de refinamientos en los utensilios de
piedra y en los utensilios compuestos, la caza especializada, la utilización de recursos
acuáticos, la presencia de ornamentos y de grabados, y la utilización de pigmentos en el
arte y la decoración no aparecieron en el mismo momento y la misma época, sino en
distintos lugares del continente africano y en distintos momentos, siendo el más remoto
hace aproximadamente 250.000 años. Esto, defienden, demuestra que la cognición se
desarrolló gradualmente.
Causas propuestas para la emergencia del hombre

Con la excepción del modelo de la revolución humana, las hipótesis presentadas


tratan sobre cómo y cuándo emergieron los humanos, no sobre el por qué.
Mutación genética

Una mutación genética que causara un avance de conducta tan dramático en tan
poco tiempo es incompatible con lo que sabemos sobre el funcionamiento de los genes. A
pesar de que una única mutación puede llegar a ser destructiva e inhibir una conducta
existente, o incluso producir la muerte (aunque en este caso suelen necesitarse varias
mutaciones genéticas), el desarrollo de una conducta nueva o muy mejorada casi siempre
exige que muchos genes actúen en red. Vimos en la página 513, por ejemplo, que un
estudio realizado en 2010 demostró que la inteligencia humana está controlada por una red
de miles de genes y no por unos pocos genes potentes, como se creía anteriormente.
Si el cambio genético fuera la única o la principal causa de una revolución
relativamente repentina de la conducta que quedara reflejada en un aumento relativamente
repentino de la consciencia —en este caso, hasta el punto de la consciencia reflexiva—, lo
más probable que este cambio estuviera causado no por una mutación genética sino por un
cambio genómico importante que implicaría muchos genes y mecanismos reguladores,
como sucede con los resultantes de la hibridación o de la duplicación del genoma.[59]
Cambio climático en África Oriental

Durante muchas décadas, la explicación ortodoxa fue que los humanos emergieron
en África Oriental porque el cambio climático dio como resultado la conversión de la selva
en sabana al este del valle del Rift, recién creado como consecuencia de movimientos
tectónicos. La bipedestación fue seleccionada porque suponía una ventaja adaptativa con
respecto a caminar apoyándose en los nudillos, como el chimpancé y el gorila: permitía a
los humanos desplazarse de un modo más eficiente durante las grandes distancias que
tenían que recorrer por las praderas en busca de sustento, y/o les permitía divisar presas y
depredadores desde mayores distancias, y/o exponía menos el cuerpo al calor del sol —del
que habían dejado de estar protegidos al desaparecer la densa vegetación de la selva—, y/o
les liberaba las manos para poder emplear utensilios.[60]
Al principio del capítulo he hecho la observación de que la bipedestación no es
exclusiva de los humanos. Además, quitándole autoridad a la explicación de la sabana, hay
que decir que el Ardipithecus ramidus vivió en un entorno mixto de bosques y selva y se
supone que era bípedo, mientras que, por otro lado, se ha observado al chimpancé
utilizando y construyendo incluso utensilios muy simples. Además, las antropólogas Sally
McBrearty y Nina Jablonski comunicaron en 2005 el descubrimiento en Kenia de un fósil
de chimpancé de 545.000 años de antigüedad[61], contradiciendo la postura de que los
homininos fueron los únicos que migraron y sobrevivieron en la sabana del este del valle
del Rift[62] (aunque, lógicamente, ese chimpancé podría no haber sobrevivido en aquellas
condiciones).
Cambios climáticos globales

La evolución de los homininos tuvo lugar en la época geológica conocida como


Pleistoceno, un periodo que se extiende desde hace 2,6 millones de años hasta hace 12.000
años y que se caracteriza por la repetición de grandes glaciaciones intercaladas con
periodos cálidos interglaciares más breves, de entre 10 y 20.000 años.
Lo cual llevó a Stringer a defender que hace 450.000 años se produjo un suceso
climático clave, cuando el Homo heidelbergensis (supuesto sucesor del Homo erectus), que
se había propagado por Eurasia, incluyendo las islas británicas, experimentó una glaciación
severa que lo llevó a dividirse en tres grupos principales que a partir de ahí evolucionaron
por separado: el grupo europeo evolucionó hacia los neandertales, el asiático hacia los
denisovanos y el grupo africano evolucionó hacia el humano moderno.
Otros paleontólogos han invocado estas alternancias entre periodos glaciales e
interglaciares como explicación de la evolución humana. Según este punto de vista, los
repetidos periodos cálidos interglaciares provocaron la desertización y la sequía en África
Oriental, lo que obligó a los humanos a migrar. Uno de estos periodos, de unos 60.000 años
de duración, empujó a los humanos hacia el norte, fuera de África, mientras que una fase de
glaciación que alcanzó su punto culminante entre 25.000 y 15.000 años atrás, provocó un
descenso del nivel del mar de alrededor de 120 metros que creó un puente en lo que en la
actualidad es el estrecho de Bering que permitió que muchos animales, perseguidos por los
humanos, se trasladaran de Eurasia a Norte América.
Pero la migración, en sí misma, no explica la emergencia humana: hay muchas más
especies migratorias.
Además, los cambios climáticos son más complejos que todo esto. En el capítulo 12
vimos que el clima depende de los cambios que se producen en la radiación solar (como los
que producen las llamaradas solares), del giro de la Tierra sobre su eje, de la precesión del
eje de la Tierra, de los cambios estacionales provocados por la inclinación del eje de la
Tierra (una inclinación que varía en ciclos de 41.000 años), de los movimientos tectónicos
que afectan los océanos y las corrientes de aire, etc.[63] Todas estas causas de cambio
climático operan con distintas escalas de tiempo e interactúan produciendo, por ejemplo,
periodos de grandes lluvias que no siempre son predecibles. Después de estudiar
sedimentos de lagos, los paleoclimatólogos Martin Trauth y Mark Maslin llegaron a la
conclusión de que en el valle del Riff siguió habiendo grandes lagos incluso en los periodos
de sequía.[64]
Rick Potts, director del Humans Origins Program del Instituto Smithsoniano y
conservador del Museo Nacional de Historia Natural de los Estados Unidos, sugiere que la
causa de la emergencia de los humanos no fue el cambio de selva a sabana, sino que un
entorno que fluctuaba entre selvas, praderas y desiertos acabó provocando un aumento del
tamaño cerebral de los homininos que les permitió comprender cómo sobrevivir en
circunstancias tan fluctuantes.
No sabemos con qué rapidez se produjeron estas fluctuaciones. Los registros de la
capa de hielo de Groenlandia han demostrado que un cambio climático pronunciado puede
producirse en plazos de 20 años, o incluso menos. Tal y como destaca el proyecto RESET
(Response of Humans to Abrupt Environmental Transitions) [Respuesta humana a
transiciones medioambientales abruptas], un consorcio de investigación multidisciplinar
patrocinado por el Natural Environment Research Council del Reino Unido, los estudios
que correlacionan la evolución humana con el cambio climático corren peligro porque se
han demostrado incapaces de sincronizar los registros arqueológicos y geológicos con la
precisión suficiente.
La mayoría de factores que determinan el cambio climático son globales y no veo
motivos para favorecer la región de África Oriental como «cuna de la humanidad». Tanto
en África Occidental como en el sur del continente se han descubierto indicios de
consciencia reflexiva (utensilios especializados compuestos, ornamentos y símbolos). Tal
vez el hecho de que en África Oriental se hayan descubierto más fósiles de homininos (que,
con todo y con eso, son escasos) se deba a que la rápida erosión de las tierras altas que
llenaron de sedimentos el valle del Riff proporcionara condiciones más favorables para la
fosilización que un posible hábitat único que fomentara la emergencia humana.
Conclusiones

1. La única característica que distingue a los humanos de todas las demás especies
es la consciencia reflexiva.
2. Su aparición puede rastrearse a partir del aumento de consciencia en los primates
hasta que llega un punto en que la consciencia se vuelve consciente de sí misma. Los signos
de los primeros destellos de esta consciencia reflexiva se encuentran en las indiscutibles
evidencias que muestran que facultades ya poseídas por los primates se transforman
radicalmente y en las nuevas facultades secundarias que dicha consciencia reflexiva genera.
3. La escasez de evidencias, sin embargo, hace imposible seguir la pista del linaje
que va desde los primates hasta el humano moderno. La escasez de evidencias hace
también imposible elegir entre las distintas hipótesis que pretenden explicar dónde y cómo
se produjo este proceso. Y por lo que al «cuándo» se refiere, las evidencias disponibles son
compatibles hasta cierto punto tanto con el modelo de la revolución humana como con el
modelo gradualista. La consciencia reflexiva no surgió de repente de la nada. La
consciencia emergió de forma gradual en distintos homininos hace aproximadamente 2,5
millones de años; aunque el ritmo de cambio aumentó, y siguió aumentando, en los últimos
250.000 años, cuando los distintos indicios de consciencia reflexiva aparecen con relativa
rapidez en distintos lugares, hasta llegar al momento en que encontramos todos estos
indicios en la Edad de Piedra tardía en África y en el Paleolítico superior en distintos
continentes, hace entre 40.000 y 10.000 años
4. La misma escasez de evidencias hace imposible identificar la causa o causas
concretas de la emergencia del hombre. Posiblemente, la causa básica fue el instinto de
supervivencia ante los depredadores y la necesidad de encontrar sustento en un entorno
fluctuante, consecuencia de un clima fluctuante, todo lo cual llevó al reconocimiento de que
las necesidades quedaban mejor cubiertas con cooperación que con competencia. Es posible
que la hibridación o la duplicación del genoma jugaran también algún tipo de papel en el
cambio evolutivo.
5. En términos generales, parece que nos encontramos ante un caso de
emergencia[65] de sistemas en el que la interacción de facultades en un nivel de
complejidad inferior —como la comprensión, la inventiva, el aprendizaje y la
comunicación— genera una facultad novedosa en un nivel de complejidad superior —en
este caso, la consciencia reflexiva— y esa facultad de nivel superior interactúa causalmente
con las facultades de nivel inferior para transformarlas y generar facultades nuevas —como
la imaginación, el lenguaje, la abstracción y las creencias.
6. Igual que sucede con la aparición de la materia y la aparición de la vida, la
escasez inherente de evidencias hace que sea prácticamente seguro que la ciencia nunca
conseguirá identificar cuándo, cómo y por qué aparecieron los humanos. Pero esto no
implica que haya que negar, ni mucho menos, la emergencia del hombre. Para ampliar la
analogía utilizada en la segunda parte, diremos que la consciencia reflexiva es como una
flor que crece a partir de la semilla de la consciencia. En algunos ambientes, la semilla
nunca llega a dar una flor. En otros, da lugar a un brote, que produce un capullo que se
acaba marchitando. En otros, ese capullo acaba abriéndose en una flor. Un capullo no es
una flor, pero es imposible decir en qué momento concreto el capullo se transforma en flor.
[66]
[1] Véase página 630.
[2]Stringer (2011), p. 28.
[3]Morris (1986).
[4] Véase página 504.
[5]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome»,
Science, 328: 5979, 2010, pp. 710–722.
[6]Jorde, Lynn B. y Wooding, Stephen P., «Genetic Variation, Classification and
“Race”» Nat Genetics, 36, 2004, pp. 528–533.
[7] Véase página 518.
[8]Derricourt, Robin, «Getting “out of Africa”: Sea Crossings, Land Crossings and
Culture in the Hominin Migrations», Journal of World Prehistory, 19: 2, 2005, pp. 119–
132.
[9] Véase página 457.
[10] Véase página 630.
[11]Stoneking, Mark, «Human Origins», EMBO Reports, 9: S1, 2008, S46–S50.
[12] Véase página 281 para una descripción más detallada de esta técnica.
[13]Stringer (2011), pp. 33–44.
[14]Cann, R. L., et al., «Mitochondrial DNA and Human Evolution», Nature,
325:6099, 1987, pp. 31–36.
[15]Stringer (2011), pp. 23–24.
[16]Cruciani, Fulvio, et al., «A Revised Root for the Human Y Chromosomal.
Phylogenetic Tree: The Origin of Patrilineal Diversity in Africa», The American Journal of
Human Genetics, 88: 6, 2011, pp. 814–818.
[17]Underhill, P A, et al., «The Phylogeography of Y Chromosome Binary
Haplotypes and the Origins of Modern Human Populations», Annals of Human Genetics,
65: 1, 2001, pp. 43–62.

[18]http://web.archive.org/web/20070706095314/http://www.janegoodall.com/chimp_centr
al/default.asp, consultado el 8 de diciembre de 2011.
[19]«Bonobo», The Columbia Electronic Encyclopedia, 6ª ed., Columbia University
Press, 2011. Consultado el 8 de diciembre de 2011;
http://www.britannica.com/EBchecked/topic/73224/bonobo, consultado el 16 de enero de
2012.
[20]Brunet, Michel, et al., «New Material of the Earliest Hominid from the Upper
Miocene of Chad», Nature, 434: 7034, 2005, pp. 752–755; Zollikofer, Christoph P. E., et
al., «Virtual Cranial Reconstruction of Sahelanthropus Tchadensis», Nature, 434: 7034,
2005, pp. 755–759.
[21]Henke, et al., (2007).
[22]White, T. D., «Human Origins and Evolution: Cold Spring Harbor, Deja Vu»,
Cold Spring Harbor Symposia on Quantitative Biology, 2009; Lovejoy, C. Owen,
«Reexamining Human Origins in Light of Ardipithecus Ramidus», Science, 326: 5949, 74,
2009, pp. 74e1–74e8.
[23]Pickering, Robyn, et al., «Australopithecus Sediba at 1.977 Ma and
Implications for the Origins of the Genus Homo», Science, 333: 6048, 2011, pp.1421–1423.
[24]Spoor, Fred, «Palaeoanthropology: Malapa and the Genus Homo», Nature, 478:
7367, 2011, pp. 44–45.
[25]Leakey, Meave G., et al., «New Fossils from Koobi Fora in Northern Kenya
Confirm Taxonomic Diversity in Early Homo», Nature, 488: 7410, 2012, pp. 201–204.
[26]Reich, David, et al., «Genetic History of an Archaic Hominin Group from
Denisova Cave in Siberia», Nature, 468: 7327, 2010, pp. 1053–1060.
[27]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome»,
Science, 328: 5979, 2010, pp. 710–722.
[28]«Mousterian», The Concise Oxford Dictionary of Archaeology, Oxford
University Press, 2003.
[29]Zilhao, Joao, et al., «Symbolic Use of Marine Shells and Mineral Pigments by
Iberian Neandertals», Proceedings of the National Academy of Sciences, 107: 3, 2010, pp.
1023–1028.
[30]Brown, P., et al., «A New Small-Bodied Hominin from the Late Pleistocene of
Flores, Indonesia», Nature, 431: 7012, 2004, pp. 1055–1061.
[31]Brown, P. y Maeda, T., «Liang Bua Homo Floresiensis Mandibles and
Mandibular Teeth: A Contribution to the Comparative Morphology of a New Hominin
Species», Journal of Human Evolution, 57: 3, 2009, pp. 571–596.
[32]Reich, David, et al., «Genetic History of an Archaic Hominin Group from
Denisova Cave in Siberia», Nature, 468: 7327, 2010, pp.1053–1060.
[33]White, Tim D., et al., «Pleistocene Homo Sapiens from Middle Awash,
Ethiopia», Nature, 423: 6941, 2003, pp. 742–747.
[34]Fleagle, John G., et al.,«Paleoanthropology of the Kibish Formation, Southern
Ethiopia: Introduction», Journal of Human Evolution, 55: 3, 2008, pp. 360–365.
[35]«Paleolithic», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[36]Bahn, Paul Gerard, «Stone Age», Microsoft Encarta Online Encyclopedia,
2005, http://uk.encarta.msn.com/.
[37]Stringer (2011), pp. 125–126.
[38]Brown, Kyle S., et al, «Fire as an Engineering Tool of Early Modern Humans»,
Science, 325: 5942, 2009, pp. 859–862.
[39]James, Steven R., «Hominid Use of Fire in the Lower and Middle Pleistocene»,
Current Anthropology, 30: 1, 1989, pp. 1–26.

[40]http://www.wits.ac.za/academic/research/ihe/archaeology/blombos/7106/blomboscave.
htm, consultado el 1 de febrero de 2012.
[41]Botha y Knight (2009); Henshilwood, Christopher S., et al., «Emergence of
Modern Human Behavior: Middle Stone Age Engravings from South Africa», Science, 295:
5558, 2002, pp. 1278–1280; d’Errico, Francesco, et al., «Additional Evidence on the Use of
Personal Ornaments in the Middle Paleolithic of North Africa», Proceedings of the
National Academy of Sciences, 106: 38, 2009, pp. 16051–16056.
[42]d’Erico et al., (2009).
[43]Roberts, Richard G, et al., «The Human Colonisation of Australia: Optical
Dates of 53,000 and 60,000 Years Bracket Human Arrival at Deaf Adder Gorge, Northern
Territory», Quaternary Science Reviews, 13: 5, 1994, pp. 575–583.
[44]Bahn (2005).
[45]Stringer (2011,) p. 126.
[46]Bowler, James M., et al., «New Ages for Human Occupation and Climatic
Change at Lake Mungo, Australia», Nature, 421: 6925, 2003, pp. 837–840.
[47]Zorich, Zach, «A Chauvet Primer», Archaeology, 64, 2011, p. 2.
[48]Balter, Michael, «Going Deeper into the Grotte Chauvet», Science, 321: 5891,
2008, pp. 904–905.
[49]Balter, Michael, «Paintings in Italian Cave May Be Oldest Yet», Science, 290:
5491, 2000, pp. 419–421.
[50]http://www.lascaux.culture.fr/#/en/04_00.xml, consultado el 1 de febrero de
2012.
[51]Muchas de estas esculturas fueron exhibidas en la exposición del Museo
Británico que llevó por título «Ice Age Art: Arrival of the Modern Mind», visitada el 17 de
mayo de 2013. Véase también Cook (2013) y Conard, Nicholas J., «A Female Figurine
from the Basal Aurignacian of Hohle Fels Cave in Southwestern Germany», Nature, 459:
7244, 2009, pp. 248–252.
[52]Schneider, Achim, «Ice-Age Musicians Fashioned Ivory Flute», Nature News,
2004. http://www.nature.com/news/2004/041217/full/news041213-14.html, consultado el
18 de enero de 2012; Stringer (2011), pp. 119–120.
[53]Renfrew, Colin, et al., «Introduction. The Sapient Mind: Archaeology Meets
Neuroscience», Philosophical Transactions of the Royal Society B: Biological Sciences,
363: 1499, 2008, pp. 1935–1938.
[54]Departmento de Arte de África, Oceanía y América, The Metropolitan Museum
of Art, 2000, http://www.metmuseum.org/toah/hd/apol/hd_apol.htm, consultado el 15 de
diciembre de 2011.
[55]http://www.abc.net.au/news/2010-05-31/megafauna-cave-painting-could-be-
40000-years-old/847564, consultado el 15 de diciembre de 2011.
[56]http://whc.unesco.org/en/list/925/, consultado el 15 de diciembre de 2011.
[57]Enard, Wolfgang, et al., «Molecular Evolution of FOXP2, a Gene Involved in
Speech and Language», Nature 418: 6900, 2002, pp. 869–872.
[58]Shu, Weiguo, et al., «FOXP2 and FOXP1 Cooperatively Regulate Lung and
Esophagus Development», Development, 134: 10, 2007, pp. 1991–2000.
[59] Véase página 660.
[60]Las fuentes son Stringer (2011); d’Errico, Francesco y Stringer, Chris B.
«Evolution, Revolution or Saltation Scenario for the Emergence of Modern Cultures?»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 366: 1567, 2011,
pp. 1060–1069; Renfrew, Colin, et al., (2008); Green, Richard E, et al. (2010); Klein,
Richard G., et al., «The Ysterfontein 1 Middle Stone Age Site, South Africa, and Early
Human Exploitation of Coastal Resources», Proceedings of the National Academy of
Sciences of the United States of America 101: 16, 2004, pp. 5708–5715; McBrearty, Sally y
Brooks, Alison S., «The Revolution That Wasn’t: A New Interpretation of the Origin of
Modern Human Behavior», Journal of Human Evolution, 39: 5, 2000, pp. 453–563; Tuttle
(2014).
[61] El fósil consiste en tres piezas dentales que según McBrearty son similares a
los incisivos del chimpancé y poseen, como en los chimpancés, una capa fina de esmalte
dental.
[62]McBrearty, Sally y Jablonski, Nina G., «First Fossil Chimpanzee», Nature, 437:
7055, 2005, pp. 105–108.
[63] Véase página 310 y siguientes para los factores planetarios que influyen el
clima.
[64]Maslin, Mark, et al., «A Changing Climate for Human Evolution», Geotimes,
septiembre de 2005, http://www.geotimes.org/sept05/feature_humanclimateevolution.html,
consultado el 17 de junio de 2014.
[65] Véase el Glosario para la definición de «emergencia» y sus tres tipos
principales.
[66]www.smithsonianmag.com/arts-culture/Q-and-A-Rick-Potts.html, consultado el
31 de enero de 2012.
CAPÍTULO 27. LA EVOLUCIÓN HUMANA 1: El PENSAMIENTO
PRIMITIVO

Por encima y fuera de la biosfera está la noosfera […] con la hominización, a


pesar de la insignificancia del salto anatómico, tenemos el inicio de una nueva era.

Pierre Teilhard de Chardin, 1955

Empezaré considerando cómo evolucionaron los humanos, sugeriré que es un


proceso que puede dividirse en tres fases que se solapan entre sí y examinaré con más
detalle la primera de estas fases.
¿Cómo evolucionaron los humanos?

Físicamente

La evidencia fósil sugiere que, con la excepción de una reducción pequeña y


gradual del tamaño del cráneo y del esqueleto, los humanos dejaron de evolucionar
morfológicamente hace como mínimo 10.000 años, es decir, desde el momento en que
empezaron a todos los continentes del planeta.
Los antropólogos físicos solían dividir la especie humana en tres amplias
variaciones o razas surgidas a partir de la adaptación climática: caucásica, mongoloide y
negroide. La clasificación de las distintas poblaciones en estos grupos raciales siempre fue
polémica debido a la falta de acuerdo en la definición de las distintas características raciales
y sus causas, mientras que, por otro lado, la hibridación resultante de invasiones y
migraciones ha empañado siempre las diferencias entre poblaciones. Los cruces entre
grupos raciales han aumentado de manera significativa en los últimos cincuenta años por
motivos que discutiremos en la siguiente sección, acelerando la tendencia hacia una menor
diferenciación física en la especie humana.
Pero a pesar de que se están produciendo ciertos cambios físicos reversibles —
principalmente una reducción de tamaño consecuencia de la malnutrición en aquellos
territorios afectados por hambrunas, o la obesidad resultado del exceso de comida y la falta
de ejercicio físico en algunos países ricos—, podemos afirmar que, en términos generales,
los humanos no están evolucionando físicamente.
Genéticamente

En un estudio publicado en 2007, el antropólogo John Hawks y sus colegas de la


Universidad de Wisconsin, Madison, declararon que la selección natural de variantes
genéticas adaptativamente favorables ha producido una evolución genética
extraordinariamente veloz de la especie humana.[1] Su modelo de datos muestra el
incremento de las variantes genéticas, o mutaciones, desde hace 40.000 años. Como
neodarwinistas que son, atribuyen el fenómeno a la propagación de determinadas variantes
que permiten a las poblaciones adaptarse con éxito a entornos distintos, como, por ejemplo,
las variantes genéticas que codifican para la producción de la melanina, el pigmento que
oscurece la piel y protege contra la radiación ultravioleta nociva del sol, en aquellas
poblaciones más próximas al ecuador.
Sin embargo, su modelo muestra también que las variantes genéticas alcanzaron su
momento cumbre entre 8.000 y 5.000 años atrás, periodo en el cual las poblaciones
humanas iniciaron una expansión masiva, y han caído a cero en la actualidad. Hawks y sus
colegas atribuyen esta caída a la imposibilidad de detectar variantes adaptativas que
«deberían existir […] y que se producen a un rito cada vez más veloz [la cursiva es mía]».
Pero incluso según los criterios neodarwinistas, existen buenas razones para poner
en duda su extrapolación de una tendencia del pasado y sus conclusiones de que el cambio
genético va en rápido aumento en la especie humana.
Una de estas razones es que la variación genética de entre el 0,1 y el 0,5 por ciento
que se estima en la actualidad para la especie humana es baja en comparación con la de
muchas otras especies, desde la mosca de la fruta hasta el chimpancé.[2]
Otra razón, según Steve Jones, genetista de la UCL, es que la selección natural
requiere (a) variaciones genéticas generadas aleatoriamente por mutación y (b) que los
humanos sobrevivan el tiempo necesario para reproducirse y transmitir aquellas variaciones
genéticas que han beneficiado su supervivencia. Sostiene que en el Londres de 1850, solo la
mitad de los recién nacidos alcanzaba la pubertad, mientras que esta cifra se sitúa en la
actualidad en el 99 por ciento. Por lo tanto, las personas con un conjunto genético ventajoso
ya no sobreviven más tiempo que aquellas que poseen un conjunto genético menos
ventajoso. Por lo tanto, argumenta Jones, al menos en el mundo desarrollado, la naturaleza
ha perdido su poder de selección y la evolución humana ha terminado.[3] Más
concretamente, esto significa que en el acervo génico de la población de Londres (y por
extensión, en los acervos génicos del resto del mundo desarrollado) no se ha producido
ningún cambio como resultado de la acumulación diferencial de genes ventajosos
registrados por selección natural.
Las principales causas de mortalidad infantil en el Londres del siglo xix eran la
desnutrición y las enfermedades. Su eliminación fue debida a facultades transformadas o
generadas por la consciencia reflexiva. La comprensión humana, la creatividad, la inventiva
y la comunicación han producido métodos más efectivos de producción y distribución de
alimentos; han producido asimismo la intervención médica para prevenir y curar lo que
antiguamente eran enfermedades mortales para aquellos que carecían de inmunidad
genética natural.
Además, estas facultades, combinadas con la intención, impiden que las variaciones
genéticas se propaguen cuando los humanos, exclusivamente, mantienen relaciones
sexuales pero eligen utilizar métodos de control de natalidad que impiden la transmisión de
sus genes.
Y, a diferencia de lo que sucede con otras especies, los humanos no han quedado
genéticamente aislados en distintos hábitats. Los últimos cincuenta años, en particular, han
sido testigos de un incremento de la expansión y la mezcla de los acervos génicos de la
población humana debido a dos principales factores. En primer lugar, el razonamiento
humano y la educación están provocando el desmantelamiento de las barreras sociales que
impiden el emparejamiento de personas de distinta raza o clase social. Muchas de estas
barreras estaban reforzadas por la legislación, como en el caso de las leyes de segregación
de los estados sureños de los Estados Unidos hasta los años 60 y las leyes del apartheid en
Sudáfrica hasta los años 90. El proceso de desmantelamiento de estas barreras no ha
terminado, ni mucho menos: el sistema de castas lleva más de 4.000 años arraigado en la
India rural y Pakistán y tiene una gran influencia en la separación de clases, mientas que los
israelíes se aíslan de otras razas semitas como consecuencia de las políticas de su gobierno.
Pero la tendencia general es hacia una integración cada vez mayor de grupos que antes
estaban separados racial o socialmente.
En segundo lugar, antiguamente la gente solo contraía matrimonio en el seno de su
familia, posteriormente en el entorno de su pueblo y luego en el ámbito de su ciudad. Esto
era aplicable incluso en los países más avanzados industrialmente hasta que en los años 50
se inventaron los sistemas de transporte masificados y baratos, como los vuelos
comerciales. Como consecuencia de ello, y en paralelo con la globalización del comercio,
la industria y la educación superior, las migraciones, tanto temporales como permanentes,
han ido en aumento y, con ello, las relaciones y los matrimonios entre personas de regiones
y países distintos.
El resultado de la suma de ambos factores es, en términos neodarwinistas, una
tendencia hacia la combinación y la expansión de los acervos génicos que mantiene al
Homo sapiens como una especie única. Y a pesar de que los cambios genéticos menores
resultado de mutaciones son inevitables (con efectos neutros o nocivos), el cambio genético
irreversible dentro de poblaciones humanas geográfica o socialmente aisladas para dar
lugar a nuevas especies no se está produciendo.
Pero que los humanos dejaran de evolucionar genéticamente hace alrededor de
5.000 años no significa que no estén evolucionando en otros sentidos.
Noéticamente

El ritmo de cambio de la conducta humana, sobre todo en el aspecto social e


innovador, desde que la consciencia reflexiva señaló la emergencia de los humanos en el
Paleolítico superior hace entre 40.000 y 10.000 años (de aquí en adelante hablaremos de
hace 25.000 años) nos cuenta cómo evolucionaron los humanos y siguen aún
evolucionando. Pero lo que detectamos no es ni físico ni genético, sino noético: la
evolución de la consciencia reflexiva.
Esta evolución puede agruparse en tres fases que se solapan entre sí: pensamiento
primitivo, pensamiento filosófico y pensamiento científico.
La evolución del pensamiento primitivo

Definiré el término como sigue:


Pensamiento primitivo: la primera fase de la consciencia reflexiva en la que la
reflexión sobre el individuo y su relación con el resto del universo se centra principalmente
en la supervivencia y la superstición.
Esta fase constituyó el único tipo de pensamiento reflexivo durante
aproximadamente el 90 por ciento de la existencia humana moderna. Y dio como resultado
seis cosas que tuvieron importantes consecuencias para la evolución humana:
1. La transición del humano que se adapta a su entorno al humano que adapta el
entorno a sus necesidades;
2. La transición de la vida de cazador-recolector a la vida en comunidades
asentadas;
3. La invención y la propagación de tecnologías que impulsaron el crecimiento
desde poblados agrícolas hasta ciudades-estado, y posteriormente imperios, todos ellos con
una jerarquía social basada en funciones especializadas;
4. La invención y el desarrollo de la escritura;
5. Las bases de la astronomía y las matemáticas;
6. El desarrollo de sistemas de creencias y religiones.
Las evidencias se presentan en tres sentidos: los restos de los primeros humanos y
de sus artefactos; los grupos actuales de cazadores-recolectores, pastores y agricultores con
economía de subsistencia; y los relatos escritos de historias orales prehistóricas y de
sucesos y creencias contemporáneos.
Las reservas con relación a los dos primeros tipos de evidencias han quedado
detalladas en el capítulo 26. También hay que tratar con cautela los relatos escritos. Rara
vez fueron concebidos con fines históricos. Su objetivo solía ser político o religioso:
convencer a la población de que aceptara las órdenes de un gobernador dinástico
ensalzando tanto sus hazañas como las de sus antepasados por el bien de la población, o
inculcar y propagar la creencia en un dios o dioses. En algunos casos, cuando los
gobernadores estaban deificados, como en el caso de los reyes egipcios, ambos objetivos se
combinan.
Los relatos orales transmitidos de generación en generación eran propensos tanto al
embellecimiento como, a medida que se repetían, a la asimilación de otros mitos. Así,
muchos guerreros acabaron convertidos en héroes engendrados por dioses, como el griego
Heracles (adoptado por los romanos con el nombre de Hércules), o transformados en la
encarnación de un dios, como sucedió con Krishna cuando su historia quedó plasmada por
escrito en el poema épico indio del Mahabbharata, redactado al menos 900 años después
de su nacimiento.
Teniendo en cuenta estas reservas con respecto a las evidencias, intentaré demostrar
de qué modo la evolución del pensamiento primitivo generó las seis consecuencias antes
mencionadas.
De las bandas nómadas de cazadores-recolectores hasta las comunidades agrícolas
asentadas

La emergencia de la consciencia reflexiva no transformó a los humanos de repente.


Al contrario, los primeros destellos de consciencia reflexiva tuvieron que combatir contra
potentes instintos que llevaban millones de años enraizados en los ancestros pre-humanos.
Las investigaciones llevadas a cabo durante los últimos veinte años han disipado los
conceptos románticos de grupos de cazadores-recolectores que vivían en paz y armonía con
la naturaleza y que solo fueron provocados para adoptar una actitud violenta después de ser
perseguidos por occidentales supuestamente civilizados (algo que, efectivamente, sucedió).
En su libro War Before Civilisation: The Myth of the Peaceful Savage[4] [Guerra
antes de la civilización: el mito del salvaje pacífico], el paleoantropólogo de la Universidad
de Illinois, Lawrence Keeley, recopila evidencias de restos prehistóricos y pueblos tribales
modernos para demostrar que las muertes como consecuencia de asaltos y masacres en
tiempos prehistóricos eran mucho más frecuentes y proporcionalmente se producían en una
escala inmensamente mayor que las muertes por guerras libradas por los países modernos.
Entre muchos ejemplos, los estudios etnográficos realizados sobre pueblos tribales del
interior de Nueva Guinea, los yanomana de la selva venezolana y los murngin de Australia,
muestran que alrededor del 25 por ciento de la población masculina adulta murió como
consecuencia de guerras. Un siglo y medio antes de la llegada de los europeos a Dakota del
Sur, una fosa común próxima a un poblado incendiado de Crow Creek, reveló la presencia
de restos de más de quinientos hombres, mujeres y niños —un 60 por ciento del poblado—
que murieron después de que les arrancaran la cabellera y fueran mutilados; entre los
esqueletos había una escasa presencia de mujeres jóvenes, lo que sugiere que debieron de
ser hechas prisioneras. La mitad de las personas enterradas en un cementerio nubio de
12.000 años de antigüedad había perecido de muerte violenta.
Descubrimientos similares aparecen mencionados en Constant Battles[5] [Batallas
constantes], escrito por el arqueólogo de Harvard, Steven LeBlanc, que reconoce que
durante veinticinco años sus colegas y él ignoraron de forma rutinaria las evidencias de
guerras. En su libro habla sobre yacimientos de cazadores-recolectores que muestran
evidencias de muertes violentas, artefactos especializados para la guerra, recogida de
trofeos (muy en especial cabezas) e imaginería relacionada con la guerra en el arte rupestre.
El homicidio no se limita a los miembros de bandas de cazadores-recolectores.
Desde finales de los 70, las antropólogas de la Arizona State University, Kim Hill y
Magdalena Hurtado, estudiaron a los achés de la selva amazónica, bandas que llevaban un
estilo de vida similar al de la Edad de Piedra. El 36 por ciento de los fallecimientos de
varones adultos era consecuencia de guerras. Sin embargo, Hill y Hurtado descubrieron que
la muerte en manos de otros achés representaban el 22 por ciento de todos los
fallecimientos en una muestra de 843 individuos, e incluían infanticidio, gerontocidio y
luchas entre bandas. El infanticidio, en especial el de los huérfanos, y el asesinato de
ancianos y enfermos, eran prácticas comunes, hasta el punto de que los achelenses
enterraban a menudo vivos a esos miembros de sus bandas antes de proseguir su andadura.
Era algo aceptado en su cultura. La vida de los cazadores-recolectores es dura; padecen
hambre la mayor parte del tiempo y es imposible sustentar a los que no pueden contribuir
en su búsqueda continua de alimento.[6]
Las evidencias del pensamiento de los cazadores-recolectores prehistóricos son
escasas y están además abiertas a distintas interpretaciones; las deducciones no son más que
conjeturas. En tales circunstancias, un experimento mental podría esclarecer algo las
conjeturas. Lo que sigue en cursiva es un experimento mental interpolado con las
evidencias disponibles.
Imagínese que no conoce usted absolutamente nada sobre las enfermedades
microbianas, la meteorología, la astronomía y sobre ningún tipo de ciencia. De hecho,
hace 25.000 años el hombre solamente conocía aquello que veía, oía, tocaba, olía o
saboreaba en el territorio donde su familia extendida buscaba plantas y frutos comestibles
e intentaba matar animales para consumir su carne. ¿Qué le pasaría a usted por la cabeza
si uno de sus hijos contrajera fiebres, se debilitara y muriese? ¿Qué pensaría sobre las
sequías cuando las plantas se marchitaran antes incluso de madurar? ¿Qué pensaría del
estruendo del trueno, del destello de luz de un rayo, de la lluvia torrencial o de una
tormenta de nieve?
Imagínese que varias generaciones después, se da cuenta de que algunos de esos
fenómenos siguen un patrón cíclico. Que el día sigue la noche con una secuencia
predictiva y que esa secuencia es lo que proporciona el ritmo básico de la vida. El día es el
periodo durante el cual un disco amarillo cruza un cielo azul y proporciona calor y luz
para cazar y buscar alimento hasta que se hunde por el horizonte. La noche es el periodo
durante el cual el cielo está negro y un disco blanco, de tamaño semejante al amarillo,
cruza el cielo durante un tiempo aproximadamente similar. No da calor y apenas da luz; es
la hora de dormir. A diferencia del disco amarillo, el disco blanco mengua cada día un
poco hasta que se convierte en una fina tajada y luego desaparece hasta que vuelve a
aparecer y crecer y se convierte de nuevo en un disco completo, antes de empezar otra vez
el ciclo. Muchas generaciones más tarde, se da cuenta de que el número de días entre cada
luna llena es igual al del ciclo menstrual que se asocia con la fertilidad de las mujeres. De
ahí que la luna, razona, debe de estar relacionada con la fertilidad.
Como veremos más adelante, la luna fue un símbolo de fertilidad para muchas
sociedades humanas primitivas.
Su supervivencia depende de la fertilidad de las mujeres, que deberán producir
hijos sanos que sustituyan a los que mueran de pequeños, que mueran en batalla
defendiendo tanto el alimento como las mujeres, o que abandonen la banda. Alrededor de
la hoguera, usted o sus mujeres crearán un símbolo de lo que desean tallando una pequeña
pieza de marfil de mamut que muestra la vulva que usted penetra para plantar su semilla y
de la que emerge una criatura, junto con unos pechos voluminosos para criar a esa
criatura. Guardada en una bolsa o colgada del cuello de las mujeres mediante una tira de
piel, esa figurilla traerá buena suerte y ayudará a producir bebés sanos.
Estas figurillas, que aparecen ya 35.000 años atrás, aparecen descritas en el capítulo
26.[7]
Comprende que lo contrario a la vida es la muerte. Y reflexiona también sobre ello.
Sabe que usted, como todos los demás, acabará muriendo. Bien en batalla, bien como
resultado de las heridas sufridas en batalla, o de inanición si no consigue encontrar
comida, como consecuencia de fiebres que le impedirán comer, o, de un modo excepcional,
después de vivir mucho tiempo y encogerse en estatura y perder fuerza. Pero la muerte es
un hecho seguro. Que suscita, además, una pregunta tremendamente turbadora: ¿qué me
pasará cuando me muera?
Reconoce que lo que distingue los vivos de los muertos es que los vivos respiran y
los muertos no; sus cuerpos se descomponen.
La idea de que la respiración es la fuerza que anima el cuerpo o su espíritu aparece
prácticamente en todos los primeros lenguajes escritos.[8]
Afronta el conocimiento de la muerte, que resulta psicológicamente traumatizante,
llegando a la conclusión de que la respiración o fuerza vital va a parar a alguna parte una
vez abandona el cuerpo para que se descomponga. En su memoria, y también en los
sueños que tiene mientras duerme —el estado entre estar muerto y estar vivo—, ve cosas y
gente, incluso a sus padres ya muertos. La fuerza vital, o espíritu, de sus padres vive en
otro mundo, en un mundo de espíritus o de sueños.
Reflexiones similares lo llevan a la conclusión de que todos los seres vivos —como
los animales que caza o que le cazan, las plantas y los frutos que come, los árboles cuyas
ramas utiliza para construirse refugios, e incluso las montañas de las que fluye el agua que
le da vida— poseen una fuerza vital o espíritu.
Este tipo de pensamiento es el animismo, cuyas creencias persisten en la actualidad
en muchas formas, como el sintoísmo y las tradiciones de muchas tribus nativas
norteamericanas como los lacota siux o el Sueño de los aborígenes australianos.
Como usted no conoce nada más, este mundo de espíritus se extiende solamente
hasta los confines del territorio y el cielo que alcanza a ver. Usted y su familia
experimentan una identidad con un espíritu concreto de su hábitat, del que depende su
supervivencia. Si su territorio se encuentra en la Europa del periodo entre glaciaciones,
necesitará tener la capacidad de cazar y matar de un león, al que admira y teme, o del
jaguar, si se encuentra en América Central. O tal vez de una presa concreta, como la
manada de bisontes que suele cruzar su territorio cuando migra. O de una planta
comestible concreta, como el trigo salvaje, que siempre madura. Ese espíritu es sagrado y
su grupo impondrá un tabú sobre cómo hay que tratarlo. Lo representará adornándose con
la cabeza del animal, las hojas de la planta o tallando una imagen del mismo.
Estas creencias y costumbres, que refuerzan la solidaridad del grupo, constituyen el
totemismo, que siguen practicando hoy en día con diversos formatos algunos pueblos
tribales de África, Australia, Indonesia, Melanesia y América Central y del Sur.
Un miembro de su grupo se convierte en un experto en la inducción de estados de
sueño, o trance —lo que hoy conocemos como un estado de consciencia alterada—,
mediante largas sesiones de baile o tamborileo repetitivo, ayuno o ingesta de plantas
alucinógenas o de sus extractos. Le parece a usted que su espíritu abandona su cuerpo
para entrar en el mundo de los espíritus, donde busca la ayuda de los espíritus más
poderosos para expulsar los espíritus malignos cuando entran en su cuerpo y le provocan
fiebres y debilidad; reclama la presencia de su auténtico espíritu para estar fuerte de
nuevo. O invoca el espíritu del cielo para que llueva. O pregunta a sus antepasados qué
sucederá en el futuro. Usted respeta mucho a este miembro porque es una persona sabia, o
chamán.
El chamanismo, en sus diversas formas, sigue practicándose en la actualidad en
pueblos tribales, desde Siberia hasta las regiones árticas (como los evenki, por ejemplo),
pasando por América, donde los chamanes se conocen como médicos y África, donde se les
conoce como doctores brujos.
Aprende a fabricar y utilizar pigmentos para dibujar sobre los muros de piedra
representaciones de las cosas que piensa e imagina, y desarrolla una habilidad cada vez
mayor para expresar sus ideas y sus sentimientos en forma de sonidos y transmitirlos con
este método a los demás miembros del grupo. El pensamiento, el lenguaje hablado y el arte
evolucionan sinérgicamente y le permiten compartir sus experiencias, su imaginación y sus
pensamientos no solo con sus contemporáneos, sino también con las futuras generaciones.
En el clima fluctuante del Pleistoceno, vive un huracán que asola su territorio, pero
gracias a las historias que se han ido transmitiendo de generación en generación, sabe que
ha habido tiempos en los que el cielo no ha enviado lluvia y el sol ha quemado y
marchitado las plantas. Los espíritus están enojados y, si quiere sobrevivir, sabe que hay
que aplacarlos con ofrendas. Están evolucionando hacia dioses. El chamán intercede con
ellos en nombre del grupo. Está evolucionando hacia sacerdote.
Generaciones más tarde, con su territorio seco por la falta de lluvia, comprende
que si quiere tener alguna oportunidad de supervivencia, tendrá que marcharse con su
grupo en busca de terrenos más fértiles, lugares que descubrirá a partir de un manantial o
en el valle de un gran río. Aquí, no solo puede capturar peces, sino que además empieza a
reconocer patrones más cíclicos en la naturaleza. El trigo salvaje arroja semillas cuando
el día y la noche tienen más o menos la misma duración. La próxima vez que esto sucede,
observa que las lluvias han nutrido las plantas, que el sol las ha calentado y concluye que
por eso han crecido y madurado. Las plantas están listas para ser recogidas y consumidas.
Las crecidas del río se producen casi siempre en la misma temporada del año, irrigan las
tierras colindantes y dejan un fango muy fértil. Hay años, sin embargo, en que las crecidas
son enormes y destrozan las cosechas.
Unos 15.000 años (o 600 generaciones) después de los primeros destellos de
consciencia reflexiva, llega a la conclusión de que, en vez de estar moviéndose
constantemente en busca de alimento, le resulta más efectivo recoger esas semillas,
plantarlas en el suelo más fértil que encuentre, cosecharlas cuando maduren y almacenar
la cosecha en los recipientes que habrá construido con el fango del río y que habrá puesto
a secar al sol. Utilizará también esa creatividad y esa inventiva para fabricar ladrillos de
adobe.
Río abajo y lejos de las montañas, donde las lluvias son mucho menos copiosas,
piensa que podrá aumentar la cosecha si excava canales y se sirve del agua del río para
irrigar la tierra seca antes de plantar las semillas. Además, construye diques para proteger
las plantas de las crecidas destructivas del río.
Las tareas de irrigación, plantación y cosecha exigen el trabajo de muchas
personas. Reflexiona y llega a la conclusión de que en vez de luchar por la comida y
obligar a los hombres derrotados a marcharse en busca de nuevos territorios y nuevas
mujeres, tal vez tendría sentido que la gran familia permaneciese unida y cooperase en los
momentos en que las tareas exigen un trabajo intensivo, así como para construir
habitáculos permanentes con los ladrillos de adobe. El poblado crece. Posteriormente, cae
en la cuenta que, en vez de perseguir animales en migración y matar de vez en cuando
alguno para comer, sería más efectivo capturar unos cuantos, hacerlos criar y comérselos
cuando las crías ya estuvieran en condiciones de sustituir a los progenitores.
La comunidad agrícola gana en cohesión, no solo gracias a la cooperación, sino
también gracias a los rituales que llevan a cabo. En primavera, se invoca a la diosa de la
fertilidad para que las semillas recién plantadas den una cosecha abundante, en otoño se
celebra y se agradece la cosecha obtenida, y el solsticio de invierno es el momento de
convencer al dios sol de que no le abandone.
Esta transición hacia una comunidad asentada se produjo en distintos lugares en
distintos momentos y fue un reflejo de distintos entornos y climas. La evidencian los restos
de huesos, cosechas, utensilios, cerámica y edificios en lo que se clasifica fase neolítica de
estas distintas regiones. En algunos lugares, sin embargo, nunca llegó a producirse.
Survival International estima que en la actualidad, 150 millones de cazadores-recolectores
(un 2 por ciento de la población mundial) viven en pequeños grupos repartidos en más de
60 países de regiones como África ecuatorial y las selvas de América del Sur. De entre
todos ellos, se estima que existen unas 100 tribus con las que todavía no se ha entrado en
contacto, a pesar de haber sido divisadas de lejos o desde aviones.[9]
De los poblados agrícolas a las ciudades-estado y los imperios

Ahora que ya no padece hambre constantemente y no tiene que estar siempre en


movimiento, dispone de más tiempo para reflexionar e intercambiar ideas con los demás
miembros del poblado. Sus utensilios ya no se limitan a los que lleva siempre encima, de
modo que, en cooperación con los demás, inventa utensilios más efectivos, como arados
hechos con cornamentas que le ayudarán a plantar las semillas, piedras de molino para
moler el grano y recipientes de barro más grandes con fines de almacenaje; dispone
además de tiempo y posee la creatividad necesaria para decorar sus utensilios con
imágenes y símbolos. Dichos utensilios, junto con sistemas de irrigación cada vez más
completos, le permitirán extender la superficie de tierra cultivable.
Venera a sus padres, y a los padres de sus padres, por haberle enseñado a
sobrevivir y por ello les hace ofrendas en sus tumbas; incluso coloca en un lugar de honor
esa parte de ellos desde donde partieron los espíritus, el cráneo.
En uno de los poblados de Jericó, datado alrededor de 6.500 a. C., se descubrieron
cráneos enyesados adornados con conchas de cauri para simular los ojos, un hallazgo que
ha sido interpretado como evidencia de veneración de los antepasados, mientras que en las
excavaciones realizadas en Catal Hoyuk, Anatolia, un territorio que en la actualidad forma
parte de Turquía, también se han descubierto cráneos enyesados y pintados con ocre para
recrear las caras. La veneración del espíritu de los antepasados sigue vigente en muchas
religiones actuales, desde el sintoísmo en Japón y el hinduismo en India, hasta el
catolicismo en América Central, que asimila muchas tradiciones indígenas.
Se percata de que sus tierras de cultivo, aun ampliadas, carecen de algunos
recursos que otros poblados poseen y se le ocurre que sería beneficioso intercambiar sus
excedentes por esos otros recursos. Construye piraguas y balsas, y posteriormente
embarcaciones a vela para viajar por el río y comerciar con otras comunidades. Con ello,
no solo intercambiará materiales y artefactos, sino también ideas.
Construye muros de piedra alrededor del poblado para protegerlo de los grupos de
pastores nómadas que intentan saquear sus almacenes y de otras tribus que —por culpa de
cultivos intensivos, sequias, actividad tectónica, o cualquier otro desastre natural— se han
visto forzadas a abandonar su territorio e intentan invadir el de usted. Su poblado se ha
convertido en una ciudad amurallada.
Hasta ahora sus sacerdotes han utilizado la posición en el cielo del sol con relación
a una determinada montaña para poder predecir el momento más propicio para realizar
las ofrendas a los dioses en busca de la plantación y la cosecha óptimas. Siguiendo sus
instrucciones, les ayuda a construir montañas de piedra —piedras únicas o menhires, o
círculos de piedra— que les permitirán realizar predicciones más precisas tanto en estos
como en otros rituales asociados con fenómenos celestiales.
La pericia cazadora del león, la velocidad del caballo o las habilidades de
cualquier otro animal o ave han dejado de impresionarle. Usted es la única especie capaz
de matar a distancia; ha domado al caballo para montarlo; ha construido carruajes. Se
imagina a los dioses como los seres más poderosos imaginables: humanos con
capacidades extraordinarias, como el hombre que posee la pericia cazadora del león, el
hombre que posee la velocidad del caballo, el hombre que posee la vista del águila, la
mujer que posee el poder de fertilidad de la luna, la mujer que posee el poder de curación
de la serpiente que muda cada año su piel y se renueva con ello.
En una generación posterior, discernirá, o aprenderá de otros grupos, que si
encuentra unas piedrecillas de color dorado en el lecho de un río y las calienta al fuego,
forman un líquido que puede verter sobre un molde cerámico, donde se solidificará en un
metal brillante. Lo mismo sucede cuando calienta ciertas piedras de colores. Estos metales
—como el oro, el cobre y el estaño— no son lo bastante duros como para fabricar con ellos
utensilios útiles o herramientas, pero pueden moldearse y labrarse para fabricar lujosas
joyas y adornos.
Posteriormente, sus expertos artesanos descubren o aprenden de otros pueblos que
si mezclan algunos de estos metales líquidos, como el cobre y el estaño, el resultado se
solidifica en una aleación con propiedades superiores, como el bronce, que es muy duro y
puede trabajarse para obtener puntas y hojas afiladas. La ciudad utiliza esta tecnología
para producir armas y utensilios agrícolas más efectivos.
Más adelante, los artesanos descubren o aprenden a construir un horno lo bastante
caliente como para, a partir de una piedra de color óxido, obtener un metal plateado que,
a base de golpes de martillo, pueden moldear y recalentar para forjar utensilios y armas
de hierro que poseen las propiedades del acero actual.
La ciudad utiliza las nuevas tecnologías para ampliar la superficie de tierras
cultivadas. La población crece en consecuencia, aunque también se vuelve más compleja.
La inmensa mayoría se dedica a la agricultura y transmite a sus descendientes sus
conocimientos. Pero hay también artesanos y mercaderes que transmiten sus
conocimientos a sus descendientes, igual que hacen aquellos expertos en el arte de la
guerra para defender las tierras y conquistas otras ciudades y hacerse tanto con sus
recursos naturales, como con sus habitantes, a quienes convierten en esclavos o sacrifican
a los dioses. Y están también los sacerdotes, que predicen los momentos más propicios
para llevar a cabo los sacrificios y obtener la ayuda de los dioses para sobrevivir y
prosperar.
Los rituales no son suficientes para mantener unida a una población tan grande
como esta. Un gobernador sube al poder e impone leyes para impedir el caos. Que su
procedencia sea de la clase sacerdotal o de la clase guerra depende de si la mayor
amenaza para la supervivencia de la ciudad viene de las fuerzas de la naturaleza que
controlan los dioses o de otros pueblos. Normalmente la amenaza son otros pueblos. Una
vez en el poder, el gobernador, igual que los miembros de las demás clases, entrena a sus
hijos para que dominen sus habilidades, y esta vez las habilidades giran en torno a cómo
ejercer el poder; suelen incluir la utilización de la fuerza bruta para acabar con cualquier
tipo de disidencia.
Las evidencias de este patrón evolutivo general, dentro del cual existen variaciones
de todo tipo, se localizan en seis regiones, que en la actualidad son Próximo Oriente,
Egipto, Europa, el subcontinente indio, China y América Central. Las evidencias siguen
descubriéndose continuamente y en un futuro se incluirán, sin duda, otras regiones, como el
África subsahariana.
Oriente Próximo
Los poblados agrícolas más antiguos descubiertos hasta la fecha son los localizados
en el Levante, es decir, la región que bordea el Mediterráneo oriental y que comprende lo
que hoy en día es Israel, los territorios palestinos, Jordania, Líbano, Siria y el sur de
Turquía.
Muy probablemente, se desarrollaron a partir de los pueblos seminómadas
natufienses de esa región. Desde aproximadamente 9000 a. C, los manantiales de agua
dulce de Jericó, que hoy forma parte de los territorios palestinos, convirtió el lugar en una
zona de acampada atractiva para los cazadores-recolectores natufienses. Los restos
arqueológicos y de todo tipo indican que el lugar acabó transformándose en un
asentamiento agrícola de carácter permanente con viviendas circulares de unos 5 metros de
diámetro construidas con ladrillos de adobe y donde se practicaba el cultivo de cereales,
como el trigo y la cebada, y la crianza de ovejas y cabras.
Unos mil años más tarde, Jericó había crecido hasta convertirse en una ciudad
rodeada por una impresionante muralla de piedra coronada con una torre; se estima que la
población había pasado de 200-300 habitantes a 2.000-3.000. No existen nuevas evidencias
hasta finales del cuarto milenio a. C., cuando Jericó volvió a convertirse en una ciudad
amurallada; se sabe asimismo que las murallas se reconstruyeron en numerosas ocasiones.
Hacia 1900 a. C., los cananeos desarrollaron una ciudad que fue destruida entre
1550 y 1400 a. C.[10] Cuando el suceso quedó registrado varios siglos después, los escribas
hebreos responsabilizaron a su Dios del suceso. El Dios hebreo había dado órdenes al rey
israelita José para que sus guerreros marcharan en círculo alrededor de las murallas y
gritaran mientras siete sacerdotes hacían sonar sus trompetas, después de lo cual las
murallas se derrumbaron. José entró en la ciudad y se hizo con todos los objetos de oro,
plata, cobre y hierro mientras sus guerreros masacraban a todo ser viviente —hombres,
mujeres, niños y animales— como ofrenda a su Dios todopoderoso.[11] Posteriormente, la
ciudad fue reconstruida en las cercanías.
Este patrón de conquista, destrucción y reconstrucción, normalmente con un tipo de
asentamiento más sofisticado, se repitió varias veces, aunque carecemos de relatos escritos
que achaquen de nuevo el suceso a la intervención divina.
Encontramos un patrón similar en Mesopotamia, el área comprendida entre los ríos
Tigris y Éufrates, que incluye gran parte del Irak moderno y limita al norte con las
montañas de Armenia (parte de la actual Turquía), al este con la región montañosa del
Kurdistán iraní, y al oeste con los desiertos de Siria y Arabia Saudí. Era el Jardín del Edén
bíblico. Sin embargo, las condiciones de la zona no eran ni mucho menos idílicas. Una de
las hipótesis, que tiene divididos a los eruditos, es que un cambio climático global produjo
una transformación que redujo drásticamente las lluvias excepto en la zona más montañosa
del nordeste,[12] dejando el resto de la región sumida en veranos largos, secos y calurosos,
y sometida a las rápidas crecidas del Tigris, que provocaron inundaciones destructivas y
crearon una zona de marismas en el delta formado por la confluencia del Tigris y el
Éufrates en su desembocadura en el golfo Pérsico.
Los primeros asentamientos, como Jarmo, en el norte, datan probablemente de
alrededor de 7000 a. C. Evidencias no concluyentes sugieren que en las llanuras aluviales
del Éufrates, al sur de Mesopotamia, florecieron pequeños poblados agrícolas hacia 5800 a.
C.[13] Los pueblos del sur inventaron o desarrollaron tecnologías, como diques y canales
de irrigación, para ampliar la superficie de sus tierras de cultivo. Los sumerios inventaron el
torno de alfarero, lo que les permitió una producción más efectiva de recipientes cerámicos
con fines de almacenaje, y posteriormente los vehículos con ruedas. En el sur había una
importante carencia de determinados recursos naturales, como árboles que produjeran
madera adecuada para construcciones grandes, menas de metal y piedra, razón por la cual
los sumerios tuvieron que recurrir a saquear otras áreas y a desarrollar el comercio para
obtener tanto estos materiales como los productos producidos a partir de ellos.
Las nuevas tecnologías y el comercio impulsaron el crecimiento de los
asentamientos entre 4000 y 3000 a. C., transformándolos en ciudades socialmente
estratificadas y posteriormente en ciudades-estado, como Uruk y Ur, centradas en un
templo dedicado a un dios o diosa patrón que protegía la ciudad. Al principio, las ciudades
estaban gobernadas como una teocracia, liderada por un sumo sacerdote o sacerdotisa, en, y
con un líder laico, lu-gal (hombre fuerte), elegido por los ciudadanos para que gobernase
durante un año. Las guerras entre las pujantes ciudades llevó a que la mayor amenaza para
su supervivencia fueran los otros pueblos, no las fuerzas naturales, lo que dio como
resultado un cambio en el poder, que pasó mayoritariamente al lu-gal, que se estableció con
poder permanente, y posteriormente dinástico, momento en el cual el término lu-gal pasó a
significar «rey», el personaje que asumió también parte de las funciones sacerdotales.[14]
Siguieron conquistas e integraciones de otros pueblos, lo que llevó a que los
gobernadores dinásticos extendieran su control a toda la región, creando imperios que
fueron sucediéndose en el tiempo, como el acadio, el babilónico y el asirio, hasta que
Mesopotamia acabó conquistada por Alejandro Magno en 332 a. C.
Egipto[15]
Los restos predinásticos son escasos, abiertos a interpretaciones de todo tipo y de
datación incierta, pero por lo que parece, los primeros asentamientos neolíticos se
desarrollaron en las fértiles llanuras aluviales del Nilo en lugares como Merimde, en el
delta occidental del Bajo Nilo, desde 4750 hasta 4250 a. C., y en El-Badari y Asiut, en el
sur, o Alto Nilo, entre 4400 y 4000 a. C., y su existencia podría remontarse incluso a 5000
a. C. Los cementerios de la zona de El-Badari muestran restos de trigo, cebada, lentejas y
tubérculos, además de vacas, perros y ovejas, junto con restos cerámicos.
La datación de los primeros restos del pueblo Naqada, situado río arriba, es
controvertida y oscila entre 4400 y 4000 a. C., y su cultura se extendió a lo largo del Nilo
hasta cerca de 3000 a. C. Durante este tiempo, establecieron comercio con los pueblos
nubios del sur, los oasis del desierto del oeste y los pueblos mediterráneos del este. En
Hieracómpolis, al sur de Tebas, las excavaciones han revelado un patio de forma oval de 30
metros de longitud. Recorriendo uno de sus lados se encuentra lo que parece un canal de
desagüe lleno de huesos. En las proximidades se ha localizado asimismo un cementerio con
cuerpos mutilados, algunos con la cabellera cortada y otros apaleados hasta la muerte.
Manetón de Sebenitos, greco-egipcio que escribió a principios del siglo III a. C.,
afirma que el legendario rey Menes, del que no existen evidencias, unió los reinos del Alto
y el Bajo Nilo hacia 3100 a. C. Algunos arqueólogos piensan que se trata de un rey llamado
Narmer. Su punto de vista se basa en el descubrimiento de una paleta de pizarra datada en
el siglo xxxi a. C. La paleta está grabada por uno de sus lados con la imagen de un rey
sujetando por el pelo a un hombre al que está a punto de golpear con una masa, mientras
que el otro lado muestra al rey en procesión ceremonial y diez cuerpos decapitados con las
cabezas junto a los pies. Entre otros grabados destacan las imágenes que supuestamente se
interpretan como los símbolos del Alto y el Bajo Egipto así como jeroglíficos que se
interpretan como el nombre de Narmer.
Las tumbas de los sucesores dinásticos de Narmer incluyen víctimas con los dientes
manchados con sangre seca o cuyas posiciones sugieren que fueron enterrados vivos. Las
tumbas de los reyes son cada vez más grandes y majestuosas, hasta transformarse en
impresionantes pirámides de piedra.
El reino unido se enriqueció comerciando con sus excedentes de cereales y
desarrollando un ejército poderoso para defender el territorio y subyugar a otros territorios
y naciones para formar un imperio. La ocupación de Nubia en el sur, por ejemplo, le dio
control sobre las ricas minas de oro de la región y el monopolio del metal en el
Mediterráneo oriental. Sus artesanos cubrieron con oro monumentos como los obeliscos y
crearon suntuosos objetos funerarios (el sarcófago interior de oro de Tutankhamon pesaba
más de 110 kilos).[16]
El territorio estaba gobernado por un rey de carácter dinástico, que posteriormente
se conocería como faraón, que era venerado como un dios por estar considerado
responsable de la crecida anual del Nilo de la que dependía tanto la fertilidad de las
cosechas como la riqueza de Egipto; acompañaba el gobierno una clase administrativa,
constituida en gran parte por sacerdotes. La clase que seguía jerárquicamente a
continuación estaba integrada por comerciantes, artesanos e ingenieros, que eran los
encargados de diseñar los templos, cada vez más monumentales, y las tumbas piramidales.
La inmensa mayoría de la población, los campesinos, se situaba en un escalón inferior de la
jerarquía, que terminaba con los esclavos capturados de las naciones sometidas. Si las
impresionantes estructuras de piedra egipcias fueron construidas por gente que cooperó
voluntariamente a ello para honrar a sus dioses y sus reyes, o si lo hicieron ciudadanos
forzados y esclavos sigue siendo tema de debate.
El patrón a lo largo de 3.000 años y aproximadamente 30 dinastías muestra una
suerte fluctuante en la defensa y extensión del reino, luchas internas por el poder, caídas del
gobierno central para pasar a manos de líderes locales, batallas entre esos líderes locales,
reunificación con guerras, toma del poder por parte de nuevos pueblos como los cananeos o
los libios, o por invasores como los asirios o los persas que acabaron convirtiéndose en
faraones con carácter dinástico o en faraones marioneta, hasta que Alejandro Magno
conquistó Egipto. Después de la muerte de Alejandro, uno de sus generales, Ptolomeo, un
griego macedonio que había sido nombrado gobernador de Egipto, se autoproclamó rey en
305 a. C. e instituyó la que sería la última dinastía antes de que el territorio egipcio fuera
conquistado y anexionado a Roma en 30 a. C.
Europa
La cultura neolítica se extendió hacia el norte, hacia una Europa más fría y más
húmeda, donde las viviendas de adobe del Levante fueron sustituidas por viviendas
comunales de forma alargada, de tamaño más grande, junto con túmulos, o montículos
funerarios, construidos con tierra amontonada sobre estructuras funerarias de madera.
Una característica destacada son los cuatro tipos de monumentos megalíticos
construidos con grandes piedras toscamente talladas: la sepultura de corredor, la piedra
aislada o menhir, la hilera de piedras y el círculo de piedras.
El monumento de este estilo más famoso es el de Stonehenge, en el sur de Gran
Bretaña, en cuyo desarrollo se distinguen tres fases: un foso circular construido alrededor
de 2950 a. C., una serie de estructuras de madera del periodo comprendido entre 2900 y
2400 a. C., cuando el lugar fue utilizado como cementerio crematorio, y una tercera fase,
que va de 2550 a 1600 a. C. durante la cual se erigieron círculos concéntricos de piedras, el
más exterior de los mismos conectado mediante dinteles de piedra, dispuestos alrededor de
un altar de piedra, y una larga avenida de acceso.[17]
Pero tal vez los vestigios más reveladores de la vida neolítica en las islas británicas
sea un yacimiento descubierto muy recientemente, en el Ness of Brodgar, una zona de 2,5
hectáreas localizada en Orkney, un grupo de islas al nordeste de Escocia, que pudo estar
ocupada a partir de 3500 a. C. Se ha excavado tan solo una décima parte del yacimiento,
pero se han descubierto ya viviendas de piedra con techo de pizarra con las paredes
pintadas con pigmentos de colores, y lo que Nick Card, el coordinador de las excavaciones,
equipara con un templo: un edificio de piedra de 25 metros de largo por 19 metros de
ancho, con muros de casi 5 metros de grosor, que debía dominar las cercanas Rocas de
Stenness y el círculo de piedra conocido como el Anillo de Brodgar. El yacimiento está
rodeado por un grueso muro de piedra y, por lo que parece, estuvo habitado alrededor de
1.500 años.[18]
Anteriores también a Stonehenge son las numerosas sepulturas de corredor de
Irlanda.[19] Situadas en una colina dominando los fértiles terrenos agrícolas del valle del
río Boyne, a 50 kilómetros al norte de Dublín, la impresionante sepultura de corredor de
Newgrange esta datada en torno a 3200 a. C. Profusamente decorada con símbolos
grabados, sobre todo espirales, su descubridor, Michael J. O’Kelly, del University College
de Cork, estima que la construcción se prolongó durante 30 años. Los restos humanos se
incineraban, pero Newgrange es una tumba para muy pocas personas, como sucede con las
pirámides reales de piedra que se construyeron 500 años más tarde en Egipto, y tanto su
orientación como su diseño sugieren que el lugar era un centro ritual. Comentaré con más
detalle estos aspectos en una sección posterior, cuando trate del desarrollo de las creencias
y las religiones.
La evidencia de aleación de metales en Europa se remonta a 3200 a. C., en la isla
mediterránea de Chipre, cuyos artesanos combinaban el cobre de las minas de la isla con el
escaso estaño importado de tierras lejanas para producir artefactos de bronce. Los minoicos
de Creta, llamados así por su legendario rey Minos, controlaron gran parte del comercio del
bronce y utilizaron los beneficios obtenidos con ello para construir suntuosos palacios,
como el de Knossos.
El subcontinente indio[20]
Recientes investigaciones han alterado las antiguas ideas y dataciones sobre esta
región, en gran parte procedentes de las estimaciones llevadas a cabo por el alemán Max
Muller en 1860 y de las interpretaciones de los restos realizadas por los arqueólogos de la
época colonial británica. A pesar de que las dataciones de los restos del subcontinente indio
siguen siendo polémicas, parece ser que los residentes de las casas de adobe de Mehrgarh,
en lo que en la actualidad es la llanura del Kachi en Beluchistán, Pakistán, cultivaban trigo
y cebada y criaban ovejas, cabras y vacas desde 7000 a. C., existiendo evidencias de
fundición de cobre desde 5000 a. C. El área estuvo ocupada por asentamientos sucesivos
hasta alrededor de 2600 a. C.
Parece razonable suponer que fue la población Mehrgarh la que se extendió hacia el
sur, y posteriormente hacia el sudoeste y el nordeste siguiendo el cauce de los ríos del valle
del Indo, y la que dio origen a lo que se conoce como la civilización del valle del Indo, que
se desarrolló a partir de 3300 a. C. En su momento cumbre, dicha civilización ocupaba un
área de 1.250.000 kilómetros cuadrados del actual Pakistán y el noroeste de India y estaba
integrada por más de mil asentamientos. Entre ellos destacaban las ciudades de Harappa y
Mohenjo-daro, que presentan evidencias de ciudadelas en lo alto de las montañas,
planificación urbanística sofisticada, sistemas de tuberías y saneamiento, astilleros y
graneros. Establecieron relaciones comerciales por tierra y por mar con lugares tan remotos
como Mesopotamia, Persia y Asia Central.
Hasta el momento no se ha descifrado ningún escrito y no sabemos con seguridad
cómo estaban gobernadas estas ciudades. El poema épico sánscrito, el Majabhárata («Gran
historia de los bháratas», los legendarios primeros pobladores de India), cuya última y
ampliada versión fue compilada probablemente entre 400 a. C. y 400 d. C., describe una
batalla histórica entre primos, apoyados por distintos reyes aliados, por el derecho de
sucesión del trono del kuru. La batalla debió de tener lugar en o cerca del valle del Indo, y
la supuesta fecha de la misma oscila entre 950 a. C. (la fecha que apuntan los eruditos
europeos) y 5561 a. C. (la que sugieren los eruditos indios).[21]
Aparte de un rey de carácter dinástico apoyado por sus hermanos príncipes, el resto
de la jerarquía social puede deducirse a partir del sistema de castas que sobrevive aún hoy
en día en muchas zonas rurales de India y Pakistán. El sistema refleja una estratificación
social basada en funciones similar a la de otras civilizaciones antiguas examinadas hasta el
momento, con una casta sacerdotal (brahmanes), una casta guerrera (chatrias), una casta de
comerciantes (vaisias), una casta de campesinos (sudras) y, finalmente, los descastados o
intocables.
Las ciudades y los pueblos quedaron abandonados hacia 1900 a. C. Entre las
posibles causas se especula con desastres naturales, como actividad tectónica, la sequía de
los ríos o alteraciones en su curso, la sobreexplotación agrícola, y también la conquista y la
destrucción. Lo más probable es que la población se trasladara hacia el valle del Ganges, al
este de la región.
China[22]
Las evidencias de asentamientos agrícolas primitivos es escasa, pero los restos de
cerámica y de tumbas sugieren que se desarrollaron entre 8000 y 2000 a. C. en las llanuras
aluviales de los ríos Huang, o río Amarillo (norte de China), y Yangtzé (China central).[23]
Los restos de periodos posteriores insinúan que esos pueblos cultivaban arroz y mijo, y
domesticaban cerdos, pollos y búfalos de agua.
Las obras en bronce datan probablemente de alrededor de 2000 a. C. y se
desarrollan hasta finales del periodo Han, o 221 a. C., dando como resultado armas como
cabezas de lanza u objetos rituales como trípodes y vasijas decoradas con motivos como
demonios, animales simbólicos o símbolos abstractos.
Las primeras evidencias sólidas de gobierno las encontramos en Yin, cerca de la
moderna Anyang, en el norte de China, que fue capital a finales de la dinastía Shang.
Aparece un patrón que ya empieza a resultar conocido. La dinastía Shang, integrada por 31
reyes, gobernó desde alrededor de 1600 a. C. hasta 1046 a. C., un tiempo durante el cual
trasladó su capital en nueve ocasiones. Yin fue ocupada a partir del siglo xiii a. C. y ocupa
un área de forma ovalada de 9,75 por 3,75 kilómetros, que contiene un templo con restos de
sacrificios humanos, edificios residenciales, grupos de casas aristocráticas, talleres y
cementerios, con 11 tumbas reales que albergan en su interior cuerpos de soldados y de
caballos.
En 1046 a. C., Wu de Zhou, procedente del noroeste de China, conquistó el reino
Shang, que incorporó a su propio territorio, que tenía su centro en Fenghao, cerca de la
actual Xi’an, en el valle del río Wei. A la muerte de Wu, pasó a ser regente su hermano
menor, el duque de Zhou. Su figura fue posteriormente elevada a la categoría de mito y,
entre otras cosas, se le consideraba autor de la formulación de la doctrina del mandato
celestial, según la cual el cielo bendice la autoridad de un gobernador de carácter dinástico
siempre que sea justo, pero nunca la del gobernador injusto. Fue considerado como una
legitimación del derrocamiento de los Shang, que afirmaban gobernar por mandato divino.
La dinastía Zhou empleó un sistema feudal para administrar un imperio que
expandió hasta incorporar la mayor parte de la China actual. La dinastía vivió la
introducción de la metalurgia, los arados tirados por bueyes, la ballesta y el caballo como
medio de transporte.
América Central[24]
La datación de la América prehistórica también es problemática. Desde 1500 a. C.,
sino antes, los pueblos olmecas de las llanuras tropicales del sudeste de México,
empezando probablemente por el valle del río Coatzacoalcos, que desemboca en el golfo de
México, iniciaron los cultivos de maíz, judías, calabazas y otras plantas. Las crecidas
estacionales ofrecían allí un suelo fértil que atrajo grandes poblaciones, lo que llevó al
desarrollo de ciudades.
Entre los artefactos más característicos destacan cabezas gigantes esculpidas a partir
de bloques de basalto volcánico, que se supone que representan a los gobernantes, y
grabados que se interpretan como hombres-jaguar (humanos que se transforman en
jaguares), crías de hombre-jaguar sobre altares, lo que sugiere algún tipo de sacrificio,
además de representaciones de un juego de pelota e imágenes de matanzas de carácter
ritual, ejecutadas por los gobernantes, una actividad presente también en civilizaciones
centroamericanas posteriores. Esta civilización se prolongó durante varios miles de años
hasta desaparecer entre 400 y 350 a. C. La causa o causas de esta desaparición son
especulativas y similares a las que se sugieren para la civilización del valle del Indo.
Disponemos de más evidencias de la civilización maya, que se desarrolló en lo que
en la actualidad es Belice, Guatemala, el sudeste de México y la región occidental de
Honduras y El Salvador.
En su periodo clásico, que se prolonga desde 250 a. C. hasta 900 d. C., los mayas
construyeron centros ceremoniales que dieron origen a más de 40 ciudades que se tipifican
por una plaza central dominada por un templo situado en lo alto de una gran pirámide
escalonada, junto con un palacio y una gran cancha para jugar a la pelota; las ciudades se
construyeron principalmente con piedra caliza, extraída y trabajada con materiales de
mayor dureza, como el sílex. A pesar de los avances en astronomía y numerología (de los
que se hablará más adelante), no existen evidencias de que los mayas trabajaran los metales
o utilizaran la rueda, ni para la fabricación de objetos cerámicos ni para el transporte, a
pesar de que sí tenían «caminos blancos» (sacbeob, en la lengua maya del Yucatán), unas
pistas ligeramente elevadas sobre el nivel del suelo construidas con piedras y materiales de
desecho que cubrían con un estuco hecho con cal y que al parecer se utilizarían con fines
religiosos, militares y comerciales. Gran parte de esta civilización acabó también
desapareciendo, dejando muchas ciudades abandonadas a la vegetación de la selva. Entre
las posibles causas destacan la sobreexplotación agrícola, las sequias, la conquista y la
destrucción por parte de otros pueblos o la interrupción de las rutas comerciales como
consecuencia de guerras.
Pero ciudades como Chichen Itza, Uxmal y Mayapan, en las selvas del norte de la
península del Yucatán, siguieron prosperando durante varios siglos, probablemente después
de haber sido fundadas o conquistadas por los toltecas del norte. Las últimas construcciones
de Chichen Itza ya no están decoradas con motivos de serpientes, representando a Ixchel, la
diosa maya de la fertilidad y la medicina, sino con imágenes de una serpiente con plumas,
que representa al legendario dios-rey de los toltecas conocido por los mayas como
Kukulcán y por los aztecas como Quetzalcoatl. Las esculturas, los murales y los códices
escritos describen a guerreros que salen victoriosos de la batalla y representan a menudo un
expositor de cráneos, un elemento que suelen utilizar las culturas mesoamericanas para
exhibir la cabeza de los prisioneros de guerra u otras víctimas de sacrificios. Describen una
estratificación social similar a otras culturas antiguas, con un rey de carácter hereditario,
sacerdotes-astrónomos, nobles, campesinos y esclavos.
El desarrollo de la escritura

El registro visible del lenguaje sobre materiales como la piedra, la arcilla o el papel
es exclusivo de la especie humana. Permite la transmisión de ideas a grandes distancias de
espacio y tiempo. Sin este avance, las sociedades complejas y grandes no se habrían
desarrollado jamás.
La disposición de letras o símbolos en grupos o secuencias para expresar
significados complejos previamente definidos y comprendidos evolucionó desde las
representaciones pictóricas a las representaciones simbólicas de las cosas. Se desarrolló de
manera independiente en al menos tres lugares distintos en momentos distintos,[25]
normalmente para anotar las cantidades de productos agrícolas o artefactos comerciados o
tomadas a modo de impuestos o tributos para un gobernante, o para promulgar leyes, dejar
constancia de historias de veneración de dioses y gobernantes o anotar instrucciones para
celebrar rituales.
Como se ha comentado en el capítulo 26, la mayoría de lingüistas considera que el
primer sistema de escritura fueron los pictogramas cuneiformes sumerios, grabados en
tablillas de arcilla a partir de 3000 a. C., y los jeroglíficos egipcios, grabados en piedra a
partir aproximadamente de la misma época. Es discutible si la escritura egipcia se
desarrolló de forma independiente o bajo la influencia de la escritura sumeria.
Los escribas cretenses utilizaron una escritura jeroglífica indígena sobre tablillas de
arcilla a partir de 2200 a. C. Entre 1900-1800 a. C., esta escritura se desarrolló en lo que se
conoce como Lineal A, cuyo contenido sigue sin poder descifrarse y que presumiblemente
transcribía el lenguaje minoico. El Lineal B aparece en el Peloponeso a partir de 1500 a. C.,
así como en los palacios cretenses; se utilizó para escribir en griego micénico y es varios
siglos anterior al alfabeto griego clásico.
En Harappa, en el valle del Indo, se descubrieron inscripciones de tipo jeroglífico en
sellos rectangulares hechos con piedra blanca y también en utensilios, tablillas, platos de
cobre y cerámica; su datación se sitúa hacia 2500 a. C., pero sigue sin descifrarse si se trata
de una proto-escritura o de escritura. El sanscrito, el idioma clásico de India, tiene sus
raíces en el sanscrito védico, idioma en el cual están escritos los himnos a los dioses más
antiguos, pero los eruditos occidentales e indios no se ponen de acuerdo en cuanto a si ese
lenguaje se desarrolló a partir de idiomas locales o fue importando a India por los arios que
invadieron el territorio procedentes de lo que ahora es Irán. De todos modos, la hipótesis de
la invasión aria tiene escasa base a nivel de evidencias, por lo que el origen del sanscrito
sigue sin estar claro.
En China, la escritura se inventó de forma independiente y las primeras evidencias
descubiertas hasta la fecha consisten en inscripciones en los lomos del ganado y en
caparazones de tortuga utilizados en rituales de adivinación y que datan de 1250 a. C.,
cuando la dinastía Shang ostentaba el poder. La escritura china que se desarrolló
posteriormente no emplea un alfabeto con un número limitado de caracteres, como los
idiomas occidentales, sino que cada carácter representa normalmente una silaba del chino
hablado y puede ser tanto una palabra como parte de una palabra de múltiples silabas, lo
que da como resultado más de 5.000 caracteres.
La escritura se desarrolló de forma independiente en América Central. Una losa de
piedra descubierta en el estado mexicano de Veracruz y datada hacia 900 a. C. ha sido
declarada la muestra de escritura más antigua del continente por el patrón secuencial de los
62 signos que tiene grabados. A pesar de que sigue todavía sin descifrarse, ha sido atribuida
a los olmecas.[26] El lenguaje escrito antiguo mejor entendido de la región es el maya del
periodo clásico (entre 200 y 900 d. C.), calificado a menudo de escritura jeroglífica. Se ha
encontrado grabado en madera y piedra, pintado en cerámica y muros y escrito en unos
pergaminos hechos con corteza de árbol que se conocen como códices. Estos últimos
fueron quemados, en su mayoría, por orden de Diego de Landa, el cura franciscano
responsable de convertir a los mayas al catolicismo, aunque algunos ejemplares se salvaron.
El más extenso es el Códice de Dresde, que recibe su nombre por la biblioteca donde se
conserva, datado hacia los siglos xi o xii de nuestra era, que se considera una copia de un
texto original escrito entre 300 y 400 años antes.[27]
Los cimientos de la astronomía y las matemáticas

Lo que en la actualidad consideramos las disciplinas científicas o intelectuales de la


astronomía y las matemáticas emergieron con fines prácticos y sus orígenes están
íntimamente ligados a las creencias de los primeros humanos.
Los monumentos megalíticos de Europa demuestran conocimientos de astronomía.
En 1963, el astrónomo Gerald Hawkins publicó un artículo en Nature en el que utilizaba
modelos de simulación por ordenador para mostrar los fenómenos astronómicos vistos
desde Stonehenge en 1500 a. C. para defender que el monumento estaba orientado con 13
sucesos solares y 11 lunares y que su diseño permitía la predicción de los eclipses lunares.
[28] La última hipótesis, defendida por el arqueólogo de la Universidad de Sheffield, Mike
Parker Pearson, es que Stonehenge fue más un lugar donde celebrar los rituales
relacionados con el solsticio de invierno que con el solsticio de verano, como antiguamente
se creía.
Lo que no deja lugar a duda es el diseño de la sepultura de corredor de Newgrange,
Irlanda, datada por radiocarbono en 3200 a. C. y, por lo tanto, anterior a Stonehenge. El día
del solsticio de invierno, poco después de que amanezca, la luz del sol se filtra por una
abertura en la roca situada justo por encima de la puerta de la tumba y proyecta un haz
finísimo a lo largo de los 18 metros de longitud del corredor hasta alcanzar la piedra hueca
que ocupa el centro de la cámara, donde se supone que se conservaban los restos
incinerados. Durante unos minutos, la proyección se amplía hasta crear un haz de luz de 17
centímetros de ancho que ilumina la totalidad de la piedra central, junto con las intrincadas
espirales y demás grabados que decoran la cámara, además de bañar las cámaras laterales y
el techo abovedado con un resplandor dorado, antes de volver a estrecharse y dejar de
nuevo la sepultura sumida en la oscuridad.[29]
Varios «círculos» megalíticos europeos, incluyendo el anillo interno de monolitos
de Stonehenge, tienen en realidad forma ovoide, lo que sugiere un conocimiento práctico
del teorema de Pitágoras.
Para contar cantidades grandes, los sumerios inventaron un sistema sexagesimal, o
de base 60, que utilizamos aún hoy en día para dividir el minuto en 60 segundos, la hora en
60 minutos, el día en 24 horas, el círculo en 360 grados, el pie en 12 pulgadas, etc. Sus
sucesores, los babilonios, adoptaron este sistema y desarrollaron la aritmética, la algebra, la
trigonometría y la geometría con fines prácticos: comercio, topografía, diseño de edificios y
división de campos de cultivo. Miles de tablillas de arcilla del periodo babilónico antiguo
(2000-1600 a. c.) muestran el resultado de cálculos de ecuaciones lineales y de segundo
grado, así como de fórmulas geométricas; muestran también tablas de multiplicar y tablas
de potencias, raíces cuadradas y números recíprocos. Los babilonios conocían
probablemente el teorema que Occidente atribuye a Pitágoras. La tablilla Plimpton 322,
datada en 1700 a. C., más de mil años antes de que naciera Pitágoras, lista los valores del
cuadrado de la hipotenusa de un triángulo rectángulo como la suma del cuadrado de los
otros dos lados (a2 + b2 = c2).
A partir del siglo xii a. C., los babilonios empezaron a organizar sus observaciones
del firmamento y sus adivinaciones en una serie de tablillas cuneiformes conocidas como el
Enu-ma Anu Enlil, un nombre que hace referencia al dios del cielo y rey de los dioses, Anu,
y al dios del aire, Enlil. Produjeron asimismo catálogos de estrellas, como el Mul Apin, que
contiene descripciones del sol, la luna, las constelaciones, las estrellas y los planetas
asociados a sus dioses. Su objetivo era astrológico: predecir fenómenos celestiales, como
los eclipses y el movimiento de los planetas por la esfera celeste, que interpretaban como
presagios que indicaban las intenciones de sus dioses.
Estos catálogos de estrellas fueron posteriormente adoptados y ampliados por los
griegos y luego por los romanos, lo que legó a la astronomía moderna el nombre de los
planetas en honor a los dioses romano —Mercurio, Venus, Marte, Júpiter, Saturno, Urano y
Neptuno— y el nombre de las constelaciones con el equivalente latino a su nombre
babilónico, como Tauro (el toro) que marca el equinoccio de primavera, Leo (el león) que
marca el solsticio de verano, Escorpio (el escorpión) que marca el equinoccio de otoño y
Capricornio (la cabra) que marca el solsticio de invierno.[30]
Las excavaciones de Harappa, Mohenjo-daro y otros yacimientos de la civilización
del valle del Indo (entre 3300 y 1700 a. C.), han revelado la utilización de las matemáticas
con fines prácticos y religiosos. Los harappanos, por ejemplo, tenían un sistema de pesos y
medidas basado en una serie decimal.
Los Sulbasutras, que contienen instrucciones para diseñar los altares de fuego que
más agradan a los dioses védicos de India, muestran cómo construir un cuadrado cuya área
sea equivalente a la de un rectángulo, lo que implica los resultados del teorema de
Pitágoras, cómo construir un cuadrado cuya área sea equivalente a la de un círculo, lo que
implica cálculos que dan un valor aproximado a π (calculamos πr2 como el área de un
círculo de radio r), y la suma de proporciones que da un valor notablemente preciso de la
raíz cuadrada de 2.[31]
Muchos eruditos occidentales consideran que estos conocimientos tuvieron su
origen en Babilonia y llegaron desde allí a India mil años después. Sin embargo, Subhash
Kak, profesor Regents de Ciencias computacionales de la Oklahoma State University,
defiende que los estudios de arqueo-astronomía —el análisis por ordenador de las
posiciones de las constelaciones vistas desde distintos lugares en distintos momentos del
pasado— que correlacionan los restos arqueológicos con los textos sanscritos, demuestran
que los Sulbasutras tienen la misma antigüedad que los cálculos babilónicos. De un modo
similar, sostiene que el Vedanga Jyotisa, un manual astronómico védico, está datado
alrededor de 1300 a. C.[32]
En Yin, en el norte de China, la que fuera la capital a finales de la dinastía Shang, se
ha encontrado una inscripción en un hueso oracular que relata un eclipse lunar que tuvo
lugar el quinceavo día de la doceava luna del año veintinueve del reinado de Wu-ding, que
se correspondería con el 23 de noviembre de 1311 a. C.[33] Para cada dinastía, los
astrólogos de la antigua China preparaban calendarios detallando los fenómenos celestiales
así como indicando las fases de la luna y del año solar para planificar las temporadas
agrícolas y poder realizar augurios.
Durante lo que se conoce como periodo de los Reinos Combatientes (475-221 a.
C.), se llevaron a cabo observaciones astronómicas detalladas, entre las que destacan los
catálogos de estrellas atribuidos a los astrónomos/astrólogos Shi Shen y Gan De. En su
mayoría no han llegado hasta nosotros, pero el Gran tratado sobre astrología de la era
Kaiyuan de la dinastía Tang, compilado entre 714 y 724 d. C., incluye algunas copias. Las
cartas astrales y los listados de sucesos astronómicos como eclipses, cometas y novas se
expanden desde el periodo Han (206 a. C. – 220 d. C.) en adelante.[34]
La preocupación maya por la predicción de los ciclos naturales de los que creían
que dependía su supervivencia los llevó a calcular un año solar, probablemente en Copán,
entre 300 y 900 a. C., de 365,2420 días, una cifra más exacta que la del calendario
gregoriano utilizado actualmente en Occidente. Utilizaban tres calendarios: uno civil,
llamado Haab de 365 días, uno sagrado llamado Tzolkin de 260 días (que es el periodo
entre los dos momentos en que el sol alcanza su cénit en Copán), y un tercer calendario más
largo calculado como el mínimo común múltiplo de los dos primeros (el mínimo común
múltiplo de 365 y 260 da un número de días que equivale aproximadamente a 52 años).[35]
Los sacerdotes-astrónomos utilizaban estos calendarios para determinar el momento
propicio para actividades como la cosecha y la celebración de rituales. Para realizar los
cálculos y las predicciones a largo plazo, los mayas concibieron un sofisticado sistema de
numeración de base 20 (el europeo actual es un sistema decimal, o de base 10) que emplea
el concepto del cero, que ni los griegos ni los romanos inventaron para sus sistemas de
numeración.
Los códices que han llegado hasta nuestros días muestran que los mayas tenían
catálogos estelares y tablas que mostraban, entre otras cosas, la predicción de eclipses, la
aparición de Venus como el lucero del alba (un buen augurio para emprender la guerra) y el
movimiento retrógrado de Marte.[36]
El desarrollo de las creencias y las religiones
En el capítulo 2 he resumido los nueve temas principales que se evidencian en los
mitos de la creación de los distintos pueblos durante la fase de pensamiento primitivo y he
sugerido que en su mayoría se explican por una falta de comprensión de los fenómenos
naturales aunada con necesidades políticas y culturales. Estas conclusiones se ven
reforzadas por lo que sabemos acerca del desarrollo de otras creencias y religiones que se
produjeron en distintas regiones y en distintos momentos durante esta fase.
Las creencias relacionadas con las pinturas rupestres y las figurillas descubiertas en
Europa y datadas hace alrededor de 35.000 años estaban relacionados con el animismo, el
chamanismo, el totemismo y la veneración de los antepasados. Estas creencias
evolucionaron a partir de que los humanos se establecieron en asentamientos fijos. Cuando
los poblados agrícolas se transformaron en ciudades con jerarquías sociales y finalmente en
imperios, los espíritus evolucionaron hacia un panteón de dioses que reflejaba las
necesidades y la jerarquía de esas organizaciones: la diosa de la fertilidad fue perdiendo
poco a poco su posición dominante a favor de un dios masculino del cielo cuyo poder para
desatar rayos y truenos era un reflejo del poder del rey-guerrero que defendía la ciudad y
ampliaba las tierras de cultivo.
En Europa, a partir de 3200 a. C., el alineamiento de megalitos con fenómenos
celestes como los solsticios, junto con evidencias de cremaciones o enterramientos rituales,
elementos funerarios y muestras artísticas como las espirales exquisitamente grabadas y
elaboradas que cubren muchas sepulturas de corredor, indican la creencia en una vida
después de la muerte y en la existencia de seres o dioses sobrenaturales. El diseño de la
sepultura de corredor de Newgrange, por ejemplo, sugiere la creencia en una comunión
entre el espíritu del gobernante incinerado y el dios sol. Estas creencias son explícitas en la
literatura funeraria del antiguo Egipto.
El primer ejemplo, conocido como los Textos de las Pirámides, está datado entre
2400 y 2300 a. C. y fue grabado en las paredes de las pirámides y los sarcófagos de los
reyes de las primeras dinastías; los textos incluyen hechizos y conjuros para garantizar el
paso del rey al más allá, donde Ra, el dios del sol, reina sobre los cielos y es referido a
veces como el creador y padre de todas las cosas.
Estos textos evolucionaron hacia lo que se conoce como los Textos de los
Sarcófagos, de la época del Imperio Medio (hacia 2000 a. C.), escritos tanto en las
sepulturas de los reyes como en las de individuos ricos, y posteriormente en los textos
escritos sobre papiro guardados en el interior del sarcófago de la momia que encontramos
en tiempos de la dinastía XVIII (1580-1350 a. C.), que incorporan extractos de los Textos
de las Pirámides y de los Sarcófagos y cuyo conjunto se conoce como el Libro de los
Muertos.
Amenhotep IV, que reinó aproximadamente entre 1370 y 1358 a. C., propuso el
monoteísmo a partir del quinto año de su reinado, momento en el cual rechazó como
superstición el panteón de dioses tradicionales basados en las fuerzas naturales y
representados como medio hombre, medio animal o pájaro. El dios principal era entonces
Amón-Ra, el dios local Amón de la capital del reino, Tebas, que se había convertido en el
rey de los dioses y estaba identificado con el dios sol, Ra, después de que el gobernador de
Tebas derrotara al último rey hicso de Egipto y fundara la dinastía XVIII. Amenhotep IV
declaró que solo existía un dios, el dios sol, fuente suprema de luz y vida, que se
representaría únicamente como el disco solar, Atón, y que él era hijo de Atón, razón por la
cual sería conocido como Akenatón. Para superar la oposición de los ricos y poderosos
sacerdotes de Amón-Ra, Akenatón trasladó la capital desde Tebas a una nueva localización
a medio camino entre Tebas, en el Alto Nilo, y Menfis, en el Bajo Nilo, donde construyó
una nueva ciudad dedicada exclusivamente a Atón.
Pero el monoteísmo no sobrevivió a su muerte, y tampoco la ciudad. Los sacerdotes
de Amón-Ra se vengaron declarando hereje a Akenatón e intentaron eliminar cualquier
rastro de su existencia. Los egipcios retomaron entonces el panteón de dioses, en el que el
dios protector de la ciudad de quien ocupaba el trono pasaba a ocupar el puesto de dios del
cielo.[37]
Un patrón similar se observa cuando una ciudad-estado conquista a otra y, a partir
de allí, desarrolla un imperio. Con frecuencia, los conquistadores asimilan dioses del
pueblo vencido pero elevan a su dios local a dios principal, al que identifican con el dios
del cielo que suele ser también el dios de la guerra. La adoración al dios del cielo como
principal protector y como dios supremo de los demás dioses es común en muchas
sociedades, con ejemplos como Indra en India, Zeus en Grecia, Júpiter en Roma, Thor en
Escandinavia, etc.
Los textos religiosos más antiguos del mundo son los Vedas de la India,
posiblemente compilados durante dos mil años a partir de 4000 a. C.[38] La primera parte
de los textos, conocida como karma-kanda, son himnos y comentarios de rituales que
describen los devas —dioses y diosas— como poderes elementales, liderados por Indra, y
entre los que destacan Agni, dios del fuego, Usha, diosa del amanecer; Surya, dios del sol; y
Soma, dios de la bebida embriagadora (que probablemente tenía cualidades alucinógenas y
bebían los sacerdotes para tener visiones).[39] Diversas escuelas védicas actuales defienden
el significado oculto de los himnos y sostienen, por ejemplo, que Indra representa los
órganos humanos responsables del sentido y la acción. Son tesis poco convincentes; no
existen evidencias de que los himnos estuvieran concebidos, o entendidos en su momento,
como algo más de lo que son. No es el caso de los Upanishads, visiones de los videntes que
tradicionalmente van anexos a los Vedas. Muchos son explícitamente alegóricos y los
consideraré en el siguiente capítulo.
En China, el 60 por ciento de los huesos oraculares recuperados datan de tiempos
del reinado de Wu-ding (aproximadamente 1250-1192 a. C.). El panteón de Wu-ding estaba
dominado por sus antepasados y algunas de sus consortes, además de dioses relacionados
con la naturaleza como el Río y la Montaña. El dios más importante era Di (señor) que,
como el rey, gobernaba por encima de todo; podía determinar el resultado de una guerra,
del tiempo, de la cosecha y el destino de la capital. A pesar de que los príncipes tenían
derecho a interpretar los huesoso oraculares, solo el rey podía comunicar con Di.
El tamaño y la disposición de las tumbas reales, su riqueza mobiliaria, que incluye
indicios de numerosos sacrificios humanos, sugiere que el rey era el punto de contacto entre
los humanos y el mundo de los dioses, y que las tumbas eran lugares de culto. John
Lagerwey, de la Universidad de Hong Kong, y Marc Kalinowsky, de la Ecole Pratique des
Hautes Etudes de París, sostienen que el culto a los antepasados reales, con todos sus mitos
y rituales, se utilizaba para legitimar el poder del rey y regular la conducta de las masas.
[40]
Seguimos hoy en día viendo prácticas de este tipo. En 2012, los jefes militares de la
república comunista de Corea del Norte, dispusieron tres días de rituales masivos para
conmemorar el ascenso al poder de Kim Jong Un, el Gran Sucesor, después de la muerte de
su padre, Kim Jong Il, el Amado Líder, de quien se decía que había nacido en una montaña
sagrada. Él, a su vez, había sucedido a su padre, Kim Il Sung, que había gobernado durante
46 años después de ser nombrado primer ministro por la Unión Soviética y haberse hecho
posteriormente con el poder absoluto del país como Presidente Eterno y Gran Líder. La
sepultura con su cuerpo momificado ocupó un lugar de honor en uno de esos rituales
masivos.
El culto al antepasado persiste en la actualidad entre muchos mayas. Por lo que a los
antiguos mayas se refiere, sus creencias, deducidas a partir de los edificios, los grabados,
los libros y los códices que han llegado hasta nosotros, además de los relatos de los
conquistadores españoles, varían con el tiempo, el lugar y los dialectos que dan nombres
distintos a cosas similares. Indican que todo fenómeno natural del que dependía su
supervivencia tenía un espíritu que evolucionó con el tiempo hacia dios o diosa y cuya
importancia variaba según cual fuera el entorno.
Después de que los conquistadores españoles los obligaran a aceptar el catolicismo,
muchos mayas identificaron a sus dioses como ángeles y santos católicos, y las festividades
católicas adoptan hoy en día un formato indiscutiblemente maya. Tanto el día de Todos los
Santos como en el aniversario de la muerte de un antepasado, es costumbre dejar comida y
bebida en un altar de la casa dedicado a un santo católico, o en la tumba del antepasado,
para el uso y disfrute del espíritu del fallecido.[41]
Como se comentó en el capítulo 2, el monoteísmo reapareció cerca de 700 años
después de que Akenatón realizara el primer intento, cuando José, rey de Judá, quiso
legitimar y santificar la unión de Judá con el reino derrotado de Israel bajo su único y
absoluto poder.[42]
Igual que sus contemporáneos, las distintas tribus hebreas veneraban a muchos
dioses, entre los que destacaban Asherah, Baal, Anath, El y Dagon. Su Biblia fue escrita
después de que la religión oficial se convirtiera en un monoteísmo que era un reflejo de un
gobernante patriarcal que defendía a su pueblo pero que ejercía la venganza si alguien
desobedecía sus leyes. Resulta instructivo ver cómo se gestionan los demás dioses. En
algunos libros, como el Segundo Libro de los Reyes, Dios condena y castiga la adoración a
otros dioses.[43] En otros, Dios se muestra superior a los demás dioses, como en el Éxodo,
cuando Aarón y Moisés le piden al rey de Egipto que libere a su pueblo de la esclavitud
porque es lo que su Dios desea. Siguiendo las instrucciones de Dios, Aarón arroja su vara al
suelo y se transforma en una serpiente. Los magos del rey arrojan a continuación sus varas
al suelo y se transforman también en serpientes. Pero la serpiente de Aarón devora a las
demás, lo que demuestra que su Dios es más poderoso. Después de que el rey se siga
negando a liberar a los israelitas, su Dios sigue ganando más concursos de magia contra los
sacerdotes egipcios, hasta hacer caer plagas sobre Egipto y provocar la muerte de todos sus
primogénitos.[44]
En algunos libros, otros dioses aparecen sometidos al único Dios. Ezequiel tiene una
visión en la que se ve envuelto en fuego como una pieza de bronce refulgente y con cuatro
caras: la de un león, un toro, un águila y un ser humano (el león era el símbolo totémico del
dios de la tribu de Judá, el toro el del dios de las tribus del norte y el águila el de la tribu de
Dan).[45]
Otros libros degradan a los dioses a la corte de ángeles celestiales que rodean al
Señor y lo alaban. Isaias los describe como criaturas de fuego con seis alas.[46] Algunos
ángeles tienen nombre y tienen asignadas tareas específicas, como Gabriel, el mensajero
que explica al profeta Daniel el significado de sus visiones;[47] Miguel, el ángel de la
guardia de Israel, que ayuda a otro ángel a luchar contra el ángel de la guardia de Persia;
[48] y Satanás, que cuestiona las órdenes de Dios.[49]
Conclusiones

1. Durante la mayor parte del tiempo transcurrido desde que emergió del hominino,
hace aproximadamente 25.000 años, el humano moderno ha vivido como cazador-
recolector y ha vivido en pequeños grupos integrados por la familia extendida en los que la
competencia por la supervivencia con otros grupos similares y con los depredadores dio
como resultado una tasa de mortalidad elevada.
2. Los primeros destellos de consciencia reflexiva evolucionaron muy lentamente
hasta hace aproximadamente 10.000 años, momento en el cual los humanos inventaron la
agricultura como un método de sustento más efectivo que la caza y la recolección y
comprendieron los beneficios de la cooperación, lo que los llevó a establecerse en poblados
agrícolas más grandes. Este avance se produjo en distintos lugares y en distintos momentos,
y en algunos lugares no ha llegado a producirse nunca.
3. Con más oportunidades para reflexionar y transmitir ideas a través del dibujo, el
habla y la escritura, los humanos de estas comunidades agrícolas cooperaron para inventar
tecnologías que ayudaron a mejorar y ampliar el tamaño de sus tierras de cultivo, y
empezaron a cooperar con otros asentamientos para comerciar tanto bienes como ideas, lo
que permitió el crecimiento de los poblados tanto en tamaño como en complejidad.
4. A pesar de que la cooperación había empezado a evolucionar, chocaba
constantemente con el instinto de competencia arraigado durante millones de años de
antepasados pre-humanos; como consecuencia de ello, abundaron las luchas por el control
de los poblados y sus recursos, tanto dentro de los asentamientos como con otros poblados.
El resultado fue la centralización y la colaboración forzada.
5. A medida que los asentamientos crecieron, fueron desarrollando una jerarquía
social que reflejaba las distintas habilidades transmitidas de padres a hijos: gobernantes,
sacerdotes, guerreros, comerciantes y artesanos, campesinos y esclavos. Los poblados
dieron lugar a ciudades gobernadas autocráticamente, luego a ciudades-estado y finalmente
a imperios, que vivieron épocas de esplendor y de caída. El patrón general en todo el
planeta fue de un incremento de tamaño, complejidad y centralización de las sociedades
humanas.
6. La evolución del pensamiento primitivo estuvo íntimamente relacionada con la
evolución de creencias supersticiosas surgidas de la imaginación, combinadas con la falta
de comprensión de los fenómenos naturales y el miedo a lo desconocido. A partir del
animismo, el totemismo y el culto a los antepasados de los cazadores-recolectores, las
creencias dieron paso a religiones[50] organizadas que fueron un reflejo del crecimiento en
tamaño, complejidad, estructura y especialización de las sociedades humanas. Las
religiones evolucionaron a partir del culto a una diosa de la fertilidad, pasaron por el
politeísmo y por los panteones gobernados por un poderoso dios del cielo y de la guerra,
hasta llegar al monoteísmo patriarcal, donde todos los dioses quedan sometidos a un Dios
único o degradados a la categoría de ángeles.
7. Al aplicar la consciencia reflexiva a la concepción de tecnologías para la
supervivencia y la reproducción, así como destinadas a influir a las fuerzas naturales que
supuestamente determinaban estos factores, el pensamiento primitivo sentó las bases del
arte, la música el lenguaje hablado y escrito, las matemáticas y la astronomía.
8. A pesar de que muchas ideas e invenciones se difundieron y desarrollaron
mediante transmisión cultural, existen casos evidentes de evolución convergente o paralela,
ejemplificados por la evolución independiente de la escritura y la evolución independiente
de la astronomía y los sistemas numéricos.
9. Esta primera fase de la evolución humana, el pensamiento primitivo, se
caracteriza, pues, por la necesidad de sobrevivir y reproducirse, por el dominio de un
instinto competitivo profundamente arraigado sobre la recién surgida cooperación, y por la
superstición.
La figura 27.1 ofrece una representación simplificada de la evolución de algunas de
las principales ramas del pensamiento primitivo que siguió a la emergencia de la
consciencia reflexiva. No se trata de un diagrama de árbol convencional, como podría ser
un árbol genealógico con relaciones fijas, sino de una imagen bidimensional de un proceso
dinámico de cuatro dimensiones en el que las ramas y las sub-ramas no solo cambian con el
tiempo —desarrollándose, ramificándose más aún o marchitándose, quedándose en un
estado moribundo o muriendo—, sino que además interactúan con otras ramas para
hibridarse, mutar o generar una rama nueva.

Por ejemplo, la imaginación —la capacidad de la mente para formar imágenes,


sensaciones e ideas no vistas ni experimentadas hasta el momento— no solo dio lugar a
creencias supersticiosas, como la de un espíritu que habita en el cuerpo de un hombre y en
la cabeza de un león, sino que además interactuó con la creatividad para producir objetos
prácticos nuevos, como la rueda, mientras que, por otro lado, la creatividad dio también
lugar a cuestiones no prácticas, como el arte abstracto.
La inventiva —la capacidad de crear objetos nuevos— podría ser resultado de la
interacción entre creatividad e imaginación, pero podría serlo también de la
experimentación, como sucede con el proceso de prueba y error consistente en combinar
cobre líquido y estaño en distintas cantidades para producir una aleación, el bronce, con
propiedades superiores a cualquiera de sus dos integrantes para la fabricación de utensilios
y armas.
La figura 27.1 muestra también el instinto, que llevaba varios millones de años
arraigado en nuestros antepasados homínidos.
Instinto: respuesta innata e impulsiva a los estímulos, normalmente determinada
por necesidades biológicas como la supervivencia y la reproducción.
El instinto no disminuyó cuando la consciencia reflexiva emergió de la consciencia
para distinguir al Homo sapiens de las demás especies. Más bien al contrario, incluso hoy
en día el instinto sigue siendo una fuerza importante que hay que tener en cuenta cuando
intentamos comprender la conducta humana.
[1]Hawks, John, et al., «Recent Acceleration of Human Adaptive Evolution»,
Proceedings of the National Academy of Sciences, 104: 52, 2007, pp. 20753–20758.
[2]Jorde, Lynn B. y Wooding, Stephen P. «Genetic Variation, Classification and
“Race”», Nat Genetics, 36, 2004, pp. 528–533.
[3]Jones, Steve, «Is Human Evolution Over?», UCL Lunchtime Lecture, Londres,
25 de octubre de 2008.
[4]Keeley (1996).
[5]LeBlanc y Register (2003).
[6]Hill y Hurtado (1996).
[7] Véase página 697.
[8] Véase página 317.
[9]http://www.survivalinternational.org/tribes, consultado el 4 de mayo de 2014.
[10]http://www.britannica.com/EBchecked/topic/302707/Jericho, consultado el 4 de
mayo de 2014.
[11]The Revised English Bible, José 6: 1–27.
[12]Fagan (2004).
[13]Ibíd; Kuhrt (1995).
[14]Wilson, E. Jan, «Inside a Sumerian Temple: The Ekishnugal at Ur», en The
Temple in Time and Eternity, editado por Donald W. Parry y Stephen David Ricks. Provo,
Utah, Foundation for Ancient Research and Mormon Studies, Brigham Young University,
1999; Gavin White, comunicaciones personales, 22 y 27 de junio de 2012.
[15]Aparte de las citas concretas, las evidencias del antiguo Egipto están extraídas
de http://www.digitalegypt.ucl.ac.uk/, consultado el 24 de mayo de 2012 y Romer (2012).
[16]Van de Mieroop (2011), pp. 163–164.
[17]«Stonehenge», The Concise Oxford Dictionary of Archaeology, Oxford
University Press, 2003; «Stonehenge», The Columbia Electronic Encyclopedia, 6ª ed.,
Columbia University Press, 2012.
[18]Oliver, Neil, «Orkney’s Stone Age Temple», A History of Ancient Britain, BBC
HD TV, 1 de enero de 2012; Kinchen, Rosie, «Temple Discovery Rewrites Stone Age»,
Sunday Times Londres, 1 de enero de 2012, News 10;
http://www.scotsman.com/news/cathedral-as-old-as-stonehenge-unearthed-1-764826, 13 de
agosto de 2009.
[19]Eogan (1986); O’Kelly (1991); más visita del autor en 1993.
[20]Las fuentes incluyen Possehi (1996); Allchin yd Allchin (1997); «Indus valley
civilization», The Columbia Electronic Encyclopedia, 6º ed., Columbia University Press,
2012; http://www.infinityfoundation.com/mandala/history_overview_frameset.htm,
consultado el 12 de mayo de 2012.
[21]Véase, por ejemplo,
http://www.hindunet.org/hindu_history/ancient/mahabharat/mahab_vartak.html, consultado
el 27 de mayo de 2012.
[22]Las fuentes incluyen Lagerwey y Kalinowski (2009); «Anyang», The Concise
Oxford Dictionary of Archaeology, Oxford University Press, 2003;
http://www.britannica.com/EBchecked/topic/114678/Zhou-dynasty, consultado el 5 de
mayo de 2014.
[23]Departmento de Arte asiático, «Neolithic Period in China», en Heilbrunn,
Timeline of Art History, Nueva York, The Metropolitan Museum of Art,
http://www.metmuseum.org/toah/hd/cneo/hd_cneo.htm, octubre de 2004.
[24]Las fuentes incluyen Alonzo (1995); Morales (1993); Davies (1990); más
visitas del autor en 1996 y 1997.
[25]Crystal (1987).
[26]Del Carmen Rodriguez Martinez, Maria, et al., «Oldest Writing in the New
World”, Science 313: 5793, 2006, pp. 1610–1614.
[27]Ruggles (2005), pp. 133–134.
[28]Hawkins y White (1971).
[29]O’Kelly (1991).
[30]Melville (2005); Nissen, et al., (1993); White (2008); Robson, Eleanor, «Words
and Pictures: New Light on Plimpton 322», American Mathematical Monthly, 2002,
pp.105-120.
[31]http://www-gap.dcs.st-and.ac.uk/~history/HistTopics/Indian_sulbasutras.html,
consultado el 29 de mayo de 2012.
[32]Kak, Subhash C., «Archaeoastronomy and Literature», Current Science 73: 7,
1997, pp. 624–627; Kak, S. C., «The Astronomy of the Age of Geometric Altars»,
Quarterly Journal of the Royal Astronomical Society 36: 4, 1995, pp. 385–395.
[33]«Chinese astronomy», Dictionary of Astronomy, John Wiley & Sons, Inc.
Wiley-Blackwell, 2004.
[34]Needham y Wang (1959); Needham y Ronan (1978).
[35]Magli (2009), pp. 172–182.
[36]Vail, Gabrielle y Christine Hernandez, The Maya Codices Database, Version
3.0, 2011. http://www.mayacodices.org, consultado el 18 de Agosto de 2012.
[37]«Akhenaten», Gale Encyclopedia of Biography, 2006.
[38] Véase página 40.
[39]The Upanishads (1987), pp. 7–11; Smart (1992), pp. 53–55.
[40]Lagerwey y Kalinowski (2009), pp. 4–34.
[41]Alonzo (1995), pp. 266–268.
[42] Véase página 47.
[43]The Revised English Bible, 2 Reyes 17.
[44]Ibíd, Éxodo 7–12.
[45]Ibíd, Ezequiel 1.
[46]Ibíd, Isaías 6: 1–7.
[47]Ibíd, Daniel 8: 15–26 y 9: 20–27.
[48]Ibíd, Daniel, 10: 1–21.
[49]Ibíd, Job 1: 6–22 y 2: 1–7.
[50] Véase el Glosario para el significado del término «religión» en este libro.
CAPÍTULO 28. LA EVOLUCIÓN HUMANA 2: El PENSAMIENTO
FILOSÓFICO

Solo hay una cosa que un filósofo a buen seguro hará bien: contradecir a otros
filósofos.

William James, 1904

La disputa es una prueba de que no se ve con claridad.

Atribuido a Zhuangzi, siglo iv a. C.

La segunda fase de la evolución humana empieza cuando la reflexión sobre nosotros


y nuestra relación con el resto del universo se alejan de la superstición para adentrarse en la
filosofía.
En vez de utilizar una de las muchas definiciones de filosofía empleadas en
Occidente, me decantaré por una definición que me parece más de acuerdo con el sentido
original de la palabra.
Filosofía: amor a la sabiduría; la reflexión sobre la realidad suprema, la esencia y la
causa de las cosas, el mundo natural, la conducta humana y el pensamiento en sí.
Un libro, y mucho menos un capítulo, no puede cubrir toda la evolución del
pensamiento filosófico. Me concentraré, pues, en aquellas partes relevantes para dar
respuesta a las preguntas principales de nuestro viaje: ¿qué somos? ¿De dónde venimos?
La emergencia del pensamiento filosófico

Bertrand Russell no duda sobre el origen de la filosofía.


[Los griegos] inventaron las matemáticas, la ciencia y la filosofía […]. La filosofía
empieza con Tales que, por suerte, puede datarse por el hecho de que predijo un eclipse
que, según los astrónomos, se produjo en el año 585 a. C. La filosofía y la ciencia —que en
un origen no eran disciplinas separadas— nacieron juntas a principios del siglo vi.[1]
Como vimos en el capítulo 27, Russell estaba equivocado con respecto al origen de
las matemáticas y la astronomía. El hecho de que se desarrollaran con fines prácticos o para
sustentar creencias supersticiosas como la astrología, no desmerece en absoluto su
existencia más de mil años antes de que naciera el griego Tales.
Si Tales predijo un eclipse solar —algo que es altamente cuestionable—, lo hizo
probablemente utilizando cartas astrales babilónicas, incluso predicciones babilónicas,
como veremos más adelante. Pero pese a ello, el punto de vista de Russell sobre el origen
de la filosofía sigue siendo el dominante en Occidente.
Puesto que Russell estaba escribiendo Historia de la filosofía occidental,[2] tal vez
podría perdonársele. Mi ejemplar de la Enciclopedia Oxford de filosofía,[3] anuncia en la
solapa que «Cubre la historia de toda la filosofía mundial». Pero de sus 1.922 entradas, solo
22 de ellas (el 1 por ciento) están relacionadas con India, 10 (0,5 por ciento) con China, y
otras 10 (0,5 por ciento) con Japón, es decir, que solo consagra un 2 por ciento de todo su
contenido a los principales centros de filosofía no occidentales. Afirma además que:
Los primeros tres filósofos universalmente reconocidos —Tales, Anaximandro y
Anaxímenes— eran originarios de Mileto, una próspera ciudad griega.[4]
Para descubrir cuándo, dónde y cómo emergió el pensamiento filosófico, debemos
abandonar el eurocentrismo.
India[5]

Los primeros ejemplos conocidos de pensamiento filosófico están contenidos en los


Upanishads indios, de los que el filósofo alemán Arthur Schopenhauer dijo: «De cada frase
surgen pensamientos profundos, originales y sublimes».[6]
Tradicionalmente, iban anexos a los Vedas, himnos a los dioses y rituales descritos
en el capítulo 27. Los Upanishads recopilan las visiones de videntes iluminados y su
objetivo, según Eknath Easwaran, uno de sus traductores modernos, es:
Descubrir con seguridad quién somos, qué es el universo y cuál es el significado del
breve drama de la vida y de la muerte que representamos con el telón de fondo de la
eternidad.[7]
Lo cual es directamente relevante para la pregunta que aquí nos formulamos.
Los Upanishads siguieron escribiéndose, pero los más antiguos, y en especial los
diez comentados por el filósofo y maestro Adi Shankara (circa 788-820 d. C.), están
generalmente reconocidos como los más importantes. A pesar de que todos son distintos,
comparten dos visiones fundamentales: sarvam idam Brahma (todo es Brahmán) y ayam
atma brahma (el Yo —traducido con Y mayúscula, porque se refiere al Yo esencial en
contraposición con el yo fenomenológico o la personalidad individual— es Brahmán). Esta
identidad —la respuesta de los Upanishads a la pregunta introspectiva fundamental de «qué
soy»— se expresa sucintamente como tat tavm asi (tü eres Eso, donde «Tú» es la
consciencia pura «que hace que el ojo vea y la mente piense», es decir, el Yo, y «Eso» es la
realidad suprema indescriptible, Brahmán).
Los Upanishads emplean metáforas, símiles, alegorías, dialéctica y experimentos
mentales para transmitir el significado del inefable Braman. Se expresa como la
Consciencia Cósmica de la que todas las cosas manan y de la que todas las cosas consisten;
es trascendente, existe sin forma alguna fuera del espacio y el tiempo, y es además
inmanente a los fenómenos percibidos por nuestros cinco sentidos físicos y por nuestra
mente, nuestro principal instrumento de percepción.
Según los Upanishards, el entrenamiento de la mente mediante el ejercicio
disciplinado de la meditación para centrarnos en el objeto interior de contemplación hasta
que la mente queda absorbida por él, nos permite percibir esta realidad suprema.
A diferencia de los antiguos filósofos griegos, las evidencias de los Upanishads son
directas. Sin embargo, la datación estimada de estos sanscritos varía. Basándose en su
estructura literaria, Michael Nagler, profesor emérito de Literatura clásica y comparativa de
la Universidad de California, Berkeley, estima que no fueron escritos antes de 600-400 a.
C., pero apunta que la tradición oral sobre la que se asientan los Upanishards es mucho más
antigua que los textos.[8] Jitendra Nath Mohanty, profesor emérito de Filosofía en Temple
University, sitúa los textos entre 1000 y 500 a. C.,[9] mientras que Arindam Chakrabarti,
profesor de Filosofía de la Universidad de Hawái, estima que fueron compilados entre 1000
y 900 a. C..[10] David Frawley, codirector del Institute of Vedic Studies de los Estados
Unidos, coincide con los especialistas indios que defienden que el sanscrito se desarrolló a
partir de uno o más idiomas indígenas y que no fue importado por los arios que invadieron
el territorio desde el norte; data los textos entre 2000 y 1500 a. C.[11]
D. S. Sharma, autor de una antología de los Upanishards, comenta que los videntes
que enseñaban en los asharms estaban
al parecer inmersos en la imponente tarea de transformar la religión inferior basada
en sacrificios dominante en aquel tiempo en una gran religión mística y verdadera.[12]
Lo cual ilustra un patrón general. La emergencia es un proceso gradual y el
pensamiento filosófico primitivo está inevitablemente entrelazado con las raíces de la
superstición a partir de las que se ramifica.
China[13]

El pensamiento filosófico emergió en China en torno al siglo vi a. C., durante la


desintegración del imperio Zhou y prosperó en gran parte como respuesta al caos y la
violencia del llamado periodo de los Reinos combatientes.
Todos los antiguos filósofos chinos creían en Tian, el dios a quien hacían sacrificios
y que se traduce como el Cielo, el Firmamento o la Naturaleza. Sin embargo, para llegar a
sus ideas éticas (incluyendo las políticas) y metafísicas, utilizaron el razonamiento y el
conocimiento, no una supuesta revelación divina. Fue en este sentido cómo empezaron a
alejarse del pensamiento primitivo de su cultura.
En su mayoría predicaban el Tao (o Dao) como el Camino, o la Vía, a seguir,
aunque su concepción y su interpretación del Tao diferían. Los historiadores de finales de la
dinastía Han clasificaron las numerosas escuelas filosóficas en distintas tradiciones. Las
tres principales son el confucianismo, el mohismo y el taoísmo.
La primera escuela toma su nombre de Confucio, el nombre latinizado de Kong Fu-
tzu (transliterado como Kongzi), que significa Maestro Kong. La tradición sitúa su
nacimiento en 551 a. C., y fue primer ministro en la corte del duque de Lu, un estado del
imperio oriental de Zhou. Sus ideas están incluidas en las Analectas, una breve recopilación
de las conversaciones con sus seguidores que fueron complicadas a lo largo de un periodo
de entre 30 y 40 años por la primera y la segunda generación de discípulos. Posteriormente
surgieron otras ramas del confucionismo, entre las que destaca el Libro de Mencio,
latinización de Meng-tzu (371-289 a. C.), que estudió con el nieto de Confucio y fue
posteriormente reconocido como el auténtico transmisor de la filosofía confucionista.
Para el confucionismo, el Camino para restaurar la estabilidad social y el gobierno
justo pasaba por los valores tradicionales. Su pensamiento se centraba en la ética, y muy en
particular en las relaciones entre gobernante y súbdito, padre e hijo, hermano mayor y
hermano menor, esposo y esposa, y amigo y amigo. Estas cinco relaciones tenían que estar
basadas en la reciprocidad. «Lo que no quieras para ti, no lo quieras para los demás»,[14]
una versión de lo que posteriormente pasó a conocerse como la Regla de Oro y que fue
defendida por muchos pensadores del mundo antiguo. Esta receta virtuosa debía cultivarse
con el respeto necesario a la etiqueta y el ritual.
El mohismo fue la escuela que siguió el pensamiento de Mozi (circa 490-403 a. C.),
que se oponía a la utilización de los valores tradicionales como Tao, por considerarlos
variables y poco fiables. Los valores éticos son constantes del Tian, o Naturaleza, que
muestran una preocupación imparcial para todo y todos. Mozi determinaba el Camino ético
con una perspectiva pragmática. Defendía que los actos deberían calibrarse valorando el
balance entre beneficios y daños que causan. Sus conclusiones incluían la oposición a la
agresión militar y a infringir daño a los demás, y defendía un estado gobernado por un
soberano benévolo y administrado por una meritocracia. Los puntos de vista mohistas
estimularon el pensamiento de otros, como Mencio, y muchos de ellos fueron absorbidos
por el confucionismo.
Por otro lado, los primeros pensadores taoístas se concentraron en la realidad
suprema, igual que los videntes de los Upanishards, y su receta para la conducta humana es
consecuencia de ello.
El primer texto taoísta es el Lao Tsé, o Viejo Maestro, nombre de su legendario
autor, de quien se dice que fue contemporáneo de Confucio. En Occidente, esta colección
de aforismos se conoce como el Libro del Camino y de su Virtud. El segundo libro clave,
más extenso, es el tratado Zhuangzi, que recibe el nombre de su autor que supuestamente
fue unos doscientos años posterior a Lao Tsé. Los especialistas modernos sugieren que es
muy probable que Lao Tsé y Zhuangzi sean colecciones de ideas recopiladas por distintos
autores en distintos momentos; en las culturas antiguas era práctica común que los
discípulos de un maestro atribuyeran sus puntos de vista al fundador de su escuela.
En estos textos, el Tao es el Camino por el cual todo el universo cobra existencia y
que lo sostiene todo. Es la realidad suprema e inefable, como brahmán, pero se manifiesta
en el Camino mediante el cual funciona el mundo natural. Esta cualidad dinámica
demuestra un flujo continuo y un cambio en un ciclo interminable entre dos opuestos que
constituyen un todo, simbolizados por el yin oscuro y el yang luminoso del diagrama de la
Realidad Suprema (véase figura 28.1).

Con un origen probable en los patrones cíclicos de la naturaleza, como la noche y el


día, el ying y el yang dan origen a todos los opuestos complementarios que percibimos:
invierno y verano, masculino y femenino, Tierra —oscuridad, receptiva, femenina— abajo
y Cielo —luminoso, fuerte, masculino— arriba, etc.
Para alcanzar el estado ideal deberíamos armonizar nuestra vida con el Tao. Seguir
este Camino, o ley universal, es similar al Dharma del hinduismo y el budismo que se
discute más adelante.
Estas primeras ideas taoístas tienen su origen en la percepción. El Zhuangzi rechaza
de forma explícita el razonamiento:
El conocimiento más amplio no Lo conoce necesariamente; el razonamiento no hará
hombres sabios en Él. Los sabios han decidido contra estos dos métodos.[15]
Europa[16]
En Europa, el pensamiento filosófico se inicia en el siglo VI a. C. con los antiguos
griegos. Rastrearé su emergencia siguiendo el convencionalismo arbitrario de considerar a
los pensadores previos a Sócrates, que dejó su huella un siglo después. El lugar donde
iniciar el relato es Jonia, una estrecha franja de territorio en lo que hoy es la costa
occidental de Turquía que había sido colonizada por los griegos.
En cuanto a por qué se inició en este lugar, solo podemos hacer especulaciones. La
explicación más probable es que Mileto era un puerto jónico y una de las ciudades griegas
más prósperas de su época, con importantes vínculos comerciales y culturales con Egipto,
Babilonia y otras regiones orientales. Seguramente, la astronomía y las matemáticas de
egipcios y babilónicos llegaron a Mileto, y de ahí al resto de Jonia, como un subproducto
del comercio. Esos conocimientos estimularon a los jonios, alejados de la ortodoxia
religiosa de la Grecia continental, a desarrollar sus propias ideas.
Russell no aporta evidencias para sustentar su afirmación de que el primer filósofo
fue Tales de Mileto. Y no es de extrañar. No ha sobrevivido nada de lo que Tales pudiera
escribir. Tenemos que confiar en Aristóteles que, dos siglos después, explica que Tales,
Anaximandro y Anaxímenes de Malero fueron los primeros physici, que dieron
explicaciones naturales del mundo, en contraposición con los theologi, que creían que todo
era resultado de las acciones de dioses impetuosos. Parece, sin embargo, que Aristóteles
tampoco disponía de material escrito en el que basar su reivindicación de Tales como
fundador de la filosofía natural.
Según su relato, Tales decía que todo estaba hecho de agua, y que las piedras imán
tenían vida (o alma, psyche, que significa más o menos lo mismo) porque movían el hierro.
Fuentes posteriores, como el poco fiable Diógenes Laercio, que escribió 800 años después
sobre Tales y que afirmaba recurrir a fuentes secundarias de las que no queda ningún
vestigio, declararon que Tales no solo fue el primero en predecir un eclipse solar, sino
también otros logros que son poco probables o directamente erróneos.
Una parte de una frase de Anaximandro sobrevive en forma de una cita realizada
casi mil años más tarde por el neoplatónico Simplicio, que cita a Teofrasto, ayudante de
Aristóteles y su sucesor en 322 a. C. como director del Liceo de Atenas, y no está claro si se
trata de una paráfrasis o de una cita directa extraída de un libro. Según Simplicio,
Anaximandro expresaba sus ideas sirviéndose del lenguaje poético de la mitología griega.
La idea atribuida a Anaximandro por Simplicio y otras fuentes terciarias es que el arché, o
materia fundamental del universo, no era el agua de Tales sino el ápeiron, un concepto que
se traduce comúnmente como lo ilimitado o lo indefinido, lo que carece de cualidades
observables pero del que surgen todos los fenómenos observables.
Lo primero que surge es la contradicción entre frío y calor, que se enzarzan en una
batalla, supervisada por el Tiempo, en la que cada uno invade el territorio del otro y
devuelve de este modo la «injusticia» cometida por el otro. Se conjetura que podría
significar que los opuestos fundamentales siguen un ciclo indefinido, en el que el
dominante cede paso al dominado siguiendo un patrón de alternancia a partir del cual se
generan todos los opuestos, algo similar al ying y al yang del Tao.
No ha sobrevivido nada del trabajo del tercer filósofo de Mileto, Anaxímenes.
Tenemos que confiar de nuevo en fuentes terciarias, principalmente Simplicio, que nos
explica que su idea del arché, o materia fundamental del universo, no era ni el agua de
Tales ni la infinitud inobservable de Anaximandro, sino el aire, que soporta la Tierra. Pero
se trata de aire en el sentido de psyche, que significaba tanto aliento como alma, o la fuerza
que da la vida, como vimos ya en los mitos homéricos. En su forma más rarificada es el
fuego, en su forma más ordinaria es el aire que percibimos, pero su condensación
progresiva da como resultado el viento, las nubes, el agua, la tierra y las piedras. El
movimiento constante provoca estas rarificaciones y condensaciones.
Cicerón, que escribió cuatro siglos más tarde, decía que Pitágoras (circa 570-500 a.
C.) fue el primero en utilizar el término «filósofo» (philosopos, amante de la sabiduría) al
describirse ante León, gobernador de Fliunte. Pitágoras era jonio, pero fundó una secta en
Crotón, una colonia griega del sur de Italia. Según Russell:
Este elemento místico entró en la filosofía griega con Pitágoras, que fue reformador
del orfismo, y Orfeo fue reformador de la religión de Dionisos. A partir de Pitágoras, los
elementos órficos entraron en la filosofía de Platón, y a partir de Platón en cualquier
filosofía que fuera en algún sentido religiosa.[17]
El problema que plantea desentrañar la verdad del mito de Pitágoras es que nada de
lo que dijo o escribió ha sobrevivido hasta nuestros tiempos y los pitagóricos, los cultos
ascéticos secretos fundados, o inspirados, por Pitágoras, le atribuyeron a él todas las ideas,
incluyendo muy probablemente el teorema geométrico que lleva su nombre.
Los pitagóricos creían que el alma es eterna y se reencarna en todos los seres vivos.
Para ellos, la liberación de la reencarnación y la reunión con el dios del que emana toda la
vida se conseguía llevando una vida de contemplación e indagación. Los pitagóricos
conservaron la diferenciación órfica entre lo que puede aprenderse del mundo a través de
los órganos sensoriales y el conocimiento puro que se obtiene a través del alma, es decir, la
percepción. El examen de la geometría, la música y los cuerpos celestes revela para ellos
los principios divinos que ordenan el universo, y los pitagóricos los veían expresados en los
números y sus relaciones, a pesar de que no hay evidencias de que realizaran observaciones
detalladas de las estrellas o dedujeran relaciones matemáticas a partir de ellas, como sí
hicieron con las escalas musicales.
Heráclito (circa 540-475 a. C.) era nativo de Éfeso, una de las doce ciudades de la
Liga Jónica conquistada por los persas a mediados del siglo vi a. C. Los 130 fragmentos
supervivientes de su obra revelan los enigmáticos aforismos de un místico que creía que lo
que tenía que decir iba más allá de los límites del lenguaje humano. Su clave para
comprender el mundo era la introspección, y sus ideas muestran una congruencia
considerable con las de los místicos orientales. Su universo es un todo que siempre ha
existido. Consiste en opuestos percibidos por los sentidos en un estado de cambio y lucha
constante, pero estos opuestos son en realidad lo mismo, porque todas las cosas son una
sola, el logos, el principio que gobierna el universo. Es un concepto similar al Tao, que da
lugar a la interacción del ying y el yang y los opuestos subsiguientes.
Por debajo de este fluir del mundo fenomenológico está el aiezoon pyr (el fuego
eterno) que tiene poder transformador. Es similar al prana, la palabra sanscrita utilizada en
las Upanishads para indicar la energía vital, el sustrato inicial de todas las formas de
energía.
Parménides, nacido hacia 510 a. C. en la colonia griega de Elea, en el sur de Italia, y
sus seguidores eran contrarios a esta idea de cambio constante. A partir de las 150 líneas
que sobreviven de su poema Sobre la naturaleza, se deduce que tiene una percepción de la
realidad («lo que es») como algo único, atemporal, completo e invariable. «Lo que no es»
(la nada) no existe. En consecuencia, «lo que es» no puede venir de «lo que no es» y, por lo
tanto, no habría habido un suceso de creación. Y ya que «lo que es» no tiene un «lo que no
es» a donde ir, el movimiento o cambio es imposible. Lo que percibimos como cambio es
una ilusión creada por nuestros cinco sentidos.
Zenón, su discípulo, defiende este punto de vista en una serie de paradojas
provocativas. Por ejemplo, después de haber sido disparada, una flecha ocupa una posición
estacionaria en cada momento del tiempo. Su vuelo consiste en una serie de instantes
estacionarios. Por lo tanto, la flecha es estacionaria.
De entre los filósofos de la siguiente generación destaca Empédocles (circa 492-433
a. C.), ciudadano de Agrigento, al sur de Sicilia, parece, según fuentes secundarias y
terciarias, haber sido un individuo pintoresco que afirmaba haber alcanzado la divinidad
después de muchas reencarnaciones. Se le atribuye haber dicho que todo está hecho a partir
de una combinación de cuatro elementos irreducibles —tierra, aire, fuego y agua—, y que
la fuerza del amor provoca su combinación y la fuerza del odio los separa.
Anaxágoras (circa 500-428 a. C.) trasladó la tradición de los pensadores jónicos a
Atenas en torno a 460 a. C. Permaneció en la ciudad durante 30 años como amigo del
estadista Pericles antes de ser condenado por irreverente después de negar que los cuerpos
celestes eran dioses a los que venerar; las estrellas, decía, eran piedras ardientes. Se oponía
a la superstición y se le atribuye haber dicho que una mente universal (nous, que se traduce
también como razón) ponía orden a la materia primordial y controlaba todos los procesos
naturales.
Leucipo está considerado el fundador de la escuela atomista y, aparte de eso,
sabemos muy poco de él. Demócrito (circa 460-370 a. C.) desarrolló la idea de que todo en
el cosmos está formado por unos elementos irreductibles llamados átomos. En griego,
átomo significa «sin cortar»; lo cual responde a Zenón, cuyas paradojas dependen de la
divisibilidad infinita.
En el vacío del espacio hay innumerables átomos en movimiento caótico constante.
Las colisiones que se producen aleatoriamente entre ellos dan como resultado distintos
tipos de átomos que se adhieren entre sí y producen todos los fenómenos, tanto físicos
como mentales, que percibimos. Pero estas adhesiones son solo temporales; al final, acaban
descomponiéndose de nuevo en átomos. Este punto de vista no da cabida ni a un dios
creador, ni a un principio rector de la naturaleza, ni a la inmortalidad del alma: todo acaba
reduciéndose otra vez a átomos y la muerte es la aniquilación total. En un universo infinito,
nuestro mundo no es más que una de las muchas posibilidades, una posibilidad en la que se
dan las condiciones adecuadas para la vida. Esta idea prefigura la especulación moderna del
multiverso.
Para Demócrito, el concepto atomista tenía implicaciones éticas y médicas. Las
pasiones desordenan y perturban los átomos de la mente, o alma, y, por lo tanto, el
individuo solo puede alcanzar la felicidad a través de la moderación, la ecuanimidad y la
ausencia de deseos perturbadores. Lo mismo aplica a la civilización que pretende prosperar,
impedir su desintegración y caer en el barbarismo. La salud física es también un equilibrio
de los átomos del cuerpo.
Oriente Próximo[18]

El psiquiatra y filósofo alemán, Karl Jaspers (1883-1969) acuñó el término «Era


Axial» para describir el periodo comprendido entre 900 y 200 a. C. durante el cual
apareció, de forma independiente, un pensamiento revolucionario similar en India, China,
Grecia y Oriente Próximo. Jaspers enumera a varios de los pensadores considerados en esta
sección y la siguiente, que versa sobre la evolución de la filosofía, e incorpora a la lista los
profetas hebreos Elías, Isaías, Jeremías y al persa Zoroastro.
El objetivo de Elías era liderar a los israelitas para alejarlos de la adoración de
falsos dioses, como Baal, y convencerlos de la existencia de un solo dios, Yahvé. Según la
Biblia hebrea, defendió su caso resucitando a los muertos, haciendo descender el fuego del
cielo y ascendiendo luego a él a bordo de un carro de fuego. Pese a que tanto Isaías como
Jeremías defendían la paz y la justicia y se mostraban contrarios a la guerra, sostenían que
sus ideales solo podían conseguirse con la intercesión del Dios de Judá.
Zoroastro fue sacerdote y profeta y fundó una religión de la antigua Persia.
Predicaba el dualismo de dos poderes primigenios enzarzados en conflicto en este mundo:
el Bien, personificado por el dios Ahura Mazda, y el Mal, personificado por Angra Mainyu,
que podría o no ser su hermano gemelo (los textos difieren en este punto). Zoroastro
defendía la adoración exclusiva de Ahura Mazda y la práctica de buenos pensamientos,
palabras y obras para conseguir el triunfo del Bien.
A pesar de defender la buena conducta, la justicia y la paz en contraposición con la
lucha agresiva por el dominio y el territorio basada en la competencia, el pensamiento de
estos cuatro hombres está circunscrito por la adoración y la creencia en un dios
intervencionista. Nada representa un intento de ir más allá del pensamiento primitivo.
América Central

Desconozco cualquier intento por parte de las poblaciones indígenas de América


Central, o el resto del continente americano, de ir más allá del pensamiento primitivo hasta
siglos después de ser conquistadas por los europeos.
La evolución del pensamiento filosófico

India[19]

Sin abandonar la lucha por emerger de sus raíces primitivas, el pensamiento


filosófico empezó a evolucionar en India. Se dividió básicamente en seis tradiciones
ortodoxas hinduistas y en un movimiento que rechazaba las creencias y los rituales
religiosos y a partir del cual emergieron dos tradiciones más.
Tradiciones filosóficas ortodoxas hinduistas
La palabra «hinduista» deriva de la antigua palabra persa «indo» y probablemente
hacía referencia a los pueblos del valle del Indo y sus descendientes. Utilizo la palabra
«ortodoxo» para referirme a las diversas tradiciones interrelacionadas que, en términos
generales, comparten la veneración a los Vedas junto con tres creencias: la realidad
suprema es Brahmán, o Consciencia Cósmica, que se identifica con el alma individual o Yo
(Atman); todas las criaturas están atrapadas en samsara, un ciclo infinito de nacimiento,
sufrimiento, muerte y renacimiento dependiente del karma, el principio según el cual los
actos cometidos por un individuo en otras vidas determinan su vida actual; y que existe la
posibilidad de alcanzar moksha, o la liberación de este ciclo de reencarnación.
Cada una de las tradiciones está enraizada en muchas escuelas, que discuten
posturas contradictorias como el dualismo y el monismo, si Brahma es o no es Dios, y la
existencia de dioses como realidades o aspectos de Dios.
Shramana
El shramana es un movimiento poco definido integrado por videntes que, a nivel
individual, buscaban una visión más directa, normalmente renunciando a la vida en
sociedad y practicando el ascetismo. De los muchos videntes, dos acabaron teniendo
muchos seguidores y convirtiéndose a su vez en tradiciones.
Jainismo
La primera de estas tradiciones es el jainismo, cuya figura principal, Vardhamana,
fue conocido como Mahavira, o «gran héroe». Según la tradición, nació en 599 a. C. como
príncipe en lo que en la actualidad es el estado de Bihar, una región del este de India bañada
por el Ganges. Con treinta años de edad, Mahavira renunció al mundo y se convirtió en un
hombre sagrado errante. Doce años más tarde, alcanzó la percepción que lo llevó a ser
reconocido como un tirthankara, literalmente «constructor de vados», un ser iluminado que
enseña a cruzar el río de las reencarnaciones para alcanzar el estado de liberación eterna del
alma.
El canon del jainismo, conservado en un antiguo dialecto prácrito pero solo escrito
varios cientos de años más tarde, afirma que Mahavira estaba en el tirthankara veinticuatro
y final de su medio ciclo del cosmos eterno.[20] Defendía la aplicación de su forma de vida
ética, con ascetismo extremo y no violencia, para alcanzar la liberación de la reencarnación.
Como otros videntes, Mahavira atrajo discípulos pero no fue hasta después de que
Chandragupta, fundador del imperio Maurya, y varios reyes de Guyarat, se convirtieran al
jainismo que no se convirtió en una tradición importante que hoy en día cuenta con seis
millones de seguidores, principalmente en India. Los monjes y monjas jainas llevan el
estilo de vida extremo predicado por Mahavira, mientras que los laicos juran seguir sus
prácticas lo mejor posible.
Para reconciliar las distintas escuelas de filosofía y acabar con las disputas, el
jainismo desarrolló la idea de la no exclusividad, una teoría de la lógica que reconoce siete
valores verdaderos: la verdad, lo falso, lo indescifrable y cuatro combinaciones de estos
tres. Desarrollaron asimismo una teoría metafísica, según la cual todas las cosas tienen
infinitos aspectos, razón por la cual ninguna descripción es enteramente cierta ni
enteramente falsa.
Con el paso de los siglos, se produjo una división importante entre los «vestidos con
el cielo», o desnudos, y los vestidos de blanco. Cada una de estas comunidades se
subdividió a su vez y la veneración a los tirthankaras, reales y místicos, evolucionó hacia
adoración; algunas sectas acabaron incorporando deidades hindúes, como Rama y Krishna,
a su panteón.
Budismo
La segunda de estas tradiciones shramana importantes es el budismo, fundado por
Siddhartha Gautama. Separar los hechos de los mitos que se multiplican después de la
muerte de un líder carismático siempre es complicado, y muy en especial en este caso.
Podemos concluir con certeza que Siddhartha era hijo del jefe de la nación Sakia,
localizada en la región del Himalaya, en el Nepal actual. Distintas tradiciones dan distintas
fechas de nacimiento; los eruditos occidentales solían situar la fecha en 566 o 563 a. C.,
pero investigaciones recientes la sitúan entre 490 y 480 a. C.
Con veintinueve años de edad, decidió alejarse del lujo, de su esposa y de su hijo e
iniciar una vida de vagabundo para intentar comprender el sufrimiento físico y mental del
que llevaba tiempo siendo testigo y comprender cómo aliviarlo.
Al parecer, estudió meditación con distintos maestros y durante un tiempo practicó
el jainismo, o llevó como mínimo una vida de ascetismo severo, aunque decidió que era
demasiado extremo. Según las escrituras budistas, con treinta y cinco años de edad se sentó
bajo una higuera y juró no moverse de allí hasta encontrar la respuesta a su pregunta. Su
meditación le dio lo que ahora conocemos como las Cuatro nobles verdades.
1. La vida humana es sufrimiento (duhkha).
2. La causa del sufrimiento es el deseo, sobre todo el deseo de sensaciones
placenteras.
3. El sufrimiento puede extinguirse mediante la cesación del deseo.
4. El deseo puede extinguirse siguiendo el Noble camino óctuple: comprensión
correcta, pensamiento correcto, palabras correctas, acciones correctas, medio de
subsistencia correcto, esfuerzo correcto, atención correcta, meditación correcta.
Seguir este camino conduce a la liberación del sufrimiento y del ciclo de
reencarnación. Posteriormente fue conocido como el Buda, o el Iluminado, y empezó a
enseñar este Camino medio (entre los extremos de la indulgencia mundana y el ascetismo
severo) a un pequeño grupo de discípulos que formaron una sangha, o comunidad,
comprometida a la práctica de sus enseñanzas.
Siddhartha no dejó nada escrito y enseñaba en su dialecto local. Diversas versiones
de sus enseñanzas sobreviven a modo de fragmentos de texto en dialectos sanscritos y
prácritos. El primer conjunto completo de escrituras fue escrito en Sri Lanka en pali, un
dialecto prácrito, entre 29 y 17 a. C. El canon budista comprende el Sutra (Sutta en pali) o
discursos pensados para ser memorizados, el Vinaya o reglas monásticas, y el Abhidharma
(Abhidhamma en pali), conceptos metafísicos entre los que incluye la idea de origen co-
dependiente. Según esta idea, todos los fenómenos —físicos, mentales y emocionales—
surgen, y dependen, de una red temporal de causas contingentes; como consecuencia de
ello, nada es permanente. Esto significa que el Yo o alma eterna no existe; cuando se
produce la muerte de un iluminado que ha alcanzado la liberación del ciclo de
reencarnación, no subsiste ninguna identidad personal ni límite mental (a diferencia de la
creencia jaimista). Si esta conclusión es de Siddhartha o de discípulos que la formularon en
su nombre sigue siendo un tema controvertido.
El cuerpo de las enseñanzas budistas recibe el nombre de Dharma. Esta palabra
sanscrita se utilizaba en el hinduismo para hacer tanto referencia a la ley natural del cosmos
como a la conducta del individuo en conformidad con esta ley. Su significado, tanto budista
como hinduista, es similar en concepto al Tao chino.
Siddhartha Gautama y su pequeña sangha no fueron más que uno de muchos grupos
shramana hasta que un poderoso gobernante decidió adoptar sus enseñanzas. En el siglo iii
a. C., el poderoso emperador Ashoka, perturbado por el sufrimiento que su conquista había
provocado en el reino de Kalinga, en la costa este de India, abrazó las enseñanzas del
budismo. En aquella época, el emperador controlaba gran parte de India y envió misioneros
budistas al sur, hasta lo que en la actualidad es Sri Lanka, y hasta los reinos del mundo
helenístico.
Pero ya en el siglo iii a. C. el budismo había empezado a dividirse. El budismo
theravada, o doctrina de los antiguos, afirmaba conservar las ideas y las enseñanzas
originales de Siddartha.[21]
Surgieron otras escuelas adoptaron la postura de que la vida en una sangha, o
monasterio, era demasiado exclusiva y que el budismo debería ser accesible para todo el
mundo. A principios del siglo i a. C., este movimiento se había desarrollado y dado lugar al
budismo mahayana, o Gran Camino. Esta escuela sostenía que buscar la liberación del
sufrimiento y la reencarnación a nivel individual era egoísta y que el camino ideal era el del
bodhisattva, el que pospone la liberación que el individuo se merece hasta después de que
dicho individuo haya ayudado a los demás a alcanzar este estado. Siddhartha Gautama
había sido uno de estos bodhisattvas, la manifestación terrenal temporal del Buda eterno y
omnisciente. Las escuelas mahayana veneraban reliquias e imágenes de bodhisattvas y
apelaban a ellos en busca de ayuda y asistencia, una práctica que apenas se distingue de la
adoración a dioses.
Entre tanto, el budismo siguió expandiéndose hacia el sur y hacia el este y,
finalmente, también hacia el norte, adaptándose a las condiciones locales de cada lugar. Los
misioneros habían llevado el budismo theravada hasta Sri Lanka, donde se convirtió en la
religión dominante, y desde allí, y también desde India, hasta Tailandia, Birmania e
Indonesia.
Desde el siglo i o ii d. C., las diversas variedades de budismo mahayana se
difundieron hacia el este siguiendo la ruta de la seda hasta llegar a China, asimilando por el
camino las tradiciones y creencias indígenas. En China se encontró con periodos de
oposición y otros de apoyo y se dividió en diversos formatos como respuesta a las
condiciones locales, destacando entre ellos una escuela meditativa llamada Ch’an. Hacia el
siglo vi, el príncipe Shotuku, regente de Japón, adoptó las prácticas y las ideas budistas y el
budismo Ch’an se desarrolló en ese país como el budismo zen.
Sin embargo en India, hacia 1000 d. C. el budismo como filosofía había
desaparecido debido principalmente a dos factores. En primer lugar, la adopción de rituales
y creencias por parte del budismo mahayana lo hacía menos diferenciable de la religión
brahmánica, conocida comúnmente como hinduismo, y, por otra parte, el carácter ecléctico
del hinduismo lo llevó a asimilar las ideas y las prácticas budistas. En segundo lugar, las
invasiones musulmanas destruyeron muchos monasterios budistas, pues consideraban
blasfemas las imágenes de Siddhartha y otros bodhisattvas.
En el siglo viii d. C., distintas versiones del budismo se habían propagado hacia
Nepal y Tíbet, pero el budismo no logró echar raíces allí hasta que los gobernantes del
Tíbet occidental lo adoptaron en el siglo xi. La versión dominante adoptaba muchos rituales
religiosos hindúes, como la recitación repetitiva de mantras, los sonidos sagrados para
invocar el poder de las deidades, y las mandalas, o diagramas sagrados, que jugaban un
papel similar. Las consortes de los bodhisattvas cobraron gran importancia como deidades
y se convirtieron en versiones de la antigua diosa madre. Esta rama del budismo recibe el
nombre de vajrayana, o del camino del diamante. Asimiló diversos elementos de la religión
tibetana bon, basada en el animismo y el chamanismo, y se desarrolló en una religión que a
su vez se dividió en distintas escuelas, cada una de ellas gobernada por el abad, o gran
lama, de su monasterio principal.
La autoridad de los grandes lamas aumentó después de que se llegara al acuerdo de
que eran bodhisattvas reencarnados. Los monasterios compitieron por el poder político —a
veces incluso con conflictos armados de por medio— después de que los mongoles
llegados desde China nombraran virrey al gran lama del monasterio de Sakia. En el siglo
xvii, este control pasó al gran lama del orden Dge-lugs-pa, conocido como el Dalai Lama, y
considerado la quinta reencarnación.
Tíbet pasó de ser una teocracia a una «budocracia». Y siguió así hasta que las tropas
de la China comunista invadieron el territorio en 1950 y se hicieron con el poder. En 1959,
Tenzin Gyatso (nacido Lhamo Dondrub), reconocido como la catorceava reencarnación del
primer Dalai Lama, huyó al norte de India donde estableció un gobierno en el exilio.
Pese a que algunas escuelas budistas actuales sostienen una tradición filosófica no
teística, en su mayoría se han convertido en religiones en las que, paradójicamente,
Siddhartha y otros místicos son venerados como dioses.
China[22]
En China se siguió un patrón muy similar.
Después de su brutal unificación en el siglo iii a. C., el autoproclamado primer
emperador, Qin Shi Huang, adoptó el legalismo como política oficial del gobierno y
eliminó todas las demás escuelas filosóficas. El mohismo perdió importancia hasta acabar
desapareciendo. La suerte del confucionismo fluctuó según el apoyo recibido por los
emperadores. La dinastía Han, que inició su reinado en el siglo i d. C., consideró que sus
preceptos respaldaban la jerarquía establecida, lo cual era cierto en gran parte, y sus
emperadores hicieron sacrificios al Cielo y veneraron a Confucio.
Pero el confucionismo tuvo que competir con el taoísmo, y luego con el budismo, y
sufrió un declive entre los siglos iii y vii. Con la subida al poder de la dinastía Sung (962-
1279) llegó el auge del neo-confucionismo, que se convirtió en la filosofía dominante entre
los chinos cultos. Inspirándose en ideas taoístas y budistas, los pensadores del neo-
confucionismo formularon un sistema de metafísica, que no había formado parte del
confucionismo tradicional, pero conservaron la visión jerárquica política y social de las
primeras enseñanzas de Confucio. El filósofo Chu Hsi (1130-1200) unificó las diversas
tendencias y su sistema pasó a dominar la vida intelectual china hasta 1911, cuando se
produjo el derrocamiento de la monarquía, a la que siempre había estado asociado. Su
declive se aceleró a partir de la revolución comunista de 1949.
El actual politburó de la China comunista, después de introducir el capitalismo para
incrementar la prosperidad del país, fomenta ahora el confucionismo a expensas del
marxismo-leninismo para mantener su autoridad y conseguir la estabilidad social.
A pesar de que el taoísmo emergió como una perspectiva mística de la realidad
suprema, buscando una ley o patrón natural hacia el funcionamiento del cosmos,
experimentó un cambio profundo en 142 d. C., unos 600 años después de la muerte de su
legendario fundador, Lao Tsé. Zhang Daoling, un ermitaño, anunció que Lao Tsé se le había
aparecido en una visión y lo había nombrado Maestro Celestial. Fundó entonces una
religión que veneraba a Lao Tsé como encarnación del Dios Supremo y en la que predicaba
que la esencia de la divinidad reside también en cada individuo; la longevidad y la
inmortalidad podían cultivarse a través de la meditación, la dieta y tratamientos de
alquimia.
Las sectas religiosas taoístas adoptaron las instituciones del budismo. A lo largo de
los siglos siguientes, se vincularon a movimientos populares contrarios al apoyo que el
orden social y político establecido daba al confucionismo, a las religiones locales con
dioses relacionados con la naturaleza, a la alquimia y a las artes marciales. Como
consecuencia de ello, a partir del siglo v el taoísmo dejó de existir como sistema de
pensamiento filosófico.
Europa[23]

Sócrates
En términos generales, Sócrates (469-399 a. C.) está considerado como el primero
de los tres grandes pensadores que conformaron la evolución de la filosofía occidental. No
escribió nada y lo que ha llegado hasta nosotros de sus ideas es a partir de cuatro fuentes. El
dramaturgo Aristófanes fue el único que escribió sobre Sócrates estando el filósofo con
vida y lo hizo para desacreditarlo. Jenofonte, alumno de Sócrates, se hizo historiador
después de seguir la carrera militar, pero carecía del alcance intelectual necesario como
para servirnos como guía fiable hacia la filosofía de Sócrates. Aristóteles, nacido quince
años después del fallecimiento de Sócrates, conoció las ideas de Sócrates indirectamente a
través de Platón. La fuente más extensa es Platón, un discípulo que idolatró a Sócrates hasta
el punto de que le atribuía a su maestro todo lo que consideraba sabiduría, y lo que Platón
consideraba sabiduría cambió mucho en el transcurso de cuarenta años.
Sabemos de Sócrates que era un ateniense de ascendencia noble que prescindió de
las riquezas para consagrarse al pensamiento, que empleaba un tipo especial de
razonamiento y que murió por sus creencias. A diferencia de la mayoría de sus predecesores
griegos, no le preocupaba la realidad suprema o la materia básica que componía el
universo. Sócrates se centró en la ética: en cómo debería comportarse el hombre y por qué.
Su método consistía en interrogar las creencias de los demás, en exponer las debilidades de
esos argumentos y en buscar a través de este sistema la verdad.
Presentados de esta manera, Sócrates y Buda, que vivieron aproximadamente en la
misma época, no podían ser más distintos. Sócrates proclamaba que toda su vida había sido
una búsqueda infructuosa de la sabiduría mientras que Buda reivindicaba ser un hombre
iluminado. Sócrates empleaba el razonamiento dialectico, mientras que Buda daba forma a
sus ideas a través de la meditación.
Sin embargo, una investigación más profunda revela similitudes sorprendentes,
además del foco que ambos ponen en la ética. Según Platón, Sócrates, durante su servicio
militar
empezó a pelearse con algún problema justo al amanecer y se quedó allí en pie,
perdido en sus pensamientos, y cuando le llegó la respuesta siguió todavía allí, pensativo
[…]. Y por fin, cuando cayó la noche, después de cenar, los jonios le trajeron la ropa de
cama […] en parte para ver si pensaba quedarse allí toda la noche. Y allí se quedó, hasta la
mañana, y en cuanto amaneció, dirigió sus oraciones al sol y se marchó.[24]
Si sustituimos sentarse por quedarse en pie y le añadimos una higuera, tendremos
que esta descripción es comparable a la meditación de Siddhartha Gautama.
Sócrates consideraba que nuestra conducta no tendría que estar determinada por la
esperanza de una recompensa celestial o el miedo a un castigo en la otra vida, sino por lo
que nos aporte felicidad ahora. Y no le parecía una postura egoísta porque defendía que la
única manera de alcanzar la felicidad es actuando con justicia y comportándose
virtuosamente con todo el mundo, incluyendo —y en eso contradecía la tradición griega—
tanto los enemigos como los amigos. Su receta es similar a la del Noble camino óctuple del
Buda, y su descripción de la felicidad es un estado de serenidad como el que el Buda
garantizaba a aquellos que seguían su camino.
Platón
El segundo gran pensador fue Platón (circa 429-374 a. C.), un noble ateniense que
abandonó su ciudad después de que su maestro y amigo, Sócrates, fuera condenado y
sentenciado a muerte por un jurado integrado por quinientos ciudadanos por haberse
negado a reconocer los dioses oficiales. Ese hecho confirmó en Platón una profunda
desconfianza en la democracia, a la que después sumó una profunda desconfianza en los
tiranos (el tirano era por aquel entonces aquel que se hacía con el poder, a veces liderando
una revuelta popular contra un gobierno aristocrático o plutocrático, y gobernaba con
autoridad absoluta aunque no necesariamente cruel u opresiva).
Viajó entonces durante doce años y, entre otros lugares, realizó estancias en las
ciudades griegas del sur de Italia, donde recibió la influencia de los pitagóricos, y en la
ciudad griega de Siracusa, en Sicilia, donde coincidió con el tirano Dionisio I.
Llegó a la conclusión de que solo los filósofos deberían ser gobernantes, o los
gobernantes convertirse en filósofos, porque solo los filósofos poseían la sabiduría y los
conocimientos necesarios para actuar con justicia. A su regreso a Atenas, fundó una
academia para educar a los hijos de los nobles en la indagación filosófica. Su obra escrita
suele dividirse en tres fases, aunque tanto la datación como la autenticidad de algunos
textos son cuestionables.
Su conjetura más influyente es su concepto de las Formas. Una Forma es una idea
trascendental y eterna que nuestros sentidos perciben, aunque solo a través de ejemplos
imperfectos y temporales. Por ejemplo, un plato circular es tan solo un ejemplar imperfecto
y provisional del Círculo ideal que existe por encima y aparte del mundo material. De un
modo similar, la Sabiduría, la Justicia y la Bondad son las Formas de cualidades que en el
mundo solo encontramos de manera imperfecta pero a las que deberíamos aspirar.
Aristóteles
Los antiguos pensadores griegos eran supuestamente eruditos. Si tenemos que creer
las fuentes secundarias y terciarias, el tercer gran filósofo griego, Aristóteles (384-322 a.
C.), los supera a todos en cuanto a alcance y volumen de su obra. Pero solo nos ha llegado
entre una cuarta y una quinta parte de su trabajo, y debemos tener presente que nunca
escribió nada pensando en publicarlo. Lo que ha sobrevivido son notas que preparaba para
sus conferencias y discusiones, apuntes de sus alumnos y notas de investigación, todo lo
cual fue después editado y compilado en libros por sus alumnos, en especial por Eudemo y
Teofrasto, del Liceo, la academia de Atenas donde Aristóteles impartió sus enseñanzas
durante doce años.
La versión que nos ha llegado de su obra fue editada por Andrónico de Rodas en el
siglo i a. C. Fue descubierta en el siglo viii por eruditos musulmanes que la tradujeron al
árabe y al sirio, después de lo cual diversos filósofos musulmanes, entre los que destaca
Averroes, en el siglo xii, escribieron sus comentarios. Las traducciones del árabe y el sirio
al latín empezaron a aparecer en Occidente a finales del siglo xii.
El cuerpo de la obra incluye retórica, lógica, ética, teoría política, teoría literaria,
metafísica, teología y lo que ahora clasificamos como ciencias de la biología, anatomía,
física, astronomía y cosmología. Antiguo alumno de Platón y elogiado en Occidente como
«El filósofo», a Aristóteles se le atribuye la invención de la ciencia y el método científico.
Y puesto que el objetivo de nuestro viaje es descubrir lo que la ciencia puede explicarnos
sobre la evolución humana desde el nacimiento del universo, me centraré en este aspecto
concreto de la obra de Aristóteles.
Su método científico deriva de un sistema de lógica que formalizó el razonamiento
deductivo y de su búsqueda de la causa de las cosas y su esencia, o forma. A diferencia de
la Forma trascendental de Platón, la forma de Aristóteles es intrínseca de cada cosa.
Clasificó las cosas en una escala de perfección que queda expresada en su forma,
que se deduce a partir de la organización interna de lo que denominó psyche, o alma. Las
plantas son la forma de vida inferior y poseen un alma vegetativa responsable de su
reproducción y crecimiento, los animales tienen un alma vegetativa más un alma sensitiva
responsable de la movilidad y las sensaciones, y los humanos poseen un alma vegetativa,
un alma sensitiva y un alma racional, con capacidad de pensamiento y reflexión.
Aristóteles aplicó su método con éxito a la fisiología y la conducta de alrededor de
540 ejemplares zoológicos basándose tanto en sus propias disecciones y observaciones
como en los informes de estudios realizados por otros. A pesar de que cometió varios
errores, una gran parte de su explicación sobre el corazón y el sistema circulatorio, por
ejemplo, no fue superada hasta el siglo xvii.
Dividió a los animales en animales con sangre y sin sangre (o, al menos, sin sangre
roja), con cierta correspondencia con la distinción moderna entre vertebrados e
invertebrados, y agrupó luego las especies con formas comunes en un género. Su
clasificación no quedó superada hasta la de Lineo, en el siglo xviii.
Sin embargo, en sus restantes investigaciones sobre la naturaleza, Aristóteles dejó
de lado el empirismo. En anatomía llegó a la conclusión de que los hombres tenían más
dientes que las mujeres. En física razonó que los cuerpos caían hacia la Tierra con una
velocidad proporcional a su masa, una conclusión que Filópono, en el siglo vi d. C.,
desaprobó mediante un sencillo experimento. Aristóteles no dio la talla en este sentido. Su
trabajo puede describirse más como filosofía natural que como ciencia, tal y como la
entendemos actualmente y queda definida en el capítulo 1.
En cosmología llega a la conclusión de que la luna, el sol y las constelaciones están
incrustadas en una serie de esferas cristalinas perfectas y concéntricas que giran
eternamente a distintas velocidades alrededor de la Tierra. Y de ahí pasa a la metafísica.
Todo tiene una causa. En un libro, Aristóteles razona que esas esferas están conectadas de
tal modo que el movimiento de la esfera más interior y próxima a la Tierra está causado por
el movimiento de la esfera adyacente, cuyo movimiento está a su vez causado por el
movimiento de la siguiente esfera, y así sucesivamente. Pero la cadena de causalidad tiene
que detenerse en algún punto. ¿Qué es lo que provoca el movimiento de la esfera más
exterior? El primer motor inmóvil, o motor primario. Aristóteles razonó que esta primera
causa sin causa tenía que ser sencilla, inmutable, perfecta, eterna y sin tamaño ni forma
física; constituida única y exclusivamente por contemplación intelectual, el ejercicio de la
razón más puro posible: es divino.
A diferencia de prácticamente todos sus predecesores en el mundo griego y otros
orígenes, Aristóteles no muestra indicios de haber tenido una revelación.
Filosofía helenística
La muerte de Aristóteles un año después de que falleciera su antiguo alumno,
Alejandro Magno, marca convencionalmente el fin de la fase helénica (griega) del
pensamiento filosófico y el inicio de la fase helenística (greciana). El imperio de Alejandro
se fragmentó y sus gobernadores intentaron hacerse con el poder en sus respectivas
regiones para crear monarquías independientes. Se desarrollaron centros intelectuales que
rivalizaron con Atenas, entre los que destaca Alejandría en Egipto, Antioquia en Siria,
Pérgamo en Asia Menor y, posteriormente, la isla egea de Rodas.
El Liceo de Aristóteles continuó su existencia en Atenas, pero cayó en el declive a
partir de mediados del siglo iii a. C. En este periodo surgieron tres escuelas de pensamiento
destacadas. Los epicúreos, los estoicos y los escépticos, que coincidían en que la filosofía
tenía que ser práctica y que su objetivo era alcanzar la ataraxia, un estado de tranquilidad.
Lo que sugiere que estaban más influidos por Sócrates que por Aristóteles.
Epicuro (341-271 a. C.) siguió la metafísica atomística de Leucipo y Demócrito y
argumentó que, puesto que la mente no era más que un conjunto de átomos que se
dispersaría cuando la vida abandonara el cuerpo, el miedo a la muerte carecía de sentido y
había que buscar el placer en esta vida. Sus detractores, y posteriormente los cristianos, le
dieron efectivamente la vuelta al concepto describiéndolo como una indulgencia excesiva
en manjares y sexo. Sin embargo, el placer para Epicuro era «la libertad del dolor del
cuerpo y el tumulto del alma», y por lo que parece llevó una vida abstemia durante la cual
cultivó las amistades y mostró generosidad con sus esclavos.
Los estoicos, una escuela de pensamiento fundada por Zenón de Citio a principios
del siglo iii a. C., creía que la ataraxia se alcanzaba cuando el hombre vivía en consonancia
con la naturaleza. De ahí que preguntaran a la naturaleza y llegaran a la conclusión de que
todo está determinado por el destino; en consecuencia, que proporcionaba la tranquilidad
era una actitud de aceptación del destino.
Los escépticos sostenían no conocemos con seguridad la naturaleza de las cosas, lo
cual demostraban formulando cualquier pregunta en dos sentidos; por lo tanto, la paz
mental se conseguía con la suspensión del juicio sobre las cosas.
Filosofía grecorromana
Todas estas corrientes de pensamiento siguieron evolucionando durante el ascenso
del imperio romano, en el cual los romanos adoptaron y desarrollaron el pensamiento
griego. El aristotelismo revivió durante esta época, aunque sus seguidores se concentraron
en conservar y comentar las obras de Aristóteles más que en realizar algún avance a partir
de ellas, y la escuela acabó muriendo en el siglo iii d. C.
Pero no se consiguió transformar la filosofía en una forma de pensar puramente
racional. En el siglo ii, por ejemplo, Marco Aurelio, emperador romano de pensamiento
estoico, aconsejaba retraerse en uno mismo, y ese uno mismo en el que el hombre tenía que
retraerse era «como la inteligencia universal que permea y organiza el mundo; de hecho,
forma parte de esa inteligencia».[25] Es un argumento similar a la revelación central de los
Upanishads: no solo todo es Brahmán, sino que el Yo también es Brahmán.
Podemos decir que el principal pensador de esta fase fue Plotino (circa 205-270 d.
C.), considerado el fundador del neoplatonismo. Por las evidencias de las seis Enéadas, se
deduce que era un místico cuyo objetivo era la unión con el Uno, algo que afirmaba haber
experimentado en diversas ocasiones. Para disfruta de la unión dichosa con el Uno,
aconsejaba que debemos abandonar
las demostraciones, las pruebas, el diálogo del alma consigo misma. Pero no
confundamos la razón con el acto y la facultad de ver; porque ambas cosas son mejores que
la razón y aun anteriores a ella, como lo es su objeto mismo.[26]
A través de la contemplación y de la virtud moral podemos elevar la mente hacia el
Uno. Este viaje mental no es solo un regreso al origen de nuestra existencia, sino también
un descubrimiento de nuestro verdadero yo. «Cuando el alma empieza a ascender de nuevo,
no va hacia otro ser sino hacia sí misma».[27] Esta revelación es también un reflejo de la
revelación de los Upanishads.
El pensamiento filosófico, sin embargo, bien sea a través del razonamiento o de la
revelación, a diferencia de la creencia en fuerzas sobrenaturales como los dioses o un Dios,
quedó reprimido en Occidente a partir de 529 d. C., cuando el emperador romano
Justiniano clausuró las escuelas atenienses porque socavaban el auge del cristianismo.
Escolasticismo
Los eruditos cristianos conocieron el aristotelismo en el siglo xii a través de las
traducciones y los comentarios árabes y sirios. La corriente había tenido escasa o nula
relevancia en Occidente durante casi mil años, lo que equivalía prácticamente al doble de
su existencia (a pesar de que en el mundo musulmán había renacido después de cinco
siglos).
Los teólogos cristianos conocidos como escolásticos adoptaron el razonamiento
aristotélico para demostrar la existencia de Dios. El más destacado de ellos, el dominico
Tomás de Aquino, que vivió en el siglo xiii, utilizó entre otros argumentos la primera causa
sin causa y el primer motor inmóvil.
Paradójicamente, el cristianismo había nacido a partir de la revelación. Los
evangelios de Mateo, Marcos y Lucas hablan del Espíritu de Dios que descendió sobre
Jesús de Nazaret, que pasó cuarenta días y cuarenta noches en el desierto sin comida.
Emergió de aquella circunstancia para predicar la revelación de que amar a Dios y amar al
prójimo igual que nos amamos a nosotros mismos (una versión de la Regla de Oro) era más
importante que la adherencia ciega a las leyes proclamadas en la Biblia hebrea.
La revelación espiritual continuó con los Padres del Desierto del siglo iii, a los que
siguieron las órdenes monásticas y una serie de personajes contemplativos como el Maestro
Eckhart, santa Teresa de Ávila y san Juan de la Cruz, hasta el siglo xvi.
A partir de finales del siglo xii, sin embargo, el razonamiento escolástico pasó a ser
dominante y se convirtió en el único método de pensamiento de las escuelas y
universidades occidentales, controladas todas ellas por la iglesia católica romana.
Filosofía moderna
El razonamiento escolástico acabó tan incrustado en Occidente, que los
reformadores protestantes del siglo xvi lo utilizaron para atacar a la iglesia católica romana,
mientras que los pensadores de la Ilustración del siglo xviii se sirvieron de él para
argumentar contra cualquier Iglesia. En la actualidad, los departamentos de Filosofía de las
universidades occidentales, la inmensa mayoría de las cuales son seglares, enseñan solo
razonamiento escolástico. De las nueve enciclopedias y diccionarios norteamericanas y
británicas que he consultado, siete definen la filosofía única y exclusivamente en términos
de este razonamiento. Esto, creo, fusiona esencia con método.
La ramificación del pensamiento filosófico

A medida que el pensamiento filosófico evolucionó en distintas partes del planeta,


se ramificó en incontables tradiciones y escuelas que han seguido ramificándose.
La división básica que suele presentarse es la que divide entre el Oriente místico y
el Occidente racional a partir de la época de los antiguos griegos. Pero a mi entender, una
ramificación más fundamental sería entre revelación y razonamiento, definiendo estos
términos como:
Revelación: ver con claridad la esencia de una cosa, normalmente de forma
repentina después de una meditación disciplinada o después de un intento infructuoso de
llegar a su comprensión a través del razonamiento.
Razonamiento: intento de comprender la esencia de una cosa a través de un
proceso lógico, basado en evidencias o en supuestos tomados como obvios.
Además de la meditación disciplinada para obtener una revelación, en la antigua
India se empleó también el razonamiento en varios Upanishads, en el sistema lógico
Nyaya, que es comparable en muchos sentidos al razonamiento aristotélico, en el sistema
lógico de los siete valores jainistas, en los discursos del Buda y la metafísica budista del
origen co-dependiente, etc. En China, a pesar de que el taoísta místico Zhuangzi rechaza el
razonamiento como método de indagación, Mencio, atribuido al filósofo confucionista del
siglo iv a. C., utiliza el razonamiento en sus discursos mientras que, por otro lado, los
mohistas utilizaron la lógica para llegar a sus ideas.
Estos son solo algunos de los muchos ejemplos que muestran que los pensadores
orientales utilizaron tanto la revelación como el razonamiento, y muchas escuelas siguen
empleando el razonamiento, por mucho que no sea su medio principal. Además, el
colonialismo occidental del siglo xix dio como resultado que muchos países orientales
adoptaran normas académicas occidentales. Describir la filosofía oriental como únicamente
mística es un error.
La escasez de evidencias nos lleva a no poder afirmar si muchos pensadores
occidentales de la antigüedad utilizaban la revelación o el razonamiento. No existen datos
fiables de pensadores pre-socráticos que, con la excepción de Zenón, utilizaran el
razonamiento para llegar a sus ideas, y las evidencias existentes sugieren que el concepto
de lo ilimitado de Anaximandro fue probablemente resultado de la revelación, igual que las
ideas místicas de Pitágoras y los pitagóricos. Heráclito era un místico, mientras que el joven
Sócrates podría haber utilizado la revelación. Filósofos como Marco Aurelio, en el siglo ii
d. C., y Plotino, un siglo después, eran sin duda alguna místicos, mientras que pensadores
como Arquímedes tuvieron revelaciones matemáticas y científicas, un tema que exploraré
en el próximo capítulo.
La excepción más clara a esta combinación de revelación y razonamiento la ofrece
Aristóteles, que valoraba el razonamiento por encima de todo. Pero el aristotelismo no fue
adoptado en Occidente hasta el siglo xii. La posterior consagración del razonamiento por
parte de la filosofía occidental podría deberse no solo a siglos de control de la educación
por parte de la Iglesia, sino también a la visión de que el razonamiento es superior a la
revelación. El distinguido filósofo británico Anthony Quinton escribió en 1995:
La filosofía es una búsqueda colaborativa, a diferencia de la actividad meditativa de
los sabios, que normalmente florece mejor en condiciones de aislamiento e, incluso,
eremíticas. El tipo de colaboración involucrada, sin embargo, no es colaborativa sino
competitiva […] un asunto de argumentos críticos. Los argumentos tienen que persuadir y,
para alcanzar el éxito, deben superar los contrargumentos. Los sabios se limitan a
comunicar sus pronunciamientos a aquellos que visitan su lugar de retiro.[28]
Esta última frase está muy lejos de la realidad. Además, que un método de
pensamiento filosófico sea superior al otro es cuestionable. El razonamiento depende de un
conjunto de supuestos previo o de la selección e interpretación de las evidencias.
Aristóteles, el racionalista supremo, razonó que los cuerpos celestiales están incrustados en
esferas cristalinas que giran alrededor de la Tierra, junto con otras cosas que son claramente
erróneas.
Por otro lado, la revelación mística de que una realidad suprema inefable —
independientemente de que se llame Brahmán, Tao, lo ilimitado de Anaximandro o el logos
de Heráclito— dio lugar a todas las cosas del cosmos, se acerca a la hipótesis moderna del
campo cuántico que defiende que el universo que percibimos se materializó a partir de una
fluctuación en un campo quántico cósmico preexistente.[29]
De un modo similar, la revelación mística de los Upanishads de que por debajo de
toda la materia y energía existe una fuerza de energía universal (prana), igual que la
revelación del pyr de Heráclito, recuerda la moderna conjetura de cuerdas de que toda la
materia y la energía consisten en cuerdas de energía.[30]
Y la revelación mística de los primeros taoístas de que el Tao no es solo el origen de
todo sino también el Camino hacia el funcionamiento natural del mundo, así como el logos
de Heráclito, prefiguran las leyes físicas de la ciencia que regulan la formación y la
evolución del universo que percibimos pero cuya causa la ciencia no puede explicar.[31]
Estas revelaciones no implican ningún dios o Dios antropomórfico. Las llamaré
místicas para diferenciarlas de las revelaciones espirituales que reivindican una revelación
por parte de Dios o de un dios o por parte de un mensajero de ese Dios o dioses que
normalmente exhorta al receptor a defender un determinado proceder entre los creyentes en
esa deidad. En este sentido, la revelación espiritual forma parte del pensamiento primitivo
tal y como se definió en el anterior capítulo. El límite entre ambos aspectos es borroso y así
se ve, por ejemplo, cuando Aristóteles atribuye divinidad a la primera causa sin causa o
cuando algunas escuelas hinduistas interpretan Brahma como el dios supremo que está por
encima de todas las formas. Otras escuelas hinduistas, sin embargo, cruzan este límite y
personifican a Brahma como el dios Visnú o el dios Shiva, cada uno de los cuales, según
sus devotos, se encarna periódicamente para intervenir en los asuntos humanos.
Si aceptamos como principal ramificación de la filosofía la división que se produjo
del siglo xii en adelante, cuando en Occidente se identificó el razonamiento como único
método filosófico válido, ¿cómo podemos plasmar las ramificaciones que se han producido
posteriormente en el pensamiento filosófico?
A medida que el pensamiento filosófico fue extendiéndose, interactuando y
multiplicándose, y a medida que fueron produciéndose descubrimientos que generaron más
pensamiento, se empezaron a formar incontables escuelas. La tendencia clara para afrontar
este gran incremento de ideas fue la especialización. La forma más útil de plasmar el
siguiente nivel de ramificación es a partir de los objetos de indagación, lo que genera seis
campos principales de especialización. A pesar de que sus límites son confusos, en términos
generales podrían resumirse como sigue.
Metafísica: la rama del razonamiento que investiga e intenta comprender la
realidad suprema o la esencia y la causa de todas las cosas, tanto materiales como
inmateriales.
Filosofía natural: la rama del razonamiento que investiga e intenta comprender el
mundo natural que perciben nuestros cinco sentidos, así como su funcionamiento.
Lógica: la rama del razonamiento que intenta distinguir de manera sistemática las
inferencias válidas de aquellas que no lo son concibiendo reglas para el razonamiento
inductivo y deductivo, principalmente.
Epistemología: la rama del razonamiento que investiga la naturaleza, las fuentes, la
validez, los límites y los métodos del conocimiento humano.
Ética: la rama del razonamiento que evalúa la conducta humana e intenta producir
códigos que gobiernen la buena conducta entre individuos, entre un individuo y un grupo
de individuos (como podría ser una sociedad o un estado), y entre grupos de individuos.
Estética: la rama del razonamiento que intenta comprender y comunicar la esencia
de la belleza en la naturaleza y en las creaciones humanas.
Estos campos evolucionaron, y siguen evolucionando. Antes de Platón no había
distinción entre metafísica y filosofía natural, y la filosofía natural evolucionó
gradualmente hacia la ciencia, como veremos en el próximo capítulo.
Las ramas se ramificaron y siguen ramificándose. Por ejemplo, la metafísica se
dividió en tres escuelas de pensamiento: monismo, que sostiene que la realidad suprema
consiste solo en una cosa; el dualismo, que defiende que lo material y lo mental (o
consciencia) son cosas fundamentalmente distintas; y el pluralismo, que sostiene que la
realidad consiste en numerosos tipos de cosas que no pueden reducirse solo a una o dos.
La revelación tiende a ser holística, pero lo que se ramificó considerablemente fue
la interpretación de la revelación inefable del vidente por parte de discípulos de posteriores
generaciones. Creo, de todos modos, que resulta útil mostrar una ramificación entre los
objetos de revelación y reconocer que, como consecuencia de su carácter holístico, las
ramas se solapan incluso más que las ramas del razonamiento. Así, por ejemplo, la
revelación psicológica de Siddhartha Gautama de las Cuatro nobles verdades se fusionó con
la revelación ética del Noble camino óctuple.
Sugiero seis divisiones básicas, que defino como sigue, aunque reconozco que son
debatibles.
Revelación mística: la comprensión directa de la realidad suprema; la esencia y la
causa de todas las cosas.
Revelación científica: la comprensión directa de la esencia o las causas de los
fenómenos naturales, sus interacciones u otras relaciones y, a menudo, de las reglas que
gobiernan estas interacciones o relaciones.
Revelación matemática: la comprensión directa de las propiedades, o de las
relaciones, entre números, formas reales y abstractas y, a menudo, de las reglas que
gobiernan estas relaciones.
Revelación psicológica: la comprensión directa de por qué y cómo los individuos,
o grupos de individuos, piensan y se comportan como lo hacen.
Revelación ética: la comprensión directa de cómo, y a menudo por qué, los
humanos deberían comportarse como individuos o como grupo con respecto a otros
individuos y otros grupos.
Revelación artística: la comprensión directa que da como resultado la creación de
obras visuales, musicales o escritas bellas o capaces de provocar el pensamiento.
Con frecuencia, la revelación científica no surge de un proceso de meditación
disciplinada sino después de que el científico no consigue resolver el problema a través del
razonamiento y entra en un estado de consciencia alterada, a menudo de forma no
intencionada, relajándose, dejando de razonar y desconectando (pensando muy poco); es
entonces cuando, de repente, la respuesta aparece como surgida de la nada.[32] Lo mismo
aplica para la revelación matemática y otras revelaciones.
Visión general de la evolución noética

La figura 28.2 es un intento de ofrecer una visión general de la evolución del


pensamiento filosófico, mostrando su emergencia a partir de la superstición del
pensamiento primitivo, junto con la evolución de las principales ramas del pensamiento
primitivo discutidas en el capítulo anterior, más el instinto.
Igual que la figura 27.1, de la que deriva, la figura 28.2 es una imagen
bidimensional de un proceso dinámico e interactivo de cuatro dimensiones en el que las
ramas, sub-ramas, y sub-sub-remas no solo cambian con el paso del tiempo sino que
además interactúan con otras ramas para hibridar, mutar o generar una nueva rama. Por
ejemplo, las revelaciones psicológicas y éticas de Siddhartha Gautama interactuaron con la
metafísica para desarrollar una rama dentro de la metafísica que razonaba —y sigue
razonando— sobre temas como la esencia del yo y el no-yo, mientras que la lógica
interactuó con la creatividad y la inventiva para generar la nueva rama de los lenguajes
informáticos.
El diagrama no está confeccionado a escala. Mientras que la consciencia reflexiva
emergió plenamente de la consciencia en el Paleolítico Superior, hace entre 40.000 y
10.000 años (para abreviar, hace aproximadamente 25.000 años), el pensamiento filosófico
solo emergió de la superstición del pensamiento primitivo hará cuestión de 3.000 años, y la
revelación y el razonamiento divergieron hace aproximadamente 800 años. Dicho de otro
modo, si la existencia humana se representara mediante un reloj de 24 horas, la filosofía
aparecería aproximadamente 2 horas y 53 minutos antes de la medianoche, mientras que el
razonamiento, como único método de pensamiento filosófico impartido en Occidente,
aparecería 45 minutos antes de la medianoche.
La superstición —en forma de mitos y creencias religiosas que surgen de la
ignorancia de las leyes de la naturaleza o del temor a lo desconocido y que ahora sabemos
que entra en conflicto con evidencias sólidas— se ha inculcado en la humanidad a lo largo
de más de mil generaciones. No es de extrañar que su influencia siga siendo tan fuerte y
generalizada hoy en día y que siga siendo un formidable competidor de la razón y la
revelación en los intentos de responder las principales preguntas de la existencia humana.
Conclusiones

1. Los intentos de responder a las preguntas fundamentales de qué somos y de


dónde venimos entraron en una nueva fase en distintos lugares del planeta hace
aproximadamente 3.000 años, cuando el pensamiento filosófico se separó de las
supersticiones del pensamiento primitivo. Los intentos se caracterizaron por un deseo de
buscar explicaciones que no invocaran espíritus imaginarios, dioses antropomórficos o
Dios, figuras en las que se había creído durante más de 20.000 años.
2. El pensamiento filosófico emergió probablemente en primer lugar en el
subcontinente indio, mientras que los otros centros principales fueron China y la colonia
griega de Jonia.
3. Los filósofos se sirvieron de la revelación, a menudo resultante de un ejercicio
disciplinado de meditación, y del razonamiento, basado en supuestos o interpretaciones de
las evidencias.
4. Como todas las emergencias consideradas hasta el momento, resulta difícil
distinguir los primeros y torpes intentos de pensamiento filosófico de sus raíces, las
supersticiones primitivas inculcadas por las religiones. A medida que se desarrollaron y
diseminaron, su evolución mostró un patrón similar al de la evolución filetica de la biología
en su respuesta a los distintos entornos locales. Hubo capullos del pensamiento filosófico
que nunca llegaron a desarrollarse; otros se desarrollaron y se marchitaron; algunos fueron
asimilados y alterados por otras escuelas; los hubo que interactuaron con las creencias
locales y mutaron en religiones; algunos fueron asimilados o destruidos por las religiones o
los gobernantes; otros quedaron en barbecho y revivieron mucho más tarde; algunos fueron
fomentados por los gobernantes y florecieron; los que sobrevivieron, siguen evolucionando
y ramificándose.
5. Las revelaciones de los videntes, fueran indios, chinos o romanos, suelen
compartir rasgos comunes, en particular la unidad subyacente de todas las cosas. En la
mayoría de los casos, esta unidad subyacente, o realidad suprema, fue experimentada como
algo inefable que podría definirse como una consciencia trascendente cósmica o una
inteligencia informe que existe más allá del espacio y el tiempo, que además es inmanente,
en el sentido de que da origen a todos los fenómenos percibidos por nuestros cinco sentidos
físicos y por nuestra mente; a partir de esta unidad subyacente, la esencia de todos nosotros
es idéntica al todo. Además, esta realidad suprema se manifiesta en el cosmos y regula su
funcionamiento, y para alcanzar la plenitud deberíamos armonizar nuestra vida con ella.
6. A pesar de que la revelación suele ser holística, podría dividirse en ramas según el
objeto de indagación. Lo que se ramificó considerablemente fueron las escuelas fundadas
para interpretar, practicar e impartir las enseñanzas relacionadas con las revelaciones de los
distintos videntes.
7. El razonamiento se empleó para impartir las enseñanzas relacionadas con las
revelaciones y como método de indagación. Podría dividirse también en ramas según el
objeto de indagación, que a su vez se ramifican en distintas escuelas a medida que el
razonamiento se difunde, interactúa y se multiplica en respuesta a nuevas ideas.
8. Allí donde el pensamiento se concentra en la ética —cómo deberíamos
comportarnos—, todos los antiguos filósofos, independientemente de que utilizaran la
revelación o el razonamiento, predicaron que la felicidad o la tranquilidad solo se alcanza si
actuamos sin egoísmo y actuamos con los demás como quisiéramos que actuaran los demás
con nosotros. Esto iba en contra del impulso instintivo hereditario de agresión, guerra y
conquista dominante en todas las sociedades. La base de esta idea es que la cooperación, y
no la competencia, es lo que genera el progreso de la humanidad.
9. A finales del siglo xii se produjo una ramificación fundamental entre revelación y
razonamiento; fue en el momento en que Occidente adoptó el razonamiento como único
método de pensamiento filosófico, aunque la evidencia no sustenta la superioridad de un
método sobre otro.
En el siguiente capítulo me centraré en la emergencia de la siguiente fase de la
evolución humana, el pensamiento científico y su posterior desarrollo.
[1]Russell (1946), p. 21.
[2]A History of Western Philosohy, editado en español bajo el título Historia de la
filosofía occidental, Espasa Libros, Madrid, 1984.
[3]The Oxford Companion to Philosophy, de Ted Honderich, editado en español
bajo el título Enciclopedia Oxford de filosofía, Ed. Tecnos, Madrid, 2008.
[4]Quinton, Anthony, «History of Centres and Departments of Philosophy», pp.
670–672 en The Oxford Companion to Philosophy editado por Ted Honderich. Oxford
University Press, Oxford,1995.
[5]Las fuentes para esta sección incluyen The Upanishads (1987); Nagler (1987);
The Upanishads (1884); The Ten Principal Upanishads (1938); Honderich (1995); Smart
(1992); más dos semanas en el Mandala Yoga Ashram (Director, Swami Nishchalananda
Saraswati) en 2002.
[6]Citado en Nagler (1987), p. 300.
[7]The Upanishads (1987), p. 21.
[8]Nagler (1987), p. 253.
[9]Mohanty, Jitendra Nath «Philosophy, Indian», Microsoft Encarta Online
Encyclopedia, 2005, http://uk.encarta.msn.com
[10]Chakrabarti, Arindam, «Indian Philosophy», pp. 401–404 en The Oxford
Companion to Philosophy, 1995.
[11]David Frawley, comunicación personal, 1 de marzo de 2004.
[12]Citado en Nagler (1987), p. 256.
[13]Las fuentes para esta sección incluyen Confucio (1893); Zhuangzi (1891);
Riegel (2012); Shun, Kwong-loi, «Taoism», pp. 864–865 en The Oxford Companion to
Philosophy, 1995; Fraser (2012); Hansen (2012); «Confucianism», The Columbia
Electronic Encyclopedia, 6ª ed., Columbia University Press, 2012; Smart (1992), pp. 103–
114; Capra (2000), pp. 101–118.
[14]Confucio 15:24.
[15]Zhuangzi (1891), capítulo 22:5.
[16]Las fuentes para esta sección incluyen Russell (1946), pp. 10–101; Gottlieb
(2001) pp. 1–108; O’Grady (2006); Couprie (2006); Curd (2012); Hussey, E. L.,
«Heraclitus of Ephesus», pp. 351–352 en The Oxford Companion to Philosophy, 1995;
Taylor, C. C. W., «Sophists», pp. 839–840 en The Oxford Companion to Philosophy, 1995.
[17]Russell (1946), p. 37.
[18]Las fuentes para esta sección incluyen The Revised English Bible; Armstrong
(2006).
[19]Las fuentes para esta sección incluyen Chakrabarti, Arindam, «Indian
Philosophy», pp. 401–404 en The Oxford Companion to Philosophy, 1995; Frawley (1992);
Batchelor (1998); Bronkhorst (2011); Keown (2003); Mohanty (2005); Smart (1992), pp.
55–102; Pauling (1997); Shun (1995); más un retiro de estudio y meditación de nueve días
en la Buddhist Gaia House, Devon, dirigido por Stephen y Martina Batchelor, varios retiros
de meditación guiados en: Gaia House Londres, y cursos y sesiones de meditación guiada
en el North London Buddhist Centre.
[20] Véase página 39 para los ciclos del cosmos del jainismo.
[21]Gombrich (2006), p. 8.
[22]Las fuentes para esta sección incluyen Hansen (2012); Fraser (2012); Smart
(1992), pp. 103–129.
[23]Las fuentes para esta sección incluyen Gottlieb (2001), pp. 131–431; Russell
(1946), pp. 102–510; Platón (1965); Shields (2012); Charles, David, «Aristotelianism», pp.
50-51 en The Oxford Companion to Philosophy, 1995.
[24]Quoted in Gottlieb (2001), p. 131.
[25]Marco Aurelio Meditaciones VII, 28 citado en Gottlieb (2001), p. 314.
[26]Plotino (2010), VI, 9º Tratado, 10.
[27]Ibíd. VI, 9º Tratado, 11.
[28]Quinton, Anthony, «History of Centres and Departments of Philosophy», pp.
670–672 en The Oxford Companion to Philosophy, 1995.
[29] Véase página 95.
[30] Véase página 121.
[31] Véase página 166.
[32] Véase página 794 para ejemplos.
CAPÍTULO 29. LA EVOLUCIÓN HUMANA 3: El PENSAMIENTO
CIENTÍFICO

Un científico, queridos amigos, es un hombre que predice; y es así porque la


ciencia proporciona los medios para predecir lo que es útil, y los científicos son por ello
superiores a todos los demás hombres.

Henri de Saint-Simon, (1760-1825)

La ciencia puede describirse como el arte de la simplificación excesiva sistemática.

Karl Popper, 1982

La tercera fase de la evolución humana se caracteriza por el pensamiento científico,


en el que el conocimiento y la comprensión se obtienen empíricamente y no a través de
especulaciones filosóficas o creencias basadas en supuestas revelaciones sobrenaturales.
Como vimos en el capítulo 1, el significado del término «ciencia» ha cambiado con
el paso de los siglos y, por lo tanto, resulta útil reafirmar la definición contemporánea que
se ha utilizado en este libro.
Ciencia: el intento de comprender y explicar los fenómenos naturales mediante la
observación y la experimentación sistemáticas, y preferiblemente mensurables, y de aplicar
el razonamiento al conocimiento obtenido de esta manera para deducir leyes verificables y
realizar predicciones o retrodicciones.
A pesar de que solapa con la tecnología, considero útil realizar una distinción entre
ambas.
Tecnología: la invención, creación y utilización de herramientas o máquinas para
solventar un problema.
La ciencia es inseparable de su método. Y esto también ha cambiado con el tiempo.
La convención actual defiende un método de cinco pasos que se resume en la siguiente
definición.
Método científico (teórico)
1. Los datos se recopilan mediante la observación sistemática, o la experimentación,
del fenómeno objeto de estudio.
2. A partir de estos datos se obtiene una conclusión provisional, o hipótesis.
3. Las predicciones deducidas a partir de esta hipótesis se someten a test mediante
más observaciones o experimentos.
4. Si los test confirman las predicciones, y verificadores independientes reproducen
estas confirmaciones, la hipótesis se acepta como teoría científica hasta que llega el
momento en que nuevos datos entran en conflicto con la teoría.
5. Si aparecen nuevos datos que entran en conflicto con la teoría, la teoría se
modifica o se descarta a favor de una nueva hipótesis que es consistente con todos los
datos.
En la práctica, no siempre se siguen todos los pasos. Alexander Fleming no
descubrió las propiedades antibióticas de la penicilina a partir del Paso 1, sino que un día, al
regresar a su laboratorio después de semanas de ausencia, descubrió que las bacterias que
había dejado por descuido en una placa de cultivo habían sido destruidas por un moho
llamado penicilina. Wilhelm Rontgen descubrió los rayos X en una habitación oscura
después de tapar con cartón negro un tubo de rayos catódicos con el que había estado
experimentando y al ver que una pantalla fluorescente se iluminaba de forma inesperada.
En el capítulo 3 vimos que la evidencia del fondo cósmico de microondas fue descubierto
por casualidad.[1]
La revelación, más que el Paso 2, ha sido la responsable de la mayoría de avances
científicos. Es lo que se conoce popularmente como el «momento eureka», en honor a
Arquímedes, el matemático e inventor de la antigua Grecia, de quien se dice que saltó
desnudo de la bañera y empezó a correr por las calles gritando «eureka» (lo he descubierto)
después de comprender de repente que la fuerza ejercida por un cuerpo inmerso en un
líquido es igual al peso del líquido que el cuerpo desplaza. El químico alemán August
Kekule informó de que, después de no conseguir descifrar la estructura molecular del
benceno, se adormiló delante de la chimenea. En las llamas del fuego vislumbró la imagen
del antiguo mito de la serpiente mordiéndose su propia cola y de pronto cayó en la cuenta
de que el benceno no tenía una estructura lineal, sino de anillo.[2] Cuando Albert Einstein
explicaba cómo llegó a sus ideas revolucionarias, decía:
Una nueva idea llega de repente y de forma intuitiva. No se llega a ella a través de
mediante conclusiones lógicas conscientes.[3]
A menudo, la respuesta de los científicos cuando descubren datos que entran en
conflicto con una teoría consagrada no es seguir el Paso 5, sino cuestionar los datos y los
métodos mediante los cuales esos datos fueron recopilados, o ignorarlos,[4] o interpretarlos
de tal manera que sean consistentes con la teoría.[5]
Lo que se describe a menudo como el método hipotético-deductivo quedaría mejor
descrito como un análisis lógico de cómo las teorías científicas obtienen solidez a partir de
las evidencias, pero suele ser el único método científico que se enseña en la actualidad en
las universidades.
La emergencia del pensamiento científico

Las primeras ciencias pueden dividirse en tres grupos que se solapan entre sí —
ciencias físicas, ciencias de la vida y ciencias médicas—, cuyas ramas emergieron en
momentos distintos.
Ciencias físicas: las ramas de la ciencia que estudian los fenómenos inanimados;
incluyen la astronomía, la física, la química y las ciencias de la Tierra.
Ciencias de la vida: las ramas de la ciencia que estudian las características de los
organismos vivos (plantas, animales y humanos), así como las relaciones entre dichas
características.
Ciencias médicas: las ramas de la ciencia que se aplican para conservar la salud,
impedir y tratar enfermedades, y tratar lesiones.
Ciencias médicas

Este último grupo aplica los descubrimientos de los dos primeros, en especial de las
ciencias de la vida, para alcanzar el objetivo de la supervivencia humana. Sus raíces se
remontan a la antigüedad, cuando las enfermedades y los males se consideraban producto
de los espíritus o los dioses. Los primeros intentos de comprender y tratar las causas físicas
de la enfermedad surgieron a partir de estas supersticiones y están relacionados con ellas.
Sin embargo, tanto el Papiro Edwin Smith, datado hacia 1600 a. C. y considerado
una copia de varias obras egipcias anteriores, como el Manual de diagnóstico, de origen
babilónico y datado hacia 1050 a. C., detallan de manera racional el examen, diagnóstico,
tratamiento y prognosis de diversas enfermedades.
El texto fundacional de la medicina china es el Huangdi neijing, atribuido
tradicionalmente al mítico Huangdi, o «emperador amarillo», datado entre el siglo iiiy ii a.
C. El texto aborda con un enfoque empírico, basado en la filosofía taoísta, diversas
enfermedades y sus tratamientos y se impone como objetivo recuperar el equilibrio
dinámico de las energías vitales del cuerpo, en especial del qi (la fuerza vital) y de la
circulación sanguínea, armonizando el yin y el yang tanto de la conducta como de los
órganos del cuerpo.[6] Su legado es la medicina tradicional china que se practica hoy en
día.
En la antigua India, la ayurveda, que significa conocimiento de una larga vida,
aplicaba métodos racionales a los tratamientos médicos. Sus dos textos más influyentes
pertenecen a las escuelas de Charaka y Sushruta, nacidas ambas en torno a 600 a. C. El
primero detalla ocho ramas de la medicina, mientras que el segundo incorpora un amplio
abanico de técnicas quirúrgicas, entra las que destaca la cirugía de las cataratas y la cirugía
plástica para reconstruir la nariz (que solía cortarse a modo de castigo). La ayurveda
aplicaba la teoría de los cinco elementos que componen todo el universo y hacía hincapié
en el equilibrio entre tres energías elementales, o humores, para mantener un estado óptimo
de salud. En la antigua Grecia (ver más adelante) encontramos un enfoque similar. La
pregunta de si se trata de conclusiones alcanzadas de forma independiente o resultado de la
transmisión cultural sigue abierta.
En la antigua Grecia se construyeron asclepieia, templos dedicados a Escolapio, el
dios de la curación, adonde acudían los pacientes para ser tratados. A partir de esos inicios
basados en la superstición surgieron cerca de setenta textos atribuidos al médico del siglo v
a. C., Hipócrates de Cos (aunque lo más probable es que fueran escritos por sus alumnos a
lo largo de varias décadas), que describen y clasifican muchas enfermedades, tratamientos
—incluyendo tratamientos quirúrgicos— y prognosis. Los textos se basan en la visión
dominante en la época de que todo en el cosmos estaba constituido por cuatro elementos:
fuego, aire, agua y tierra.[7] Por el cuerpo circulaban además cuatro humores, o líquidos —
la bilis negra, la bilis amarilla, la flema y la sangre—, resultado de distintas combinaciones
de los cuatro elementos. Para conservar un cuerpo sano y una buena disposición mental era
imprescindible que estos humores se mantuvieran en equilibrio.
Durante el periodo helenístico, las disecciones de animales realizadas por
Aristóteles estimularon la aparición de nuevas ideas sobre la anatomía y la fisiología
humanas, una tendencia que culminó en el periodo grecorromano con las obras del griego
Galeno (circa 130-200 d. C.). Su síntesis y desarrollo de las teorías anatómicas y médicas
aristotélicas, platónicas e hipocráticas, incluyendo los cuatro humores, crearon un canon.
Hacia 750 d. C., los eruditos del imperio musulmán habían traducido al árabe las
obras atribuidas a Charaka, Sushruta, Hipocrates y Galeno. Sus médicos, y muy en especial
el erudito Ibn Sina (conocido en Occidente como Avicena), utilizaron y desarrollaron estas
ideas. La magistral enciclopedia escrita por Avicena en 1025, el Canon de Medicina, fue
traducida al latín en el siglo xii y se convirtió en el texto médico más influyente hasta el
siglo xvii, no solo en el mundo musulmán sino también en Europa.
A mediados del siglo xvi, sin embargo, la investigación con cadáveres humanos
llevada a cabo por el belga Andreas Vesalio, de la Universidad de Padua, demostró unos
doscientos errores en la anatomía de Galeno (los conceptos de Galeno estaban basados en la
disección de animales, a partir de los que se habían extraído conclusiones sobre la anatomía
humana). En 1628, el médico inglés William Harvey publicó Exercitatio Anatomica de
Motu Cordis et Sanguinis in Animalibus (Estudio anatómico sobre los movimientos del
corazón y la sangre de los animales), que describe una serie de experimentos que
condujeron al descubrimiento de la circulación de la sangre y del papel desempeñado por el
bombeo del corazón que anuló numerosos conceptos galénicos. Este respetable trabajo
empírico señaló la emergencia de la ciencia médica moderna a partir de sus raíces en la
medicina antigua.
Ciencias de la vida

Las ciencias de la vida se remontan a la clasificación de ejemplares zoológicos


llevada a cabo por Aristóteles[8] y a la clasificación de ejemplares botánicos realizada por
Teofrasto, su sucesor como director del Liceo.
Podría decirse que las ciencias de la vida, tal y como las entendemos en la
actualidad, surgieron en el siglo xvii con los experimentos de Harvey y las observaciones
llevadas a cabo con el recién inventado microscopio por eruditos como Antoine van
Leeuwenhoek, que descubrió los glóbulos rojos, los espermatozoides y las bacterias.
Ciencias físicas

La ciencia física más antigua es la astronomía.


Astronomía: estudio observacional de lunas, planetas, estrellas, galaxias y
cualquier otra materia que quede más allá de la atmósfera de la Tierra, y de sus
movimientos.
Como vimos en el capítulo 27, a la evidencia del alineamiento de megalitos
europeos hace alrededor de 5.200 años le siguen los catálogos estelares de babilonios,
indios, chinos y mayas.[9] El hecho de que la astronomía se utilizara al servicio de la
superstición no niega sus métodos de observación sistemática de los fenómenos naturales, a
partir de los cuales se realizaron mediciones y predicciones muy precisas.
Los eruditos islámicos utilizaron las traducciones al griego de trabajos de
astronomía griegos e indios para desarrollar la ciencia. Construyeron observatorios, entre
los que destaca el de Maragheh, en Persia, que se remonta a 1259. Las evidencias no dejan
claro si fueron astrónomos islámicos los que propusieron por primera vez la rotación de la
Tierra. Nicolás Copérnico, el erudito polaco y canónigo de la catedral católica de
Fraunberg, Prusia, está reconocido como el postulante de la teoría de que la Tierra rota
sobre su eje y traza una órbita alrededor del sol, igual que los demás planetas. Pero lo más
probable es que se inspirara en los argumentos geométricos de astrónomos islámicos como
Ala al-Din Ibn al-Shatir y otros para la elaboración de su trascendental libro, De
revolutionibus orbium coelestium (Sobre las revoluciones de las esferas celestes), que
desafió la visión bíblica y aristotélica de que la Tierra era el centro del universo. Se negó a
publicarlo hasta 1543, el año de su muerte, por temor a la respuesta de la iglesia católica.
[10]
La teoría de Copérnico fue corroborada y refinada por los astrónomos Tycho Brahe
y Johannes Kepler, pero fue Galileo Galilei, a principios del siglo xvii, quien proporcionó
no solo la base matemática, sino también observacional con uno de sus primeros
telescopios e informó, entre otras cosas, de la existencia de las cuatro lunas de Júpiter y de
las fases de Venus.
La interacción de la astronomía con la filosofía natural jugó un papel decisivo en la
aparición de la física.
Física: la rama de la ciencia que investiga la materia, la energía, la fuerza y el
movimiento, y la interacción entre todos ellos.
Esta emergencia apenas fue reconocida en su momento, y el término «filosofía
natural» siguió utilizándose hasta mucho después de que el conocimiento empezase a
adquirirse a través de métodos empíricos, lo que lo distinguió con claridad de los
conocimientos filosóficos, adquiridos a través del razonamiento o la revelación.
De hecho, la física, tal y como la entendemos en la actualidad, había empezado a
florecer a partir de la filosofía natural en un momento tan temprano como el siglo vi a. C.
Juan Filopón, en un experimento que normalmente se atribuye a Galileo pero que fue
llevado a cabo más de mil años antes de que este naciera, refutó la teoría de la caída de los
cuerpos de Aristóteles lanzando dos objetos de peso muy distinto y demostrando que
impactaban contra el suelo al mismo tiempo.[11] Pero este capullo no llegó a más. Ocho
siglos más tarde, un grupo de eruditos, que pasó a la posteridad como los Calculadores de
Oxford, introdujo la medición y el cálculo en la filosofía natural y creó el concepto de
velocidad; distinguieron también entre calor y temperatura.[12] Pero este capullo tampoco
llegó a florecer.
Galileo había leído acerca del experimento de Filopón. Expresó en términos
matemáticos la aceleración uniforme de los cuerpos en movimiento y sentó las bases de la
mecánica que Isaac Newton publicaría en 1687, con sus tres leyes del movimiento y la ley
de la gravitación universal, que relegaron a la papelera la cosmología de Aristóteles. Los
experimentos de Newton con prismas que separaban la luz blanca en distintos colores
dieron como resultado la teoría de que la luz estaba compuesta por corpúsculos minúsculos,
o partículas, que obedecían sus leyes del movimiento.
En un periodo de aproximadamente 150 años, desde mediados del siglo xvi hasta
finales del siglo xvii, el pensamiento científico emergió con fuerza en Europa, no solo para
desaprobar gran parte de los conceptos de filosofía natural, astronomía y medicina
originadas en la antigüedad, sino también para proponer nuevas teorías con predicciones
sustentadas por la observación sistemática y la experimentación. Fue lo que posteriormente
fue calificado como la «revolución científica».
Su emergencia fue consecuencia de cinco factores sinérgicos. En primer lugar, la
traducción al latín de las traducciones al árabe de los antiguos textos griegos y de los
avances árabes desarrollados a partir del siglo xii, ayudaron a dar forma al Renacimiento.
Esta resurrección de la cultura clásica produjo la aceptación inicial de la autoridad de
pensadores como Aristóteles y Galeno, seguida a continuación por la puesta en duda de sus
ideas.
En segundo lugar, la demanda creciente de conocimiento llevó a un aumento del
número de universidades repartidas por la Europa del Renacimiento, donde las ideas se
divulgaron y se discutieron.
En tercer lugar, la tecnología para la supervivencia se adaptó a los nuevos
conocimientos y salió favorecida con ello. En las ciudades italianas de Venecia y Florencia
se refinó la fabricación del cristal a partir del siglo xiii y los nuevos productos se utilizaron
para crear lentes para cristales de ampliación y posteriormente gafas, que ayudaron a
compensar los problemas de visión. Pero la invención del telescopio, que se atribuye a
fabricantes de cristal holandeses, no se produjo hasta 1608. Uno de ellos, Hans Lippershey,
descubrió por casualidad que mirando a través de dos lentes con distinta longitud óptica
colocadas en posición alineada se obtenía una visión aumentada de los objetos lejanos.
Llamó a su invento «lente de espionaje»,[13] porque pensó que serviría para espiar a los
ejércitos enemigos en tiempos de guerra.
La noticia del gran invento corrió como la pólvora. El matemático y científico
inglés, Thomas Harriot, produjo en agosto de 1609 un telescopio que sextuplicaba la
potencia del primero para observar la luna. Galileo fabricó uno que multiplicaba por veinte
la potencia del que había empleado para observar la luna y descubrió cuatro lunas de
Júpiter y resolvió el problema de los cúmulos de estrellas; publicó los resultados en marzo
de 1610. Con cada incremento de la potencia de ampliación, el conocimiento de los cuerpos
celestiales y de sus movimientos fue multiplicándose.
El microscopio fue para las ciencias de la vida el equivalente del telescopio para la
astronomía.
Métodos para medir el tiempo, como el reloj de sol, el reloj de agua y el reloj
horario, habían sido inventados para fines astrológicos, astronómicos, agrícolas, religiosos
y demás. Pero el invento del reloj de péndulo por parte del científico holandés Christian
Huygens en 1655 ofreció una precisión mucho mayor y se utilizó para recopilar datos y
poner a prueba muchas teorías dentro del campo de la astronomía y la física.
En cuarto lugar, la diseminación del conocimiento aumentó rápidamente gracias a
otro invento tecnológico. La impresión sobre papel había sido inventada en China en el
siglo ix para copiar y distribuir las frases de Buda, pero fue el invento de la imprenta con
tipos móviles que realizó Johannes Gutenberg en 1439 lo que transformó el volumen y la
velocidad de las impresiones y, con ello, la divulgación del conocimiento, de los nuevos
descubrimientos y de las nuevas teorías.
En quinto lugar, se fomentó la cooperación entre la gente estimulada por la
divulgación de los conocimientos y los descubrimientos. La competencia seguía siendo
fuerte, tal y como ejemplifican los distintos intentos de patentar el telescopio y las
rivalidades entre científicos como Newton y Lebniz por el invento del cálculo. Pero cada
vez más, las nuevas generaciones de científicos adoptaron un enfoque distinto y cooperaron
para desarrollar ideas y difundir la información sobre sus descubrimientos. En 1652, un
grupo de médicos de la ciudad alemana de Schweinfurt fundó la Academia de las
Curiosidades de la Naturaleza, que acabaría convirtiéndose en la Academia Alemana de las
Ciencias; en 1670 publicaron la primera revista médica y científica del mundo. En 1660, un
grupo de científicos, entre los que destacaban Robert Boyle y Christopher Wren, decidió
reunirse semanalmente para intercambiar información, discutir y realizar experimentos. Al
año siguiente habían recibido ya una carta estatutaria real. La Real Sociedad de Londres
para el Avance de la Ciencia Natural, que acabó transformándose en la Royal Society,
adoptó como lema Nullius in verba (En las palabras de nadie) para expresar su
determinación a cuestionar la autoridad recibida y buscar la verificación de todo mediante
la experimentación o la observación. Difundió sus descubrimientos a través de su revista,
Proceedings of the Royal Society. Un patrón similar siguió la fundación en 1666 de la
Academia Francesa de las Ciencias, en 1700 la Academia Prusa de las Ciencias y en 1725
la Academia Rusa de las Ciencias.
La evolución del pensamiento científico

Después de su emergencia, el pensamiento científico evolucionó rápidamente


debido a los factores que acabamos de mencionar y, en particular, gracias a la mejora del
acceso a la educación, al desarrollo de nuevas tecnologías —diseñadas ahora
específicamente para la indagación científica más que simplemente adaptadas de aquellas
diseñadas para otros fines—, al desarrollo de medios incluso más efectivos para copiar y
difundir la información y gracias también al aumento de la cooperación entre científicos.
Todo ello llevó a una expansión cada vez más rápida del conocimiento científico
que dio como resultado la ramificación de la indagación científica en ramas cada vez más
especializadas, con sus propias sociedades y publicaciones y sus propios departamentos
universitarios. La figura 29.1 es un intento de ofrecer una visión general de este proceso. Se
centra en la ramificación de la rama de la filosofía natural que aparece ilustrada en la figura
28.2. Igual que sucedía con aquella figura, se trata de una imagen bidimensional
simplificada de un proceso dinámico e interactivo de cuatro dimensiones. Con el fin de
plasmar la situación con claridad, no se muestran todas las ramas y sub-ramas.[14]

La emergencia del pensamiento científico no significó que el pensamiento


supersticioso dejara de tener practicantes. Más bien al contrario. La superstición, que
aparece como una rama importante en la figura 28.2 interactuando con la filosofía natural,
siguió interactuando también con la ciencia. El reconocido matemático, astrónomo,
geógrafo e hidrógrafo del siglo xvi, John Dee, intentó comunicar con los ángeles
sirviéndose de oraciones, cristales, espejos, números místicos y otros artilugios mágicos.
Las observaciones y los cálculos de Kepler demostraron que las órbitas que trazaban los
planetas alrededor del sol eran elípticas y no circulares, pero él siguió practicando la
astrología, creyendo que el movimiento y la posición de la luna, el sol y los planetas
influían la conducta y el destino de los individuos. Newton, descrito a menudo como el
padre de la física e incluso de la ciencia, dedicó la mayor parte de su vida a la alquimia, el
arte esotérico de transformar metales en oro y descubrir el elixir de la vida eterna. Según el
historiador de la filosofía Anthony Gottlieb, Newton escribió más de un millón de palabras
de jerigonza sobre este tema.[15] Todo ello viene simplemente a reforzar el patrón de que
las nuevas ramas de pensamiento están inevitablemente entrelazadas con sus raíces.
Antes de indicar cómo y por qué cada una de estas primeras ramas del pensamiento
científico se ramificaron en la forma que queda plasmada en la figura 29.1, mencionaré dos
tecnologías utilizadas por todas ella, cuyo avance demuestra la veloz aceleración de esta
fase del pensamiento humano.
La primera son las ayudas para el cálculo. Las máquinas de cálculo mecánico
empezaron a desarrollarse en el siglo xvii y sus versiones más sofisticadas permanecieron
vigentes hasta el siglo xx. Sin embargo, en la segunda mitad de este siglo, los ordenadores
transistorizados que utilizaban cálculos y almacenamiento digitalizados se desarrollaron
rápidamente a través de microprocesadores para dar lugar a ordenadores con 128 bytes de
memoria RAM, para seguir, a partir de los años setenta, con el desarrollo de ordenadores
personales y de superordenadores como el Titán, diseñado para estudios climáticos.
Presentado en 2012, realiza 17,59 miles de billones de cálculos por segundo, diez veces
más potente que el ordenador líder mundial tan solo tres años antes.
La segunda es la divulgación del conocimiento, que estimula nuevas ideas. La
máquina de impresión de tipos móviles con funcionamiento manual que Gutenberg inventó
en el siglo xv se hizo mucho más rápida gracias al invento, en 1810, de la prensa de
impresión a vapor. La velocidad y el volumen de producción aumentaron aún más, y el
coste por unidad del material impreso bajó drásticamente, con la invención de la impresión
litográfica ófset a principios del siglo xx. Sin embargo, la digitalización y el desarrollo a
partir de 1970 de las redes informáticas que acabó generando la aparición de Internet,
seguido por la World Wide Web (WWW), no solo dio como resultado la divulgación
prácticamente instantánea del nuevo conocimiento sino que además globalizó esta
divulgación.
La WWW fue inventada por Tim Berners-Lee, de la Organización Europea para la
Investigación Nuclear, CERN [European Council for Nuclear Research], en 1991 con el fin
de compartir información relacionada con la investigación de la física nuclear. Después de
popularizarse en 1993 gracias a la introducción de un navegador con un interface gráfico y
de que el CERN la pusiera gratuitamente a disposición de todo el mundo, el acceso a la
información se transformó y democratizó. Anteriormente, los artículos científicos se
publicaban en las revistas impresas de las sociedades científicas, como la Royal Society, y
circulaban solo entre sus miembros y suscriptores, como las bibliotecas universitarias,
mayoritariamente del mismo país. Ahora, y por un módico precio, es posible descargar
desde cualquier rincón del mundo las versiones digitales tanto de estas revistas como de los
artículos a nivel individual. Además, fuentes de acceso público como arXiv (que empezó
con la física en 1991 y a partir de ahí se expandió hacia otras ciencias) y PLoS (Public
Library of Science, desde 2003) permiten a los investigadores poner su trabajo a
disposición del público sin coste alguno. Muchos científicos, además, ofrecen ejemplares
de descarga gratuita en sus páginas web, mientras que buscadores como Google Scholar
facilitan la búsqueda de lo que se ha publicado por autor y por cualquier tema.
Ciencias físicas

Astronomía
El telescopio fue inventado para espiar a los ejércitos enemigos. Sin embargo,
después de la aparición de la astronomía como consecuencia del rechazo de la creencia de
que la Tierra era el centro del universo, los astrónomos desarrollaron tecnologías al servicio
de sus necesidades en vez de utilizar aquellas diseñadas con otros fines.
Newton se dio cuenta de que el telescopio refractor, que consistía en dos lentes de
cristal, daría refracciones distintas de luz para distintos colores, de modo que desarrolló un
telescopio reflector que utilizaba espejos en lugar de lentes para eliminar de esta manera las
aberraciones cromáticas. Los telescopios reflectores de diseño cada vez más sofisticado se
convirtieron en el telescopio astronómico predominante. Los individuos que observaban el
cielo con sus propios instrumentos han dado paso a equipos cada vez más numerosos de
astrónomos y técnicos que trabajan en cooperación, una forma de trabajo cuya culminación
será el Telescopio Europeo Extremadamente Grande que, según las previsiones, entrará en
funcionamiento en la década de 2020 en Chile. Su espejo principal consistirá en 798
segmentos hexagonales que alcanzaran en conjunto 40 metros de diámetro y será capaz de
reunir más luz que la suma de todos los telescopios existentes en la actualidad en el planeta.
[16]
El descubrimiento casual en 1931 de las emisiones naturales de radiofrecuencia
desde el espacio llevó al ingeniero de radio norteamericano Grote Reber a instalar en el
jardín de su casa un radiotelescopio parabólico de 9 metros de diámetro que utilizó en 1940
para identificar la Vía Láctea como una de las fuentes de emisión. En 1957, el
departamento de Astronomía de la Universidad de Manchester instaló un radiotelescopio de
76 metros de diámetro en Jodrell Bank, al noroeste de Inglaterra, para investigar rayos
cósmicos, meteoritos, cuásares, púlsares y otras fuentes de ondas de radiofrecuencia así
como para realizar el seguimiento de sondas espaciales.
La investigación de los fenómenos celestes a través de sus emisiones y absorciones
en frecuencias fuera del espectro visible dio como resultado tecnologías cada vez más
desarrolladas y una cooperación cada vez más extensa que se amplió más allá de los
miembros de una única universidad. El Observatorio Solar Orbital, una serie de ocho
satélites lanzados entre 1962 y 1971 por la Administración Nacional de la Aeronáutica y del
Espacio de los Estados Unidos, conocida por todos como la NASA, detectó imágenes en
longitudes de onda ultravioletas y de rayos X que habrían pasado desapercibidas debido a la
atmósfera de la Tierra. El telescopio Hubble, lanzado en 1990 por la NASA y operado no
solo por los científicos de esa organización sino también por los de la Agencia Espacial
Europea, investigó las longitudes de onda visibles, ultravioletas y más cercanas. A finales
del siglo xx, equipos internacionales de astrónomos especializados empezaron a dibujar
mapas del firmamento a través de las diferentes regiones del espectro electromagnético y a
utilizar las tecnologías del análisis por ordenador y la imagen digital para realizar
reconstrucciones.
Física
Los físicos se sienten orgullosos del aforismo que dice: «Si un biólogo no lo
entiende, pregúntale a un químico; si un químico no lo entiende, pregúntale a un físico; y si
un físico no lo entiende, se lo pregunta a Dios». La frase captura la realidad de que la física
es la ciencia fundamental, puesto que las relaciones entre materia, energía, fuerza y
movimiento forman parte de todas las demás ciencias físicas, que se ramificaron a partir de
la física a medida que los conocimientos produjeron campos de estudio cada vez más
especializados.
A pesar que con el fin de facilitar su comprensión, la figura 29.1 muestra la física
como una sola rama, está ramificada en sub-ramas como la mecánica —que a su vez se
divide en la mecánica de sólidos y la mecánica de fluidos, que incluye ramas como la
hidrostática (fuerzas sobre fluidos en reposo), la hidrodinámica (fuerzas sobre fluidos en
movimiento), la aerodinámica y la neumática—, la acústica, la óptica, la termodinámica, la
electricidad estática y corriente y el magnetismo.
A partir de esta física clásica, que estudiaba lo que es normalmente observable, los
físicos desarrollaron tecnologías para investigar la materia y la energía que no son
normalmente observables. Las investigaciones sobre la desintegración radiactiva llevadas a
cabo por Ernest Rutherford a finales del siglo xix y principios del xx, le llevaron a postular
la existencia del núcleo atómico. Esto, a su vez, provocó la segunda revolución científica
que se inició con la teórica cuántica y la teoría de la relatividad a principios del siglo xx.
Esta segunda revolución produjo más ramificaciones y dio lugar a las sub-ramas
especializadas de la física atómica, la física nuclear, la física de partículas y la física del
plasma.
De los físicos que trabajaban en solitario, como Einstein, y los pequeños
laboratorios, como el laboratorio Cavendish de la Universidad de Cambridge donde
Rutherford trabajaba con J. J. Thompson, la cooperación ha ido incrementándose, no solo
entre científicos sino también entre países. Desde 1954, los veinte estados miembros del
CERN cooperan para financiar la construcción de aceleradores de partículas diseñados por
sus físicos e ingenieros para descubrir la interacción de las partículas fundamentales. En
2008, se puso en funcionamiento el producto tecnológico más grande y más complejo
conocido hasta la fecha, el Gran Colisionador de Hadrones.
Todas las sub-ramas de la física tienen su propio sub-departamento dentro de los
departamentos de física de las universidades y sus propias publicaciones especializadas.
Química
La química es otra sub-rama que acabó siendo reconocida como ciencia por derecho
propio.
Química: la rama de la ciencia que investiga las propiedades, la composición y la
estructura de las sustancias y los cambios que experimentan cuando se combinan o
reaccionan en determinadas condiciones.
Sus raíces se encuentran en la alquimia, en la fabricación de municiones y en los
remedios médicos. Es debatible el momento en que emergió como ciencia tal y como
entendemos actualmente el término. Algunos, sobre todo en el entorno británico, lo
atribuyen al teólogo y físico inglés Robert Boyle, conocido por sus leyes sobre las
propiedades de los gases. Fue, afirman, su publicación de El químico escéptico, en 1661, lo
que separó la química del arte esotérico de la alquimia. Se trata de una lectura incorrecta
del libro, que critica solo a aquellos alquimistas que divorciaron su trabajo de cualquier
base teórica. Boyle siguió practicando la alquimia durante toda su vida.
Lo que sí es evidente es que la química huyó de sus raíces supersticiosas y se separó
de la física durante el último cuarto del siglo xviii, gracias al trabajo de un grupo de
científicos franceses liderado por Antoine Lavoisier. Debido al secretismo que guardaban
los alquimistas y los fabricantes de municiones, los componentes y sus interacciones
recibían nombres distintos, razón por la cual era complicado, si no imposible, realizar
comparaciones y pruebas objetivas. Lavoisier introdujo una nueva nomenclatura química
que permitió a los químicos compartir y expandir sus conocimientos empíricos y escribió el
primer manual de química, que incluía un programa de investigación y una metodología
cuantitativa para futuros químicos.
El reconocimiento como una rama independiente de la ciencia llegó con el
establecimiento de sus propias sociedades de eruditos, como la Chemical Society de
Londres, en 1841, que acabó convirtiéndose en la Royal Chemical Society, seguida por
sociedades similares en Alemania, Estados Unidos y otros países, además de departamentos
propios en las universidades.
El incremento de conocimientos y comprensión de la materia llevó a esta rama de la
ciencia a diversificarse. Los químicos reconocieron que las propiedades de los componentes
de origen biológico eran muy distintos de los de origen mineral, de modo que algunos se
especializaron en investigar lo que denominaron la química orgánica. En 1828, Friedrich
Wohler descubrió que una molécula orgánica podía estar compuesta de moléculas
inorgánicas, de modo que la definición cambió. La química orgánica se convirtió
simplemente en la química del carbono y sus componentes, y la química inorgánica pasó a
ocuparse de todos los demás elementos, mientras que la química física se consagró al
estudio de las propiedades físicas de las sustancias, como su comportamiento eléctrico y
magnético y su interacción con los campos magnéticos.
Estas ramas se subdividieron aún más en ramas especializadas como la química
órgano-metálica, la química de polímeros y la nanoquímica.
Ciencias de la Tierra
Más difícil es incluso discernir en qué momento las ciencias de la Tierra se
independizaron como grupo.
Ciencias de la tierra: las ramas de la ciencia que estudian el origen, la naturaleza y
la conducta de la Tierra y sus partes, incluyendo sus interacciones.
Entre los siglos x y xii, los intelectuales del imperio musulmán escribieron sobre
estos temas. En la segunda parte del compendio titulado El libro de la curación, publicado
en 1027, el físico y erudito persa Avicena propuso, basándose en estudios de campo
realizados en lo que hoy en día es Uzbekistán, explicaciones sobre la formación de las
montañas, el origen de los terremotos, la formación de minerales y fósiles y otros temas
clasificados en la actualidad como geología y metereología.[17] A finales del siglo xv,
Leonardo da Vinci especuló correctamente sobre la naturaleza de los fósiles y el papel que
juegan los ríos en la erosión del terreno y la estratificación de las rocas sedimentarias.
Las ciencias de la Tierra emergieron claramente como disciplina independiente en
1795, cuando James Hutton[18] publicó su teoría del uniformismo, que defendía que los
procesos que observamos ahora y que dan forma a la Tierra —como la erosión, el
volcanismo, etc.— fueron también los responsables de dar forma a la Tierra en el pasado.
De ahí que la Tierra fuera mucho más antigua que lo calculado por la Biblia y que sus
rasgos no fueran consecuencia de sucesos catastróficos como el Diluvio universal del que
se salvó Noé.
Las ciencias de la Tierra se dividieron en cuatro ramas interrelacionadas: la
geología, el estudio de la corteza rocosa de la Tierra, o litosfera, que a su vez se ramificó en
especialidades como la mineralogía, la petrología, la paleontología y la sedimentología; la
geografía física, el estudio de las características de la superficie del planeta; la
oceanografía; y las ciencias atmosféricas.
Ciencias de la vida

En el capítulo 16, que describe la evolución de las ideas sobre la evolución


biológica, se trata el desarrollo de las ciencias de la vida.
La evolución de lo que antes estaba considerado como historia natural y a la que se
dedicaban principalmente clérigos y caballeros adinerados, hacia las actuales ciencias de la
vida, fue consecuencia no solo de la envidia de los físicos —el deseo de dar una base
matemática a la biología[19]—, sino también de los avances de la tecnología. Las mejoras
en la capacidad de aumento del microscopio de lente única de Leeuwenhoek se
consiguieron gracias al invento y la evolución del microscopio compuesto, pero su límite
efectivo de 2.000 aumentos, consecuencia de la longitud de onda de la luz visible, se quedó
en nada a partir del invento, en la década de 1930, del microscopio electrónico, capaz en la
actualidad de aumentar un objeto un millón de veces.
La visualización de imágenes por rayos X, que se desarrolló a principios del siglo
xx a raíz del descubrimiento realizado por Rontgen en 1895, permite ver cosas como las
estructuras óseas bajo la piel y los tejidos blandos, mientras que las imágenes del ADN
obtenidas mediante la difracción de rayos X llevó a la identificación de su estructura en
1953 y supuso el inicio de una nueva era en la biología molecular.[20]
El ritmo de innovación tecnológica se incrementó más si cabe en la segunda mitad
del siglo xx con técnicas como la RNM (Resonancia Nuclear Magnética), para estudiar
estructuras moleculares, calcular tasas metabólicas y producir imágenes de estructuras
blancas internas, como músculos y tendones; el PET (Tomografía por Emisión de
Positrones) para controlar la actividad metabólica o bioquímica mediante un trazador
radiactivo inyectado en sangre; y la IRMf (Imagen por Resonancia Magnética Funcional)
para trazar mapas de la actividad neural del cerebro.
La biología se ramificó en la zoología —que a su vez se ramificó en campos
especializados como la etología (conducta animal), la entomología (insectos), la biología
marina, la ornitología y la primatología— y la botánica, a partir de las que surgió la
genética a principios del siglo xx.
En la segunda mitad del siglo xx, la riqueza de datos generada por el uso de
tecnologías cada vez más sofisticadas, junto con la divulgación de dichos datos, llevó a la
ramificación de las ramas de las ciencias de la vida en campos cada vez más especializados
como la neurociencia, la biología celular, la biología molecular, la genómica y la
bioinformática.
El auge de la cooperación quedó ejemplificado por el Proyecto del Genoma
Humano, iniciado en 1990. Fundado principalmente por el National Institutes of Health de
los Estados Unidos y la Welcome Foundation, una organización británica sin ánimo de
lucro, incluyó miles de genetistas que trabajaron en más de cien laboratorios repartidos por
los Estados Unidos, Japón, Francia, Alemania y España, además de otros trece países, que
cooperaron a lo largo de trece años para producir un mapa del genoma humano. Esto no
significa, por supuesto, que la competencia haya desaparecido. La compañía Celera
Genomics, de Craig Venter, persiguió el mismo objetivo con la intención de patentar sus
resultados y explotarlos para obtener beneficios.
Ciencias médicas
Según Sherwin B. Nuland, profesor de Cirugía clínica de Yale, los médicos
continuaron tratando a sus pacientes en base al antiguo concepto de los humores orgánicos
durante más de trescientos años después de que se demostrara empíricamente que la idea
era errónea.[21] Pero las ciencias médicas evolucionaron, sobre todo a partir del segundo
cuarto del siglo xx, gracias a la aplicación de las tecnologías utilizadas también en las
ciencias de la vida, y se dividieron en ramas especializadas.
Uno de los avances más importantes fue el aportado por la tecnología de la
ingeniería genética, por la cual es posible introducir en las células de un organismo genes
nuevos o modificados. Esta técnica se ha utilizado para producir compuestos como la
insulina y la hormona del crecimiento. Su aplicación futura más espectacular es la de la
terapia génica humana, pensada para sustituir los genes defectuosos implicados en unas
3.000 enfermedades. A pesar de que el concepto es relativamente sencillo, los avances
desde el desbocado optimismo de los años 90 han sido lentos debido tanto a problemas de
implementación, como a la eliminación de los efectos secundarios mortales provocados por
la utilización de vectores retrovirales para insertar genes en el genoma.
Psicología

La ciencia más novedosa, la psicología, que emergió a finales del siglo xix, tiene
sus raíces en la filosofía.
Psicología: la rama de la ciencia que investiga los procesos mentales y las
conductas de individuos y grupos.
Su nombre deriva de la palabra griega «psyche», que significa alma o respiración,
aunque se refiere al estudio de la mente. En el siglo xvii, el filósofo y matemático francésm
Rene Descartes, reivindicó la distinción entre el cuerpo y la mente: el cuerpo estaba hecho
de materia, que era mensurable y divisible; la mente era una entidad completamente aparte,
incorpórea, indivisible y no espacial cuya función era pensar. Se trata del concepto
filosófico del dualismo.
Dualismo: la especulación o creencia de que el universo consta de dos elementos
constituyentes fundamentales, materia y mente, o consciencia.
La ciencia de la psicología empezó a emerger como tal a partir de la filosofía
cuando el médico Wilhelm Wundt fundó en 1879, en la Universidad de Leipzig, el primer
laboratorio psicológico para el estudio experimental de las sensaciones, la memoria y el
aprendizaje. Su trabajo atrajo a estudiantes de todo el mundo y en 1881, puso en marcha la
primera revista para divulgar los descubrimientos de la psicología experimental. En 1890,
William James, un filósofo que impartía clases de medicina en la Universidad de Harvard,
publicó Principios de psicología, que abarcaba el enfoque experimental pero hacía además
hincapié en la experiencia subjetiva de la mente. No fue hasta el siglo xx que las
asociaciones profesionales y los departamentos universitarios de filosofía y psicología
empezaron a independizarse.
A partir de ahí, la psicología se expandió rápidamente, diversificándose en un
amasijo de ramas según el objetivo, el objeto y el método de estudio, junto con las
correspondientes escuelas de pensamiento. Los objetivos se solapan y van desde la
adquisición de conocimientos y comprensión hasta la aplicación de dichos conocimientos.
Las divisiones de la psicología aplicada incluyen desde la psicología clínica, para curar
enfermedades concretas como la esquizofrenia o la depresión, hasta la psicología educativa,
como por ejemplo la psicología infantil, pasando por la psicología motivacional, como
podría ser el caso de la psicología deportiva. Los objetos de estudio son la inteligencia, la
memoria, el aprendizaje, la emoción, la personalidad y la conducta grupal, mientras que los
métodos van desde la utilización de fármacos a la hipnosis, el psicoanálisis, los
cuestionarios y los experimentos, pasando por tecnológicas relacionadas con la
neurociencia como el PET y los escáneres cerebrales con RNM. Las escuelas van desde la
conductista hasta la freudiana y junguiana. En el capítulo 24 he considerado dos ideas
conductistas, el reflejo condicionado de Pavlov y el condicionamiento operante de Skinner,
que fueron influyentes a principios y mediados del siglo xx, respectivamente, y he llegado a
la conclusión de que no consiguieron explicar por qué los humanos piensan y se comportan
como lo hacen.[22]
A principios de los años 60, el centro neurálgico de este amasijo proteico había
pasado de los departamentos universitarios a hospitales, clínicas, consultas privadas y
empresas. Me centraré en dos de las múltiples sub-ramas de la psicología porque afirman
ser capaces de responder a la pregunta fundamental de esta investigación: ¿quién somos?
Neuropsicología
En La búsqueda científica del alma,[23] publicado en 1994, Francis Crick, que
había recibido el Premio Nobel por el descubrimiento conjunto de la estructura del ADN,
respondió sucintamente a la pregunta:
La Hipótesis Asombrosa es que «Tú», tus alegrías y tus penas, tus recuerdos y tus
ambiciones, tu sentido de la identidad y tu libre albedrío, no son en el fondo más que la
conducta de un montón de células nerviosas y de las moléculas asociadas a ellas.[24]
Como la mayoría de científicos, Crick rechazó el dualismo cartesiano para favorecer
el monismo.
Monismo: la especulación o creencia de que todo lo que existe está formado, y es
reducible, a la misma realidad suprema o principio de existencia.
Y su versión particular, conocida como fisicalismo.
Fisicalismo: la especulación o creencia de que solo la materia física es real y que
todo lo demás, como la mente, la consciencia o los pensamientos, acabarán explicándose
como objetos físicos o sus interacciones; conocido también como materialismo, incorpora
una visión más amplia de la fisicidad que la materia, por ejemplo, fuerzas no materiales
como la gravedad, que surgen de la materia.
El punto de vista de Crick es lo que Julian Huxley denominó «en absoluto
lisonjero». Es evidente que somos algo más que la conducta de nuestras neuronas y las
moléculas asociadas a ellas. Las neuronas transmiten impulsos eléctricos en respuesta a los
estímulos, pero las neuronas y sus redes no entienden el contenido informativo de estos
impulsos.
Aun en el caso de que asumiéramos que la mente está generada por nuestras
neuronas y sus interacciones, o emerge de ellas, la mente no es lo mismo que el cerebro.
Por ejemplo, la decisión de disparar al vecino provoca la activación de neuronas cerebrales
que envían señales que activan los músculos del brazo y los dedos para que cojan una
escopeta, apunten al vecino y presionen el gatillo. Pero las que toman la decisión no son las
neuronas cerebrales.
Además, la neuropsicología, o al menos lo que dice Crick de ella, no ha sido capaz
de proporcionar observaciones verificadas o experimentos independientes que expliquen en
qué consiste tener experiencias subjetivas de los fenómenos, como la noción del yo, la
sensación de orgullo, la sensación de escuchar música o de ver un color (lo que se conoce
como los qualia). Dos destacados neurocientíficos, V. S. Ramachandran y Colin Blakemore,
describen el problema:
El acertijo de los qualia queda perfectamente ilustrado con un experimento mental.
Imaginemos un neurociéntifico del futuro, que conoce a la perfección el funcionamiento del
cerebro —incluyendo los mecanismos de la visión del color— pero que resulta que tiene
problemas para discriminar los colores y no puede diferenciar entre rojo y verde. Utiliza las
técnicas más novedosas de escaneado para generar una descripción completa de todos los
sucesos eléctricos y químicos que se producen en el cerebro de un ser humano normal
cuando visualiza un objeto rojo. El relato funcional podría parecer completo, ¿pero cómo es
posible que lo sea sin una explicación del carácter de la experiencia única que proporciona
el rojo y que el científico nunca ha percibido personalmente? Existe una distancia
epistemológica inmensa entre las descripciones de los sucesos físicos que se producen en el
cerebro y las experiencias personales y subjetivas que suponemos asociadas a dichos
sucesos.[25]
Hasta que la neuropsicología no pueda explicar empíricamente las experiencias
subjetivas, la respuesta de Crick a la pregunta permanecerá en el terreno de la filosofía más
en el de la ciencia, e incluso en ese terreno el argumento tiene puntos débiles.
Psicología evolutiva
La otra sub-rama de la psicología que dice responder a la pregunta es la psicología
evolutiva: lo qué somos, en el sentido de qué pensamos, cómo nos comportamos y qué
sentimos, es el resultado de la acumulación neodarwinista de mutaciones genéticas
aleatorias, durante miles de generaciones, que son las responsables de los mecanismos
psicológicos seleccionados naturalmente para proporcionar una ventaja adaptativa en la
competencia por la supervivencia de nuestros antepasados de la Edad de Piedra. Según lo
expresan Leda Comides y John Tooby, codirectores del Centro de Psicología Evolutiva de
la Universidad de California, Santa Barbara: «Nuestro cráneo moderno alberga una mente
de la edad de piedra».[26]
Los supuestos de los psicólogos evolutivos, por ejemplo, que la mente humana
consiste en una gran colección de módulos computacionalmente distintos conformados por
selección natural para resolver un determinado problema de la Edad de Piedra, son
altamente cuestionables. Sus métodos son los modelos matemáticos basados en el gen y los
juegos de la sociobiología. No repetiré aquí los muchos defectos de estos modelos
aplicados a los animales puesto que ya han quedado expuestos en el capítulo 23,[27] y solo
diré que los defectos se hacen mucho más patentes cuando se aplican a humanos reflexivos.
Por ejemplo, la persona que ha nacido y se ha criado en Tíbet presenta muchas más
probabilidades de pensar y comportarse como un budista que la persona que ha nacido y se
ha criado en Arabia Saudí, que mucho más probablemente pensará y se comportará como
un musulmán, mientras que quien ha nacido en Falls Road, Belfast, presentará muchas más
probabilidades de ser un cristiano católico que odia a los cristianos protestantes nacidos y
criados en Shankill Road, al otro lado del famoso «muro de la paz» de 12 metros de altura.
Enfrentados con evidencias de este calibre, algunos psicólogos evolutivos se
alejaron de la línea dura de la explicación de la naturaleza humana como una máquina de
genes, que defiende que somos marionetas de nuestros genes, y propusieron la hipótesis del
entorno de adaptación evolutiva. La hipótesis defiende que existe una naturaleza humana
básica que está genéticamente programada para la supervivencia en la Edad de Piedra y que
determina el pensamiento, la conducta y emociones como el orgullo y la culpabilidad. Sin
embargo, existe también un programa de desarrollo genéticamente determinado que
absorbe información del entorno social y adapta la mente en consecuencia mediante un
proceso de maduración, afinando, a todos los efectos, estas facultades básicas para que, por
ejemplo, algunos se sientan menos culpables que otros. Hemos heredado este rango de
pensamientos, conductas y emociones de la Edad de Piedra.[28] No existen evidencias que
sustenten este intento especulativo de racionalizar los defectos del determinismo genético.
Además, la hipótesis sigue sin demostrar cómo ideas humanas como la de concebir la
mecánica cuántica para explicar las interacciones de las partículas subatómicas o la de
componer una sinfonía son el resultado de una naturaleza humana programada
genéticamente para la supervivencia en la Edad de Piedra.
Otro cambio en el énfasis hacia la idea de que el entorno tiene una influencia sobre
lo que somos adopta la forma de la hipótesis de la co-evolución genético-cultural, o
herencia dual, que defiende que lo que somos y cómo nos comportamos es resultado de la
interacción de dos mecanismos evolutivos darwinianos distintos: el genético y el cultural.
Una hipótesis que no está tampoco libre de problemas. Por ejemplo, diversos estudios
divergen en cuanto a explicar si existe una base genética para la homosexualidad. Los que
afirman que la hay, se abonan al neodarwinismo. En consecuencia, necesitan explicar cómo
se transmite esta combinación de genes y cómo se acumula en el acervo génico humano a
lo largo de muchísimas generaciones, puesto que los homosexuales presentan menos
probabilidades de tener descendencia y transmitir sus genes. Los intentos de explicación
son, en el mejor de los casos, en absoluto convincentes.
Nadie razonable puede negar que los genes jugaron un papel importante en la
evolución biológica humana o que podrían jugar un papel en la evolución del pensamiento,
las emociones y la conducta humana. Sin embargo, como vimos en la segunda parte, a
pesar de las reivindicaciones del neodarwinismo, las complejidades de su papel, de su
regulación y de su interacción con el entorno en la evolución biológica siguen sin estar bien
comprendidas. Lo cual concede menos firmeza a los deterministas genéticos en el campo de
la psicología.
Para completar la explicación, me gustaría añadir que la facultad de la consciencia
reflexiva no solo permite a los humanos trascender su herencia genética, sino que además
les permite trascender su herencia cultural: muchas personas nacidas y criadas en Falls
Road han llegado a la conclusión que odiar a los protestantes que viven al otro lado del
«muro de la paz» es moralmente incorrecto y hacen campaña para que sea derribado.
Interactividad y sub-ramas híbridas

La imagen bidimensional simplificada de la figura 29.1 no muestra las ciencias


psicológicas ni otras ciencias sociales como la arqueología, la antropología y la sociología
que se ramificaron a partir de las ciencias de la vida a finales del siglo xix.
Tampoco transmite ni la profusión de sub-ramas especializadas ni sus interacciones
para producir nuevas sub-ramas híbridas, como la astrofísica, la astroquímica, la
biogeografía y la bioquímica.
Tendencia convergente

La figura 29.1 muestra el patrón de ramificación divergente del pensamiento


científico desde finales del siglo xvi. Pero contra esta tendencia predominante aparece la de
la convergencia, liderada por la ciencia fundamental de la física.
La figura 29.2 se inspira en la explicación del descubrimiento de las cuatro fuerzas
fundamentales de la naturaleza del capítulo 8 para ilustrar esta tendencia. Se inició a finales
del siglo xvii, cuando Newton reconoció que la fuerza que lleva a los objetos a acelerar
hacia el suelo es la misma fuerza que lleva a los planetas a orbitar alrededor del sol y a las
lunas a orbitar alrededor de sus planetas. La corriente eléctrica fue descubierta a mediados
del siglo xviii y resultó ser una manifestación de la fuerza de la electricidad estática, que se
conocía desde la antigüedad, mientras que ya en el primer cuarto del siglo xix, los físicos
demostraron que la fuerza eléctrica y la fuerza magnética son aspectos distintos de una
fuerza electromagnética subyacente.

La comprensión de que fenómenos físicos subyacentes aparentemente distintos eran


la misma causa de otros fenómenos, aumentó con rapidez en el siglo xx. Los físicos
teorizaron que la fuerza electromagnética y la fuerza nuclear débil —la interacción entre
partículas elementales responsable de la desintegración nuclear que es en varios órdenes de
magnitud más débil que la fuerza electromagnética— eran manifestaciones distintas de la
misma fuerza, a la que dieron el nombre de fuerza electrodébil, o interacción electrodébil.
La teoría predijo la existencia de nuevas partículas, que acabaron descubriéndose a través
de experimentos.
Los físicos teóricos produjeron varios modelos matemáticos para una Teoría de
Gran Unificación (TGU) que una la fuerza electrodébil y la fuerza nuclear fuerte, la fuerza
más fuerte conocida que actúa solo a distancias muy pequeñas dentro de un núcleo atómico
y une partículas dentro del núcleo, aunque no existen todavía datos experimentales que
validen ninguno de los modelos.[29]
El santo grial de la física, sin embargo, sería unir todas estas teorías, que pretenden
explicar las interacciones de fenómenos a escala minúscula —del tamaño de un átomo o
inferior— con la teoría de la relatividad, que explica las interacciones a escala muy grande
—del tamaño de una estrella y superior— en una Teoría del Todo.[30] Se han planteado
candidatas, como las muchas versiones de la conjetura de cuerdas y la gravedad cuántica de
bucles. Y mientras que por el momento no existe forma conocida de someter estas hipótesis
a pruebas empíricas,[31] el impulso de la física teórica, sobre todo en los últimos
veinticinco años, está en intentar demostrar que todos los fenómenos físicos del universo
son manifestaciones de energía a un nivel inferior de una energía fundamental presente en
los inicios del universo.
Resultados del pensamiento científico[32]

Un resultado remarcable de esta fase de la evolución humana es el incremento del


conocimiento empírico. La figura 29.1 no transmite su verdadero volumen. Según el
historiador de la ciencia, Derek de Solla Price:
Cualquier tipo de unidad de medición, independientemente de cómo se haya llegado
a ella, muestra a primera vista que la ciencia aumenta exponencialmente, con un interés
compuesto de en torno al 7 por ciento anual, lo que significa que suplica su tamaño cada
10-15 años, se multiplica por diez cada medio siglo, y por un millón en los 300 años que
nos separan del invento del artículo científico en el siglo xvii, cuando se inició el proceso.
[33]
La unidad de medición principal que emplea es el número de artículos científicos
publicados hasta 1960. Peder Olesen Larsen y Markus von Ins controlaron ese crecimiento
entre 1907 y 2007, y llegaron a la conclusión de que no existen indicios de que el ritmo
haya bajado en los últimos 50 años.[34] Además, como se ha indicado ya en un momento
anterior de este capítulo, desde finales del siglo xx tenemos que sumar a esto el crecimiento
en el número de artículos científicos publicados en páginas web de acceso abierto como
arXiv, PLoS y las páginas web personales de muchos científicos.
Volviendo a las ramas científicas a nivel individual, una medida de los resultados
del pensamiento científico en las ciencias médicas es la esperanza de vida al nacer, un dato
que se plasma en la tabla 29.1.
A pesar de que, en todos los casos excepto en los datos más recientes, se trata de
burdas estimaciones, lo que resulta chocante es el gran incremento en la esperanza de vida
observado a lo largo de los últimos cien años en países científicamente desarrollados como
los Estados Unidos, lo que demuestra de manera inequívoca que es un hecho que no puede
atribuirse a la selección natural. Y no se trata simplemente de una prolongación de la vida
libre de enfermedades, sino también de la duración de la vida activa.[35] La explicación
más razonable es la correlación existente con la evolución de las ciencias médicas, que han
producido una mejor comprensión de las enfermedades y han desarrollado medidas para
combatirlas. Por ejemplo, el agua potable, el alcantarillado, la eliminación de basuras, los
estándares de seguridad alimentaria, los programas de control del mosquito y los programas
de educación para la salud han reducido drásticamente la propagación de muchas
enfermedades infecciosas. Las vacunas han eliminado prácticamente enfermedades que
antiguamente eran comunes como la difteria, el tétanos, la poliomielitis, la viruela, el
sarampión, las paperas y la rubeola. Además de las tecnologías de diagnóstico antes
mencionadas, este periodo ha vivido también el desarrollo de intervenciones quirúrgicas
cada vez más perfeccionadas, incluyendo trasplantes de riñón, corazón y otros órganos.
La primera parte de este libro y el primer capítulo de la segunda parte detallan los
principales resultados del pensamiento científico en las ciencias físicas que han producido
un veloz incremento de nuestros conocimientos y nuestra comprensión del origen y la
evolución del universo y de cómo la Tierra acabó convirtiéndose en un planeta adecuado
para la vida, y detallan asimismo los límites actuales de estos conocimientos y
comprensión. El resto de la segunda parte hace lo mismo para las ciencias de la vida en
términos de emergencia y evolución de la vida en general, mientras que la tercera parte es
un intento de mostrar los resultados de nuestro conocimiento y comprensión de nuestra
emergencia y evolución, no solo a través de la física y las ciencias de la vida, sino también
a través de las ciencias sociales.
Este incremento geométrico del conocimiento —un logro notable para el
pensamiento científico— ha dado necesariamente como resultado el crecimiento de la
especialización del pensamiento científico, demostrado por el aumento en el número de
publicaciones científicas, cada una de las cuales se centra en un campo de investigación
determinado. Sin embargo, el distinguido entomólogo y pensador Edward O. Wilson, lanza
unas palabras de advertencia:
Los científicos, en su mayoría, nunca han sido más que obreros de prospección. Y
hoy en día la situación es aún más clara. Se concentran única y exclusivamente en su
profesión; su formación no los orienta hacia los contornos más amplios del mundo.
Adquieren la formación necesaria para viajar hasta la frontera y hacer descubrimientos, y
hacerlos lo más rápidamente posible, puesto que la vida en el límite es cara e incierta. Los
científicos más productivos, instalados en laboratorios de millones de dólares, no tienen
tiempo para pensar en la imagen global y tampoco ven que puedan obtener de ella pingües
beneficios […]. No es de extrañar, por lo tanto, encontrar físicos que no sepan ni lo que es
un gen y biólogos que piensen que la teoría de cuerdas es algo que tiene que ver con los
violines. En la ciencia, las becas y los premios se otorgan por descubrimientos, no por la
erudición y la sabiduría.[36]
Ser un científico de éxito en la actualidad significa dedicar toda a una carrera a la
química de coloides, a la paleoarqueología, al estudio de los chimpancés o a cualquier otro
campo igual o más especializado. Esta estrechez de miras con respecto a la indagación ha
producido una gran profundidad de conocimientos, pero también ha excavado trincheras de
experiencia en los que sus practicantes encuentran difícil entablar un diálogo con sentido
con otros especialistas, excepto en aquellos puntos donde las trincheras se entrecruzan en
un estudio interdisciplinario sobre el mismo y limitado tema.
Son muy pocos los científicos que trascienden su campo de especialización para
abordar preguntas fundamentales de la existencia humana como quién somos. Los pocos
que lo hacen rara vez se enzarzan con mentalidad abierta en ningún tipo de debate. En
general, son incapaces de ver la imagen global y desde sus trincheras tienden a disparar una
descarga de puntos de vista derivados de la formación, la concentración y la cultura de la
estrecha disciplina académica a la que consagran su vida profesional.
La especialización, por otro lado, refuerza además la creencia en el reduccionismo
científico —desensamblar un objeto en sus distintas partes para comprender qué es y cómo
funciona— como único método de indagación científica. Esta herramienta analítica ha
demostrado ser extremadamente útil para aumentar nuestra comprensión de los fenómenos
naturales y puede explicar de forma satisfactoria la esencia y la conducta de sistemas
relativamente simples y aislables, como por qué un cristal de sal se disuelve en agua. Su
poder explicativo pierde efectividad cuanto más complejo y menos aislable es el fenómeno.
Como se ha visto en el capítulo 13, presenta limitaciones considerables cuando se aplica a
explicar y definir la vida.[37] Sus limitaciones quedan en más evidencia si cabe cuando se
trata de ofrecer una explicación de qué son los humanos, tal y como hemos visto en la
conclusión simplista de Crick.
Además, hay que plantearse la pregunta de hasta dónde llega el alcance el
reduccionismo. Crick tal vez pensara que la reducción hasta el nivel de la célula
proporciona una explicación completa para el fenómeno de la consciencia, pero ¿por qué
detenerse aquí? Si seguimos reduciendo hasta el nivel de las moléculas, luego los átomos y
luego las partículas subatómicas, llegamos al nivel cuántico. Varias interpretaciones de la
teoría cuántica exigen la observación consciente del campo cuántico antes de que este
colapse en materia.[38] Si estas interpretaciones son correctas, la consciencia no podría ser
resultado de fenómenos materiales como las neuronas y su interacción.
Por lo que al reduccionismo se refiere, el teórico cuántico David Bohm comenta:
Un cambio esencialmente relevante en el orden descriptivo exigido por la teoría
cuántica consiste, pues, en dejar de lado el concepto de análisis del mundo en partes
relativamente autónomas, que existen por separado pero interaccionan. El énfasis principal
debe ponerse ahora en la totalidad indivisa.[39]
Como Bohm, la mayoría de pioneros de la teoría cuántica se apuntaron a una
versión distinta de monismo que el fisicalismo denominó idealismo.
Idealismo: la especulación o creencia de que las cosas materiales no existen
independientemente sino que existen solo como construcciones de la mente o consciencia.
Cuando se aplica a responder a las preguntas fundamentales de la existencia
humana, este idealismo monista converge hacia una revelación mística común. De hecho,
muchos teóricos cuánticos sostienen puntos de vista similares a los de los místicos. Erwin
Schrodinger, que creó la ecuación de onda de la mecánica cuántica, expresó en su último
libro, Mi concepción del mundo,[40]una visión metafísica que mantiene muchos
paralelismos con el misticismo de la escuela vedanta, advaita, que ve los fenómenos
materiales como una ilusión o como una manifestación de la Consciencia Cósmica que es el
origen y la base de la realidad. Según Max Planck, que formuló la revolucionaria teoría
cuántica de la radiación:[41]
Toda la materia se origina y existe solo en virtud de una fuerza […]. Debemos
asumir detrás de esta fuerza la existencia de una Mente consciente e inteligente. Esta Mente
es la matriz de toda la materia.[42]
En El tao de la física,[43] publicado por primera vez en 1975, el físico
especializado en física subatómica Fritjof Capra, realiza una comparación sistemática entre
los descubrimientos de la física moderna y las revelaciones del misticismo oriental. Y
concluye:
Los dos temas básicos [de las revelaciones místicas orientales] son la unidad e
interrelación de todos los fenómenos y la naturaleza intrínsecamente dinámica del universo.
Cuánto más nos adentremos en el mundo submicroscópico, más nos daremos cuenta de que
el físico moderno, al igual que el místico oriental, ve el mundo como un sistema de
componentes inseparables, interrelacionados y en constante movimiento, en el que el
observador forma parte integral de dicho sistema.[44]
Si las ramas de la física llevan convergiendo los últimos 25 años hacia una
explicación de que todo lo que percibimos en el universo son manifestaciones de energía
inferior de la energía única que estaba presente en sus inicios, y esto converge también con
las antiguas revelaciones místicas, podríamos estar ante una profunda tendencia
convergente opuesta a la tendencia divergente que ha caracterizado más de 400 años de
evolución del pensamiento científico.
[1] Véase página 58.
[2]Roberts (1989), pp. 75–81.
[3]Citado en Stachel (2002), p. 89.
[4] Véase, por ejemplo, página 146, página 155, página 435 y página 608.
[5] Véase, por ejemplo, página 154, página 597 y página 640.
[6]Ni (1995).
[7] Véase página 763.
[8] Véase página 775.
[9] Véase páginas 740 a 743.
[10]Ragep, F. Jamil, «Copernicus and His Islamic Predecessors: Some Historical
Remarks», History of Science, 45, 2007, pp. 65–81; Saliba, George, «Whose Science is
Arabic Science in Renaissance Europe?», 1999,
http://www.columbia.edu/~gas1/project/visions/case1/sci.1.html#t1,consultado el 30 de
noviembre
de 2012.
[11]Gottlieb (2001), p. 386.
[12]Ibíd, pp. 402–403.
[13] De hecho, en inglés se conserva el nombre original y spyglass significa catalejo
o anteojo. (N. de la T.)
[14]Van Helden, Albert, 1995,
http://galileo.rice.edu/sci/instruments/telescope.html#4, consultado el 11 de mayo de 2014.
[15]Gottlieb (2001), p. 414.
[16]http://www.eso.org/public/teles-instr/e-elt.html, consultado el 8 de marzo
de 2013.
[17]Al-Rawi, Munim M., «The Contribution of Ibn Sina (Avicenna) to the
Development of Earth Sciences», Foundation for Science Technology and Civilisation,
2002, http://www.muslimheritage.com/uploads/ibnsina.pdf, consultado el 11 de mayo de
2014.
[18] Véase página 401.
[19] Véase página 438.
[20] Véase página 441.
[21]Nuland, Sherwin B., «Bad Medicine», New York Times, 8 de Julio de 2007,
Book Review.
[22] Véase página 615.
[23]The Astonishing Hypothesis: The Scientific Search for the Soul, publicado en
español bajo el título La búsqueda científica del alma, Editorial Debate, Barcelona, 2003.
[24]Crick (1995), p. 3.
[25]Ramachandran, V. S. y Blakemore, Collin, «Consciousness», en The Oxford
Companion to the Body, Oxford University Press, Oxford, 2003.
[26]Cosmides, Leda y Tooby, John, «Evolutionary Psychology: A Primer», 1997,
http://www.cep.ucsb.edu/primer.html, consultado el 30 de enero de 2013.
[27] Véase páginas 585 a 602.
[28]Cosmides y Tooby (1997); Wright (1996).
[29] Véase páginas 88 y 192.
[30] Véase página 192.
[31] Véase página 130.
[32]Véase, por ejemplo, MacIntyre, Ferren y Estep, Kenneth W., «Sperm
Competition and the Persistence of Genes for Male Homosexuality», Biosystems, 31: 2–3,
1993, pp. 223–233.
[33]Price (1965).
[34]Larsen, Peder Olesen e Ins, Markus, «The Rate of Growth in Scientific
Publication and the Decline in Coverage Provided by Science Citation Index»,
Scientometrics, 84: 3, 2010, pp. 575–603.
[35]«Life Expectancy», Gale Encyclopedia of American History, 2006.
[36]Wilson (1998), pp. 40–41.
[37] Véase páginas 326 a 339.
[38] Véase página 160.
[39]Bohm (1980), p. 134.
[40]My View of the World, publicado en español bajo el título Mi concepción del
mundo, Tusquets Editores, Barcelona, 1988.
[41]Schrodinger (1964).
[42]Citado en Braden (2008), p. 212, de una conferencia «Das Wesen der Materie»
ofrecida por Planck en 1944 en Florencia.
[43]The Tao of Physics, publicado en español bajo el título El tao de la física,
Editorial Sirio, Málaga, 2012.
[44]Capra (2000), p. 25.
CAPÍTULO 30. LA SINGULARIDAD DEL SER HUMANO

No somos más que una tercera especie de chimpancés.

Jared Diamond, 1991

Este es un regalo de un mundo pequeño y lejano, una muestra de nuestros sonidos,


nuestra ciencia, nuestras imágenes, nuestra música, nuestras ideas y nuestros sentimientos.
Estamos intentando sobrevivir a nuestro tiempo para poder vivir en el vuestro.

Mensaje del presidente de los Estados Unidos, Jimmy Carter, guardado en la nave
espacial Voyager, 1977

La ortodoxia actual

Una inmensa mayoría de primatólogos, antropólogos y biólogos evolutivos niega


que el hombre sea distinto a los demás animales. Sus argumentos pueden agruparse en tres
conjuntos que se solapan entre sí.
Ego-antropocentrismo

Según este argumento, pese a que los humanos son superiores a otras especies en
determinadas características, como el tamaño del cerebro y la destreza manual, existen otras
especies que los superan en otras características. Así, los murciélagos poseen unas dotes de
ecolocalización excelentes, las aves poseen unas dotes de navegación supremas, y
podríamos encontrar muchos ejemplos más entre otras especies. Poner un conjunto de
características por encima de otro por el simple hecho de que las poseemos nosotros es
antropocéntrico, egoísta, subjetivo y en absoluto científico.
Este punto de vista se centra en las diferencias fisiológicas y no reconoce las
facultades que transforma u origina la consciencia reflexiva, una facultad superior exclusiva
del hombre. Por mucho que los humanos no dominen la ecolocalización, han inventado el
radar, que realiza esta función por ellos. Por mucho que los humanos no sean buenos
navegantes, han inventado el GPS (Global Positioning System) que les ofrece una
capacidad de navegación muy precisa. Resulta difícil pensar en una característica animal
que la creatividad y la inventiva de los humanos no haya compensado. Ninguna otra
especie ha trascendido sus características fisiológicas naturales de esta manera.
Identidad genética

Este argumento, articulado por Gerhard Roth, del Brain Research Institute de la
Universidad de Bremen, defiende que los humanos comparten el 99 por ciento de sus genes
con dos especies de chimpancés. Estas tres especies están más estrechamente relacionadas
genéticamente que los chimpancés puedan estarlo con cualquier otro primate actual. De ahí
que podría crearse un nuevo taxón que incluyera el chimpancé, el bonobo y el hombre.[1]
De hecho, los humanos y los chimpancés no comparten el 98,5 por ciento de sus
genes, como se afirma con frecuencia. Esta diferencia del 1,5 por ciento es una medida de
la diferencia entre genes equivalentes; la diferencia real en complementos de genes es más
bien del 6 por ciento.[2] Además, una serie de mutaciones en el ADN humano producidas
con posterioridad al antepasado común de chimpancés y humanos genera, entre otras cosas,
moléculas de ARN que están implicadas en el desarrollo del cerebro en los fetos humanos.
[3]
Y lo que es más importante, esta fijación en el 2 por ciento del genoma humano que
consiste en genes productores de proteínas ignora secuencias reguladoras mucho más
importantes que determinan cuándo, en qué grado y durante cuánto tiempo están
conectados los genes y, en consecuencia, las características observables del organismo.
Ignora también el aspecto cualitativo conductual y otras diferencias que se consideran en la
réplica siguiente.
Diferencia conductual solo en grado

Esta posición argumenta que las características conductuales humanas no son


únicas. Que el chimpancé, la especie genéticamente más próxima a la nuestra, también las
posee y que la diferencia con la conducta humana es solo en grado, no en tipo.
Sus defensores sustentan su reivindicación con ejemplos de chimpancés en estado
salvaje. La primera vez que se utilizó este tipo de ejemplo fue en los años 60, cuando se
observó un chimpancé retirando las hojas de una rama para poder hurgar con ella en un
termitero y extraer termitas para comérselas. El antropólogo y paleontólogo Louis Leakey
llegó a la conclusión de que «Debemos definir la herramienta, redefinir al hombre, o
aceptar al chimpancé como humano».[4] Otras observaciones de uso de herramientas
muestran a chimpancés colocando un fruto seco sobre una piedra y sirviéndose de otra
piedra para abrirlo, lo que se ha descrito, tal vez demasiado antropomórficamente, como
fabricación y utilización de un yunque y un martillo. Además, los chimpancés son capaces
de aprender este tipo de habilidades. Por otro lado, los chimpancés pueden emitir distintos
sonidos para comunicar distintas cosas, lo que demostraría un sencillo lenguaje vocal.
La conducta dominante en todas las especies de los grandes simios es la agresión.
Los gorilas macho luchan entre ellos para poseer su harén y es frecuente que el ganador
mate tanto a las crías del perdedor como al perdedor. Los chimpancés suelen lanzar ataques
sorpresa en grupo contra el territorio de otras comunidades de chimpancés, aíslan a algún
ejemplar adulto, lo golpean y destrozan a la víctima incluso hasta después de que haya
dejado de moverse. Dentro de una comunidad de chimpancés, los cambios en la jerarquía
de machos, que suele estar liderada por un macho alfa, se producen después de peleas
virulentas, mientras que el mantenimiento de la jerarquía se consigue mediante
exhibiciones de agresividad más que con peleas reales.
Los primatólogos, sin embargo, destacan conductas que contrastan con esta
agresión, como el vínculo entre madre e hijo, el acicalamiento mutuo y la caza en
colaboración. Ejemplos de conductas similares a las humanas son la vida en sociedades
jerárquicas donde el engaño, la infidelidad y la sumisión son comunes. Además, los
científicos destacan también en los grandes simios emociones similares a las humanas. El
conocido ejemplo de dolor es el de una gorila llamada Gana del zoológico de Munster, en el
norte de Alemania, que en 2008 se negaba a abandonar a su bebé de tres meses que había
muerto; lo acunó y lo acarició durante más de una semana.
Además, los test cognitivos realizados por primátologos con grandes simios jóvenes
en cautividad aportan más ejemplos de conducta similar a la humana (los simios mayores
suelen ser demasiado agresivos para ser sometidos a pruebas). Los jóvenes chimpancés
superan a veces a los niños menores de tres años. Algunos primatólogos afirman que los
chimpancés tienen un sentido del yo porque son capaces de reconocerse en el espejo.
También se dice que crías de grandes simios han aprendido un lenguaje pulsando botones
con símbolos en un ordenador, y que un chimpancé y un gorila habían aprendido el
lenguaje de los signos: habían aprendido centenares de palabras, las habían unido en frases
con sentido y habían creado frases nuevas, como «pájaro de agua» para referirse a un cisne.
Steven Pinker, psicólogo cognitivo especializado en lenguaje, ha desacreditado estas
afirmaciones, que nunca fueron sometidas a la revisión científica sino realizadas
directamente ante periodistas científicos en la prensa y television.[5] De hecho, los
chimpancés y el gorila habían sido entrenados como animales de circo. No demostraban
más conocimiento de fonología, morfología y sintaxis que los de aquellos chimpancés
jóvenes que salían en anuncios de televisión en el Reino Unido, disfrazados de humanos
adultos y bebiendo té para demostrar su preferencia por el té PG Tips.
A pesar de ser sometidos a entrenamiento intensivo, ningún chimpancé (a diferencia
de muchos loros) ha demostrado ser capaz de imitar el habla. La vocalización de emociones
en estado salvaje, como el grito de advertencia de peligro, es cualitativamente distinto a la
conversación humana, y ningún chimpancé sin entrenamiento ha escrito jamás una palabra,
y mucho menos un poema o una novela.
Los bebés humanos nacen con un cráneo blando y flexible que se expande
rápidamente hasta los dos o tres años de edad para acomodar un incremento en el tamaño y
la estructura del cerebro.[6] En consecuencia, no es de extrañar que los chimpancés
jóvenes, que nacen con el cerebro completamente formado, rindan mejor que los niños de
dos años en algunos test cognitivos, del mismo modo que tampoco es sorprendente que los
chimpancés no rindan mejor que niños ya más mayores.
Conductas exclusivas de los humanos

En el capítulo 24, he cartografiado el aumento de la consciencia a lo largo del linaje


humano examinando cinco tipos de conducta que se solapaban entre sí: respuesta directa,
innata, aprendida, social e innovadora. La emergencia de la consciencia reflexiva inició una
transformación radical de muchos de estas conductas.
Los humanos siguen exhibiendo respuestas directas de supervivencia. Sin embargo,
a diferencia de lo que sucede con otros animales, los humanos pueden tomar la decisión de
reprimirlas. Recurriendo al ejemplo ofrecido en el capítulo 24, un humano puede decidir
mantener la mano en el fuego o incluso quemarse vivo: la autoinmolación tiene siglos de
tradición en algunas culturas y en tiempos modernos se ha utilizado como forma de protesta
política.
El solapamiento de respuesta directa y conductas innatas que puede agruparse como
instinto sigue jugando un papel importante. Por ejemplo, la inmensa mayoría de humanos
responderán a un ataque con otro ataque o con la huida. Sin embargo, si las reflexiones nos
han llevado a creer en el principio de la no violencia y elegimos exhibirlo, reprimiremos el
instinto de atacar o huir, como hicieron los seguidores de Gandhi, que se dejaron matar por
las tropas colonialistas británicas en la India anterior a su independencia. En un ejemplo
mucho menos dramático, la mayoría de humanos varones reprimen el instinto de mantener
relaciones sexuales con cualquier mujer cuyo aspecto les estimule porque han elegido
racionalmente respetar los derechos de las mujeres y/o han acordado respetar una ley
determinada por la sociedad de la que forman parte, del mismo modo que los humanos que
deciden ponerse a dieta reprimen el instinto de comer cuando el hambre los estimula.
La conducta humana aprendida es radicalmente distinta de la de cualquier otro
primate porque su proceso de aprendizaje se diferencia, tanto cualitativa como
cuantitativamente, de cuatro maneras:
1. Los primates no humanos aprenden casi exclusivamente a través de la imitación,
mientras que los humanos aprenden principalmente a través de la enseñanza.
2. Con los primates, la relación de aprendizaje suele ser entre las crías y sus padres
o parientes próximos, mientras que los padres humanos enseñan a su descendencia durante
los primeros cinco años de vida y luego, durante los diez o veinte años posteriores, la
enseñanza pasa manos de figuras sin parentesco alguno con el aprendiz: especialistas en
colegios, institutos, universidades, empresas, etc. que utilizan medios diversos, como
clases, libros, ayudas audiovisuales e internet.
3. Los primates solo aprenden habilidades de supervivencia, tanto directas como
indirectas, como la búsqueda de comida, la caza, la fabricación de utensilios rudimentarios
para uso individual, o el acicalamiento mutuo, mientras que los humanos aprenden además
una inmensa variedad de habilidades que van mucho más allá de la simple supervivencia,
como literatura, artes, filosofía y ciencia.
4. Los humanos son capaces de aprender por sí solos utilizando recursos creados por
otros humanos, como bibliotecas y la World Wide Web.
En términos de conducta social, los primates no humanos pertenecen a un único
grupo social, casi siempre familiar, cuyos objetivos son la supervivencia y la reproducción.
En las llamadas sociedades de fisión-fusión, la pertenencia al grupo puede cambiar pero, en
cualquier momento de su vida, el individuo solo será miembro de un único grupo. Por otro
lado, los humanos pueden pertenecer simultáneamente a muchos grupos sociales, cuyos
objetivos van mucho más allá de la supervivencia y la reproducción y pueden operar a nivel
familiar, local, regional, nacional, supranacional y global.
La interacción entre los miembros de los grupos de primates son sensoriales: tacto,
gusto, olfato, vista y oído. Con los humanos, sin embargo, por mucho que el tacto, el gusto
y el olfato estén presentes en el seno de las familias, estos sentidos juegan un papel
relativamente pequeño en el resto de interacciones sociales. Además, en los humanos, la
vista y el oído están aumentados gracias a inventos como las cartas, el correo electrónico, la
fotografía, el cine, las imágenes de webcam, los teléfonos fijos los teléfonos móviles y las
conferencias online que extiende su alcance de lo local a lo global.
Estos inventos son resultado del quinto tipo de conducta: la innovadora.
Los 533 casos de innovación, definidos como soluciones nuevas a problemas
medioambientales o sociales, citados por los primatólogos para todos los primates,[7]
pueden ampliarse con los que aportan los investigadores que estudian la familia de los
cuervos y mamíferos marinos como los delfines y las ballenas. Son ejemplos, que difieren
de las innovaciones humanas tanto cualitativa como cuantitativamente.
El único objetivo de las innovaciones no humanas es la supervivencia, como sucede
cuando un chimpancé retira las hojas de una rama para sacar termitas de un nido o utiliza
una piedra para partir la cáscara de un fruto y, en ambos casos, obtener sustento.
Además, las reivindicaciones de los primatólogos en cuanto a la similitud en genes
y en conductas, como la fabricación de utensilios, entre humanos y simios ilustra una de las
consecuencias de la especialización científica mencionada en el capítulo 29, es decir, una
concentración de estudio tan grande que impide ver la imagen global. En este caso, los
primatólogos no reconocen que las conductas de los primates están también presentes en
otras especies genéticamente muy distintas. Los cuervos de Nueva Caledonia limpian y
modelan ramas para darles forma de gancho y poder extraer con ellas las larvas de insectos
que se acumulan en los agujeros de los árboles. Los científicos que estudian estas especies
aseguran que los utensilios de los cuervos son más sofisticados que los de los chimpancés.
Los investigadores que estudian la chara floridana, otra especie de los córvidos, informan
de que estas aves almacenan alimentos perecederos y no perecederos en escondites
repartidos por áreas muy extensas y que recuerdan a la perfección la localización y el
contenido de cada escondite. Algunas charas observan y roban de los escondites de otras y
toman todas las precauciones posibles para ocultar luego sus escondites de los ojos de las
demás charas.[8]
Al parecer, la costumbre de los chimpancés de utilizar una piedra para romper la
cáscara de los frutos data de hace al menos 4.300 años.[9] Es muy probable que por
aquellos tiempos utilizaran también ramas desprovistas de hojas para hurgar en los
termiteros, pero no nos han llegado evidencias. Desde entonces, no han avanzado en el uso
de la piedra, ni siquiera hasta la primitiva fase olduvayense de tallar láminas de una piedra
para obtener un canto cortante, como hacían los homininos pre-humanos. Han inventado
muy pocos utensilios. Y todos ellos son para uso individual y tienen una función
relacionada única y exclusivamente con la supervivencia.
Por otro lado, la tremenda cantidad, complejidad y tamaño de los utensilios
inventados por los humanos, que en su mayoría tienen objetivos distintos a la
supervivencia, se indican en el capítulo 29. La afirmación de que un chimpancé solitario
utilice una piedra para partir una cáscara es similar a la iniciativa de un gran equipo de
científicos internacionales que colabora para inventar y construir el Gran Colisionador de
Hadrones con el objetivo de descubrir la interacción de las partículas fundamentales es, si
se me permite sugerirlo, poco menos que válida.
Paradójicamente, justo en la época en que se afirmaba que los utensilios de los
humanos y de los chimpancés mostraban una diferencia solo en grado entre las dos
especies, los humanos inventaron dos utensilios, llamados Voyager 1 y Voyager 2, sondas
espaciales operadas remotamente diseñadas para explorar los planetas más exteriores antes
de, en septiembre de 2013, 35 años más tarde, abandonar nuestro sistema solar. Ambas
transportan un disco audiovisual con sonidos de la Tierra entre los que se incluye el
mensaje del entonces presidente de los Estados Unidos, Jimmy Carter, que aparece
reproducido bajo el encabezamiento de este capítulo.
La capacidad de reconocer la propia imagen en un espejo es algo muy distinto a la
consciencia que reflexiona sobre sí misma y el lugar que ocupa en el universo.
Ningún animal no humano presenta conductas que no estén relacionadas con
conseguir alimento y cobijo, huir de los depredadores, encontrar pareja, criar su
descendencia o reforzar la colaboración en el seno del grupo para incrementar las
probabilidades de supervivencia y reproducción.
Los humanos, por otro lado, presentan un amplio abanico de conductas que no
tienen nada que ver con su supervivencia y reproducción. Se formulan preguntas sobre sí
mismos tanto como entidades físicas como pensantes, sobre su entorno, sobre el universo y
sobre su propia conducta. Ningún animal no humano posee esta capacidad de pensamiento
introspectivo ni la habilidad resultante de decidir actuar en contra de la conducta
determinada genética o culturalmente.
Todas las evidencias válidas presentadas para sustentar estas tres falacias solapadas
son consistentes con la teoría desarrollada en la Segunda y la tercera parte de este libro. En
correlación con el incremento de complejidad biológica y la centralización, la consciencia
surge y se intensifica a lo largo de distintos linajes evolutivos hasta que alcanza la estasis o,
en el caso de una especie, se produce un cambio de fase en el que la consciencia se vuelve
consciente de sí misma. Para utilizar una analogía, esta intensificación es como el calor
aplicado a una olla de agua: produce un aumento de la temperatura. En las ollas que
representan el linaje de los gibones, los gorilas y los chimpancés, por ejemplo, este calor,
correlacionado con la complejidad neural y la centralización, resulta insuficiente para que
la temperatura del agua ascienda por encima de, por ejemplo, 85, 90 y 95 grados Celsius,
respectivamente, temperaturas que representan su nivel de cognición y conducta. Pero en la
olla que representa el linaje humano, la intensidad de calor hace aumentar la temperatura
hasta el punto de ebullición. En el líquido empiezan a formarse burbujas de vapor que
irrumpen hacia la superficie y forman un gas por encima del agua en ebullición; el calor
mantiene una temperatura de 100 grados Celsius y el líquido sigue experimentando un
cambio de fase que lo transforma en gas a un ritmo creciente durante el cual el volumen de
agua también disminuye.
Por mucho que los humanos estén conformados por su herencia genética y su
entorno cultural, este cambio de fase hacia la consciencia reflexiva les ha dado la capacidad
exclusiva de trascender ambos aspectos.
[1]Roth (2001), p. 555.
[2] Véase página 504.
[3]Pollard, K., «What Makes Us Human?», Scientific American Magazine, 300: 5,
2009, pp. 44–49.
[4]http://www.janegoodall.org/chimpanzees/tool-use-hunting-other-discoveries,
consultado el 11 de mayo de 2013.
[5]Pinker (2000), pp. 367–374.
[6]Guihard-Costa, Anne-Marie y Ramirez-Rozzi, Fernando, «Growth of the Human
Brain and Skull Slows Down at About 2.5 Years Old», Comptes Rendus Palevol, 3: 5, 2004,
pp. 397–402.
[7] Véase página 618.
[8]Patton, Paul, «One World, Many Minds: Intelligence in the Animal Kingdom»,
Scientific American Mind, diciembre 2008, pp. 72–79.
[9]Mercader, Julio, et al., «4,300-Year-Old Chimpanzee Sites and the Origins of
Percussive Stone Technology», Proceedings of the National Academy of Sciences, 104: 9,
2007, pp. 3043–3048.
CAPÍTULO 31. CONCLUSIONES Y REFLEXIONES SOBRE LA
EMERGENCIA Y LA EVOLUCIÓN DE LOS HUMANOS

En la actualidad, la red de relaciones que conecta el género humano consigo


mismo y con el resto de la biosfera es tan compleja, que todos los aspectos se influyen
mutuamente en grado extremo. Alguien debería estudiar el sistema en su totalidad, aunque
sea toscamente, porque la suma de los estudios parciales de un sistema complejo no lineal
no puede dar idea del comportamiento del todo.

Murray Gell-Mann, 1994

La exploración del espacio y el carácter planetario de la complejidad económica,


ecológica y cibernética, están construyendo las bases de una consciencia global inevitable.

Richard Falk, 1985

En el hombre científico moderno, la evolución ha empezado por fin a cobrar


consciencia de sí misma.

Julian Huxley, 1959

Conclusiones

Los descubrimientos de la tercera parte nos hacen llegar a las conclusiones


siguientes. Las evidencias y el análisis que lleva a cada una de las conclusiones se ofrecen
en el capítulo indicado entre paréntesis.
1. Las características anatómicas y genéticas de los humanos difieren solo en grado
de las de otros primates. Lo que diferencia al Homo sapiens del resto de las especies
conocidas es la consciencia reflexiva, es decir, que el adulto humano moderno no solo sabe,
sino que además sabe que lo sabe. (Capítulos 26 y 27).
2. A pesar de las reivindicaciones de muchos primatólogos, antropólogos y biólogos
evolutivos, la emergencia de los humanos, con su capacidad exclusiva para la consciencia
reflexiva, marcó un cambio de tipo, no solo de grado, en la evolución de la vida, del mismo
modo que la emergencia de la vida marcó un cambio de tipo con relación a la evolución de
la materia inanimada. (Capítulo 30).
3. El origen de la emergencia humana se relaciona, en términos generales, con el
incremento de consciencia en los primates predecesores hasta ese punto en que la
consciencia se torna consciente de sí misma. La falta de evidencias, sin embargo, hace que
resulte imposible remontar el linaje a partir de un antepasado pre-humano concreto.
(Capítulo 26).
4. Los primeros destellos de consciencia reflexiva se hacen patentes a partir de sus
consecuencias, como la aparición de utensilios compuestos especializados, símbolos,
ornamentos, pinturas, esculturas, instrumentos musicales, entierros y cremaciones de
carácter ceremonial y travesías marítimas. Los vestigios se han descubierto en diferentes
lugares del planeta. A pesar de que su datación suele ser incierta, en su mayoría están
presentes durante la Edad de Piedra tardía en África y el Paleolítico superior en distintos
continentes, un periodo comprendido entre 40.000 y 10.000 años atrás, aunque hay
evidencias incompletas o cuestionables que sugieren que la consciencia reflexiva podría
haber emergido antes. (Capítulo 26).
5. Igual que sucede con la emergencia de la materia y la emergencia de la vida, la
escasez de evidencias hace muy difícil que la ciencia pueda llegar algún día a identificar
cuándo y cómo emergieron los humanos. Lo más probable es que un entorno fluctuante
inducido por un clima fluctuante llevara a reconocer que era más fácil sobrevivir a los
depredadores y encontrar sustento mediante la cooperación que no con la competencia. La
hibridación o la duplicación completa del genoma podrían haber jugado un papel en este
cambio evolutivo. (Capítulo 26).
6. En términos generales, podría decirse que estamos ante un caso de emergencia de
sistemas en el que la interacción de facultades de un nivel de complejidad inferior —como
podrían ser la comprensión, el aprendizaje y la comunicación— genera una facultad
novedosa de un nivel de complejidad más elevado —la consciencia reflexiva, en este caso
— y esa facultad de nivel superior interactúa con las facultades de nivel inferior para
transformarlas y generar facultades nuevas, como la imaginación, las creencias, el lenguaje,
la abstracción y la ética. (Capítulo 26).
7. Como sucede con las emergencias importantes, el límite que separa los humanos
de los pre-humanos es borroso, pero es un límite, de todos modos. Más allá de él se inicia
un proceso de cambio irreversible: la evolución de la consciencia reflexiva. (capítulo 26)
8. Esta evolución puede dividirse en tres fases que se solapan entre sí: el
pensamiento primitivo, el pensamiento filosófico y el pensamiento científico. (Capítulo 27).
9. Durante la inmensa mayoría del tiempo transcurrido desde que se separaron por
completo de los homininos, los humanos han llevado una existencia de cazadores-
recolectores en pequeños grupos integrados por la familia extendida, donde la competencia
por la supervivencia con grupos similares y con los depredadores tuvo como resultado una
tasa de mortalidad elevada. (Capítulo 27).
10. El pensamiento primitivo evolucionó lentamente hasta hace cuestión de 10.000
años, momento en el cual los humanos inventaron la agricultura como una forma más
efectiva de obtener el sustento y comprendieron los beneficios de la cooperación
estableciéndose en comunidades agrícolas más grandes. Este proceso tuvo lugar en distintos
lugares en distintos momentos, y en algunos lugares nunca llegó a producirse. (Capítulo
27).
11. Con más oportunidades pare reflexionar y transmitir ideas a través del dibujo, el
habla y la escritura, los humanos de estas comunidades agrícolas cooperaron para inventar
tecnologías que mejoraron y ampliaron sus tierras de cultivo, y empezaron además a
cooperar con otros asentamientos para comerciar tanto con productos como con ideas, lo
que permitió que los asentamientos crecieran en tamaño y complejidad. (Capítulo 27).
12. A pesar de que la cooperación había empezado a evolucionar, se enfrentó
inevitablemente con el instinto de competencia arraigado durante millones de años de
antepasados pre-humanos, lo que produjo batallas para el control de los asentamientos y
para hacerse con los recursos tanto de los asentamientos propios como ajenos. El proceso
dio como resultado el auge y caída de dinastías e imperios. (Capítulo 27).
13. El crecimiento de los asentamientos llevó al desarrollo de una jerarquía social
que era el reflejo de las distintas habilidades transmitidas de padres a hijos: gobernantes,
sacerdotes, guerreros, comerciantes, artesanos, agricultores y esclavos. El patrón
generalizado en todo el planeta fue de un aumento en tamaño, complejidad y centralización
de las sociedades humanas. (Capítulo 27).
14. La evolución del pensamiento primitivo estuvo íntimamente ligada a la
evolución de las creencias que surgieron de la imaginación, combinada con la falta de
comprensión de los fenómenos naturales y el miedo a lo desconocido, es decir, la
superstición. A partir del animismo, el totemismo y la veneración a los antepasados de los
cazadores-recolectores, empezaron a desarrollarse religiones que reflejaron el incremento
en tamaño, complejidad y especialización de las sociedades humanas y que, a partir de
diosas de la fertilidad, pasaron por el politeísmo para acabar en un panteón gobernado por
un poderoso dios masculino del cielo y la guerra y, finalmente, en un monoteísmo patriarcal
donde los demás dioses estaban sometidos a un Dios único o degradados a la categoría de
ángeles. (Capítulo 27).
15. Al aplicar la consciencia reflexiva a la concepción de tecnologías para la
supervivencia y la reproducción, y con el fin de influir las fuerzas sobrenaturales que se
creía que determinaban estos factores, el pensamiento primitivo dio lugar a las bases del
arte, el lenguaje hablado y escrito, las matemáticas y la astronomía. (Capítulo 27).
16. Los intentos de responder a las preguntas fundamentales de qué somos y de
dónde venimos significaron el inicio de una nueva fase, un fenómeno que tuvo lugar hace
aproximadamente 3.000 años en distintos lugares del planeta y en el que el pensamiento
filosófico se separó de las supersticiones del pensamiento primitivo. Se caracterizó por un
deseo de buscar explicaciones que no implicaran espíritus imaginarios, dioses
antropomórficos o un Dios, en los que se había creído durante más de 20.000 años.
(Capítulo 28).
17. Seguramente, el pensamiento filosófico emergió en primer lugar en el
subcontinente indio, situándose los demás centros principales en China y en la colonia
griega de Jonia. Los filósofos se sirvieron de la revelación, a menudo resultante de una
meditación disciplinada, y del razonamiento, basado en supuestos previos o
interpretaciones de las evidencias. (Capítulo 28).
18. Como todas las emergencias consideradas hasta el momento, los primeros
intentos de pensamiento filosófico fueron toscos y difíciles de diferenciar de sus raíces, las
supersticiones primitivas inculcadas por las religiones. Pero a medida que se incrementaron
y se propagaron, su evolución mostró un patrón similar al de la evolución filética en la
biología en cuanto a su respuesta a los distintos entornos locales. Algunos brotes de
pensamiento filosófico nunca llegaron a dar una flor; otros se desarrollaron y acabaron
marchitándose; algunos fueron asimilados y cambiados por otras escuelas de pensamiento;
algunos interactuaron con las creencias locales y mutaron para convertirse en religiones; los
hubo que fueron asimilados o destruidos por religiones o gobernantes; otros cayeron en
barbecho y fueron resucitados mucho más tarde; algunos fueron patrocinados por los
gobernantes y florecieron; los que sobrevivieron siguieron evolucionando. (Capítulo 28).
19. Las revelaciones de los videntes —fueran indios, chinos, griegos o romanos—
tienden a compartir características en común, en particular la unidad subyacente de todas
las cosas. En la mayoría de los casos, esta unidad subyacente o realidad suprema es algo
inefable, que podría describirse como una consciencia cósmica trascendente o una
inteligencia que existe sin forma fuera del espacio y del tiempo, pero que además es
inmanente en el sentido de que da lugar a todos los fenómenos percibidos por nuestros
cinco sentidos físicos y por nuestra mente; la esencia de todos nosotros surge de esta unidad
subyacente y es idéntica al todo. Además, esta realidad suprema se manifiesta y regula el
funcionamiento del cosmos, y para alcanzar la plenitud deberíamos armonizar nuestra vida
con ella. (Capítulo 28).
20. Pese a que la revelación tendía a ser holística, podría dividirse en ramas según el
objeto de indagación. Lo que se ramificó considerablemente fueron las escuelas fundadas
para interpretar, practicar y enseñar las revelaciones de los distintos videntes. (Capítulo 28).
21. El razonamiento se utilizó para impartir las enseñanzas de las revelaciones y
también como método de indagación. Se puede dividir en ramas según el objeto de
indagación, que se ramificaron a medida que las escuelas de razonamiento se propagaron,
interactuaron y se multiplicaron como respuesta a nuevas ideas. (Capítulo 28).
22. Allí donde el pensamiento se centraba en la ética —cómo deberíamos
comportarnos—, prácticamente todos los antiguos filósofos, independientemente de que
utilizaran la revelación o el razonamiento, enseñaron que solo alcanzaremos la tranquilidad
y la plenitud si actuamos sin egoísmo y haciendo a los demás lo que querríamos que nos
hicieran a nosotros. Esto iba en contra del impulso instintivo dominante de sus sociedades,
que favorecía la agresividad, la guerra y la conquista. En el fondo se trata de una
recomendación a favor de la cooperación, y en contra de la competencia, para alcanzar el
progreso de la humanidad. (Capítulo 28).
23. A finales del siglo xii, cuando Occidente adoptó el razonamiento como método
único de pensamiento filosófico, se produjo una ramificación fundamental entre revelación
y razonamiento, a pesar de que las evidencias no sustentan la superioridad de un método
por encima del otro. (Capítulo 28).
24. La tercera fase de la evolución humana, el pensamiento científico, se caracteriza
por el intento de explicar los fenómenos naturales utilizando la observación o la
experimentación sistemática, y preferiblemente mensurable, y aplicar el razonamiento a los
conocimientos así obtenidos para deducir leyes verificables y realizar predicciones o
retrodicciones. (Capítulo 29).
25. Este tipo de pensamiento se empleó de entrada en tres áreas: las ciencias físicas
que estudian los fenómenos inanimados, las ciencias de la vida que estudian los organismos
vivos y las ciencias médicas que se aplican para mantener la salud y tratar enfermedades y
lesiones. (Capítulo 29).
26. Las ciencias médicas tienen sus raíces en las prácticas de curación de la
antigüedad, que estaban vinculadas con la superstición, y emergieron como parte de la
ciencia moderna en el siglo xvii, igual que las ciencias de la vida. La ciencia física más
antigua, la astronomía, data de tiempos prehistóricos, donde se desarrolló al servicio de
creencias supersticiosas antes de emerger como ciencia moderna en el siglo xvi. La física,
la ciencia física fundamental, emergió de la filosofía natural en los siglos xvi y xvii.
Durante este periodo, conocido como la revolución científica, quedaron desacreditadas
muchas de las antiguas ideas en el campo de la medicina, la astronomía y la filosofía
natural y se propusieron nuevas teorías con base empírica. La mayoría de sus practicantes,
de todos modos, conservaron sus creencias supersticiosas. (Capítulo 29).
27. En el siglo xix, el estudio de los humanos y sus relaciones sociales llevó a las
ciencias sociales a separarse de las ciencias de la vida. (Capítulo 29).
28. Después de su emergencia, el pensamiento científico evolucionó a cada vez
mayor velocidad, un fenómeno que se debió básicamente a cinco factores sinérgicos
(capítulo 29):
28.1. Las ayudas al cálculo que se desarrollaron a partir de las máquinas mecánicas
de cálculo hasta los ordenadores personales y los superordenadores.
28.2. La divulgación del conocimiento, que estimula nuevas ideas, que desarrolló
desde las máquinas manuales de impresión con tipos móviles hasta Internet, seguida de la
World Wide Web, que no solo ofrece una comunicación virtualmente instantánea, sino que
además ayuda a globalizar el conocimiento.
28.3. El desarrollo de nuevas tecnologías diseñadas para investigaciones científicas
concretas además de la utilización de tecnologías diseñadas para otros fines.
28.4. La cooperación entre científicos a través de sociedades científicas dedicadas a
compartir conocimientos e ideas, así como a través del trabajo en equipo en investigaciones
científicas concretas, con un desarrollo que a partir de lo local va hacia lo nacional y lo
internacional.
28.5. El acceso cada vez mayor a la educación que dio como resultado la formación
de más científicos.
29. Estos factores dieron como resultado (capítulo 29):
29.1. La invención de tecnologías para investigar aquella materia y aquella energía
que en condiciones normales no son observables y que produjo la segunda revolución
científica en la física, con el desarrollo de la teoría cuántica y la teoría de la relatividad.
29.2. Un crecimiento de proporciones geométricas del conocimiento empírico que
produjo la ramificación del pensamiento científico en ramas y sub-ramas cada vez más
especializadas que investigan campos de indagación cada vez más constreñidos.
29.3. Un conocimiento en profundidad de estos campos que dio como resultado
pozos de experiencia de los que a los científicos les cuesta salir para entablar un diálogo
fructífero con otros especialistas, excepto cuando esos pozos se entrecruzan en un estudio
interdisciplinario sobre el tema especializado en cuestión.
29.4. Unos cuantos científicos preparados para trascender su especialización y
abordar preguntas fundamentales sobre la existencia humana, como la de ¿quién somos?
29.5. Una creencia en el reduccionismo científico como único método de
indagación científica, a pesar de las limitaciones que presenta su potente herramienta
analítica cuando se aplica a fenómenos complejos, interrelacionados y emergentes como la
vida o la humanidad.
29.6. La consecuente creencia de muchos científicos en el fisicalismo, que sostiene
que lo único que es real es la materia física y que todas las demás cosas, como la mente o la
consciencia, acabarán explicándose como objetos físicos o sus interacciones.
30. Los científicos de las dos sub-ramas de la psicología, que investiga los procesos
mentales y la conducta de individuos y grupos, afirman poder responder a la pregunta de
quién somos. (Capítulo 29).
30.1. Los neuropsicólogos que creen en el fisicalismo defienden que no somos más
que la conducta de un gran conjunto de células nerviosas y de las moléculas asociadas a
ellas. Aun en el caso de que supusiéramos que nuestra mente está generada por nuestras
células nerviosas y sus interacciones, o que emerge de ellas, hay que tener en cuenta que la
mente no equivale al cerebro. Además, hasta que los neuropsicólogos no proporcionen
observaciones o experimentos verificados de forma independiente que explican qué es tener
experiencias subjetivas de fenómenos —como el concepto del yo, el sentimiento de orgullo,
la audición de música o la visualización de un color—, esta reivindicación permanecerá en
el terreno de la especulación filosófica y lejos del de la ciencia.
30.2. Los psicólogos evolutivos defienden que lo qué somos —en el sentido de lo
que pensamos, lo que sentimos y cómo nos comportamos—, queda explicado por la
acumulación neodarwinista de mutaciones genéticas aleatorias que se produjeron a lo largo
de miles de generaciones y que son las responsables de aquellos mecanismos psicológicos
que se seleccionaron naturalmente para proporcionar una ventaja competitiva que fomentó
la supervivencia de nuestros antepasados de la Edad de Piedra. Sus evidencias consisten en
los modelos matemáticos simplistas basados en el gen y en los juegos de la sociobiología,
que están divorciados de la realidad, están diseñados para producir cualquier tipo de
resultado deseado, carecen de valor predictivo y quedan refutados por las evidencias de
creencias culturales y conductas incompatibles con la explicación de la naturaleza humana
como una máquina de genes neodarwinista.
30.3. Para acomodar estas evidencias, algunos psicólogos evolucionistas proponen
la hipótesis del entorno de adaptación evolutiva. No existe evidencias que sustenten este
intento especulativo de racionalizar los defectos del determinismo genético.
30.4. Otros van más allá y proponen la hipótesis de la co-evolución genético-
cultural. Sin embargo, a pesar de las reivindicaciones del neodarwinismo, la complejidad
del funcionamiento de los genes, de su regulación y de su interacción con el entorno en la
evolución biológica no está hoy en día bien entendida, y menos lo está, si cabe, para
explicar los pensamientos, los sentimientos y la conducta.
31. En contraposición con el patrón divergente y ramificado que ha dominado el
pensamiento científico desde finales del siglo xvi, podemos decir que desde principios del
siglo xx, con la segunda revolución científica, se ha empezado a observar una tendencia
convergente en la ciencia fundamental de la física. La tendencia parte de la revelación de
que por debajo de fenómenos físicos aparentemente distintos subyace la misma causa. La
principal iniciativa de la física teórica en los últimos 25 años ha girado en torno a intentar
demostrar que todos los fenómenos físicos del universo son manifestaciones de energía
inferior de una energía fundamental presente en los inicios del universo. (Capítulo 29).
32. Muchos pioneros de la segunda revolución científica rechazaron el
reduccionismo como método de explicación de los fenómenos físicos del universo y
defendieron que el foco debería ponerse en una plenitud indivisa. (Capítulo 29).
33. Diversas interpretaciones de la teoría cuántica exigen la observación consciente
del campo cuántico antes de que este colapse en materia, lo cual entra en conflicto con el
fisicalismo. Algunos teóricos cuánticos se suscribieron al idealismo, la conjetura de que los
objetos materiales no existen de forma independiente sino solo como construcciones de la
mente o la consciencia. Varios expresaron una visión metafísica similar a la antigua
revelación mística que defiende la unidad subyacente de todas las cosas como una
Consciencia Cósmica trascendente que da lugar y regula todos los fenómenos percibidos
por nuestros cinco sentidos físicos y por nuestra mente. (Capítulo 29).
34. Si las ramas de la física llevan los últimos 25 años convergiendo hacia una
explicación de que todo lo que percibimos en el universo son manifestaciones de energía
inferior de una única energía presente en el principio, y esto converge a su vez con antiguas
revelaciones místicas, podríamos estar ante una profunda tendencia convergente que se
opone a la tendencia divergente que ha caracterizado los más de 400 años de evolución del
pensamiento científico. (Capítulo 29).
35. Por mucho que los humanos estén conformados por su herencia genética y su
entorno cultural, la posesión de una consciencia reflexiva les ha dado la capacidad
exclusiva de trascender ambos aspectos. (Capítulo 30).
Reflexiones
Al repasar el fenómeno de la evolución humana desde que la consciencia reflexiva
marcó su plena emergencia hace entre 40.000 y 10.000 años, se hacen evidentes varios
patrones generales, algunos de larga duración y otros más recientes.
Disminución de la agresividad

En un siglo que se inició con el atentado de Al Qaeda contra las Torres Gemelas de
Nueva York, que causó la muerte de 2.750 civiles, la invasión de Irak por parte de los
Estados Unidos y la intervención militar en Afganistán, más las guerras civiles en Congo,
Liberia, Sudan, Darfur, Libia y Siria, después de un siglo marcado por dos guerras
mundiales y la utilización de armas nucleares, podría parecer contradictorio decir que la
evolución humana se ha caracterizado por una disminución de la agresividad.
Cualquier impresión de un incremento en la agresividad se debe a tres principales
factores. En primer lugar, la percepción del concepto de agresividad ha cambiado. En las
sociedades científicamente avanzadas, la gente ya no considera aceptable, y mucho menos
honorable, librar la guerra contra los infieles respaldándose en la creencia de que es lo que
Dios desea, castigar un acto erróneo según la ley bíblica o coránica del ojo por ojo,
solventar las disputas con duelos, matar a un miembro femenino de la familia cuando se
produce un fallo en el código ético para restaurar de este modo el honor familiar, torturar
hasta la muerte o ejecutar por haber cometido un robo.
Entre los siglos xi y xiii, sin embargo, los reyes y los nobles europeos, a instancias
de Papas que prometían el acceso inmediato al cielo a aquellos que mataban, libraron
guerras sagradas contra los musulmanes y masacraron a judíos y a otros con creencias
supuestamente infieles. Para aquellos que se sienten horrorizados ante los actuales azotes
públicos, las amputaciones de manos y las decapitaciones en países menos desarrollados
como castigo a crímenes que van desde el robo hasta el adulterio, resulta saludable recordar
que todo ello eran prácticas comunes en nuestra sociedad hasta tiempos relativamente
recientes. La Torre de Londres contiene un museo de instrumentos de tortura, cuya práctica
no quedó abolida en Inglaterra hasta mediados del siglo xvii. El 13 de octubre de 1660,
Samuel Pepys anota despreocupadamente en su diario que presenció el ahorcamiento
público del general Harrison y su posterior descuartizamiento ante los vítores de la
multitud.[1] En Gran Bretaña, a principios del siglo xix, había más de doscientos crímenes,
desde el hurto hasta el asesinato pasando por el robo, que estaban castigados con pena de
muerte. En el Reino Unido, las ejecuciones públicas tocaron a su fin en 1868, y la última
ejecución tuvo lugar en 1964. En Francia, las decapitaciones públicas continuaron hasta
1939, mientras que la pena de muerte quedó abolida en 1981. En 2014, castigar con la vida
haber acabado con otra vida era legal según el gobierno federal y según 32 estados de los
Estados Unidos.[2]
El segundo factor es el foco en el número de víctimas de la agresividad y la
ignorancia del aumento de proporción geométrica del tamaño de las poblaciones. Es más
racional examinar la agresividad en relación con el tamaño de la población considerada.
En tercer lugar, hasta el invento de las comunicaciones globales, la mayoría de la
gente desconocía lo que ocurría en otros países. Ahora estamos inundados por noticiarios
televisivos las 24 horas del día, 7 días a la semana, junto con los vídeos subidos a YouTube
que muestran imágenes gráficas de guerras, violaciones y todo tipo de actos violentos que
se producen en el mundo.
Pese a todo, las evidencias de que existe una reducción de la agresividad son claras.
En el capítulo 27 he resumidos los estudios que demuestran el elevado índice de mortalidad
de la época de pensamiento primitivo dominada por las sociedades cazadoras-recolectoras
como consecuencia de batallas crónicas intergrupales, peleas en el seno del grupo,
infanticidio y gerontocidio. En el libro publicado en 2011, Los ángeles que llevamos dentro,
[3] el psicólogo de Harvard, Steven Pinker, evalúan las evidencias disponibles a partir de
investigaciones forenses, arqueológicas, etnográficas, históricas y estadísticas. La inmensa
mayoría de la existencia humana se ha basado en sociedades de cazadores-recolectores y
cazadores-agricultores. Estudios llevados a cabo con 27 grupos de este tipo muestran una
variación en los índices de mortalidad anuales como consecuencia de las guerras. Los
índices más elevados corresponden a tiempos remotos, mientras que los más bajos
pertenecen a tribus que viven en entornos aislados e inhóspitos, como desiertos sin apenas
agua o estepas gélidas, donde no están en competencia con otras tribus o donde han sido
pacificadas por países o imperios desarrollados. El índice anual de mortalidad como
consecuencia de la guerra que muestran estos estudios es de 524 fallecimientos por cada
100.000.
En comparación, si sumamos todas las muertes que se han producido en el siglo xx
como consecuencia de la violencia organizada —guerra, genocidios, purgas y hambrunas
provocadas por el hombre—, obtenemos un índice anual de mortalidad de 60 fallecimientos
por 100.000 en el año 2005, con el ejército de los Estados Unidos implicado en conflictos
en Irak y Afganistán, las muertes militares por cada 100.000 fallecimientos en los Estados
Unidos, o en el mundo entero, representan una cifra demasiado pequeña como para quedar
reflejada en el gráfico de Pinker.[4]
Razones para la disminución de la agresividad
Sugiero que la causa subyacente de esta disminución de la agresividad es la
evolución del pensamiento humano tal y como ha quedado expresada en la Tercera Parte de
este libro. En la fase del pensamiento filosófico, todos aquellos de distintas culturas que
reflexionaron sobre la conducta humana, bien fuera a través de la revelación bien lo
hicieran a través del razonamiento, defendieron la regla de oro de actuar con los demás
como nos gustaría que los demás actuasen con nosotros. Hubo, como hemos visto, una gran
resistencia a este punto de vista, puesto que iba en contra de un instinto de competencia
tremendamente arraigado. Sin embargo, esta postura inició un largo proceso de cambio de
nuestro concepto de las relaciones humanas que ha quedado codificado en forma de leyes
en el seno de las sociedades y de acuerdos entre sociedades.
La Primera Guerra Mundial fue el último gran conflicto entre países científica y
tecnológicamente desarrollados en el que la lucha estuvo considerada como un acto noble.
La divulgación de información resultante de los avances científicos y tecnológicos ayudó a
cambiar la consciencia popular. A mediados del siglo xx, no solo la prensa estaba ya
masificada, sino que además la radio y los noticiarios presentados en los cines empezaron a
mostrar los horrores de la guerra, incluyendo la destrucción con bombas atómicas de dos
ciudades japonesas. Todo ello tuvo una consecuencia jamás imaginada por los gobiernos y
los militares que habían ordenado el lanzamiento de las bombas: la comprensión de que la
guerra entre naciones e imperios en competencia es contraproducente.
Los pensadores más destacados de la época tomaron la iniciativa. El filósofo
Bertrand Russell, junto con Albert Einstein, se pusieron en contacto con distinguidos
científicos, entre ellos Joseph Rotblat, que había sido reclutado por el gobierno
norteamericano para trabajar en el diseño de la bomba atómica. En 1955, publicaron en
Londres lo que acabó conociéndose como el Manifiesto Russell-Einstein. Hablando «no
como miembros de tal o cual nación, continente o credo, sino como seres humanos,
miembros de la especie humana […]», plantearon la pregunta directa: «¿desaparecerá la
raza humana o la humanidad renunciará a la guerra?».[5]
La declaración tuvo como consecuencia las conferencias de Pugwash, que reunieron
a intelectuales influyentes y figuras públicas preocupados todos ellos por reducir los
peligros del conflicto armado y buscar soluciones cooperativas a los problemas globales.
En 1995, Pugwash y su cofundador, Joseph Rotblat, fueron galardonados conjuntamente
con el Premio Nobel de la Paz.
El manifiesto fomentó también movimientos pacifistas en todo el mundo, pero los
gobiernos y los intereses egoístas de sus complejos militares e industriales se resistieron a
sus llamadas al desarme, tal y como el presidente de los Estados Unidos y antiguo general,
Dwight Eisenhower, atestiguó en su discurso de despedida en 1961. Después de destacar
que los Estados Unidos gastaban más en seguridad militar que el equivalente a los ingresos
netos de todas las compañías norteamericanas, dijo explícitamente:
Debemos protegernos contra la adquisición de influencias indebidas, sean buscadas
o no, por parte del complejo militar-industrial. Existe y existirán circunstancias que harán
posible que surjan poderes en lugares indebidos, con efectos desastrosos. [6]
La segunda mitad del siglo xx vivió pasos titubeantes para dejar atrás los imperios
en competencia y avanzar hacia la cooperación de las sociedades humanas a nivel
supranacional y global. Los vencedores de la Segunda Guerra Mundial reclutaron 51 países
en 1945 para formar las Naciones Unidas con los objetivos de mantener la paz y la
seguridad y fomentar la cooperación internacional para abordar problemas globales que
afectaran a toda la humanidad. La consecución de este objetivo, sin embargo, se vio
entorpecido por la Guerra Fría entre los Estados Unidos y la Unión Soviética. Pero, de
todos modos, las Naciones Unidos hicieron avances a escala global a nivel económico,
cultural y humanitario a través de las agencias que estableció, como la Organización
Mundial de la Salud y el Fondo de las Naciones Unidas para la Infancia (UNICEF).
Paradójicamente, el imperio soviético fue derrotado no por la fuerza de las armas, sino por
la escalada de precios, que socavó la economía soviética, combinada con las demandas de
libertad por parte de los pueblos que la opresión soviética había oprimido.
Europa, el continente donde se inició la revolución científica, tomó el liderazgo en
la búsqueda de la cooperación, y no la competencia, entre naciones estado. En 1951,
Francia, Alemania, Italia, Bélgica, Holanda y Luxemburgo fundaron la Comunidad Europea
del Carbón y del Acero (CECA). Su objetivo era integrar las industrias del carbón y el
acero de los estados miembros para no tener que librar nunca la guerra por esos productos.
La CECA evolucionó hasta la actual Unión Europea (UE) integrada por 28 naciones, 17 de
las cuales comparten además divisa. La pérdida de parte de su soberanía nacional a cambio
de paz y beneficios sociales y económicos, junto con la percepción de imposición
burocrática de medidas presupuestarias en 2013 y 2014, generó un incremento de votos de
facciones ultranacionalistas en las elecciones parlamentarias europeas de 2014. La crisis de
refugiados resultante de las guerras internas de Oriente Próximo y Afganistán impulsó el
auge del nacionalismo en toda Europa y llevó a la decisión que tomó el Reino Unido por
referéndum en 2016 de abandonar la UE. Pero la evolución noética, igual que la evolución
biológica, no es proceso regular. Fundamentalmente, resulta impensable que cualquiera de
los estados miembros pudiera declarar la guerra a otro, un hecho reconocido por el Premio
Nobel de la Paz que recibió la UE en 2012 por «durante más de seis décadas, haber
contribuido a los avances de paz y reconciliación, democracia y derechos humanos en
Europa».[7]
La reducción generalizada de la agresividad entre sociedades ha tenido un
paralelismo en la reducción de la agresividad tanto entre individuos como entre sociedades
e individuos, independientemente de que dichos individuos sean miembros de esa o de otra
sociedad. La amplia aceptación de esta tendencia estuvo marcada por la adopción en 1948
por parte de la Asamblea General de las Naciones Unidas de la Declaración Universal de
los Derechos Humanos por 48 votos a favor contra cero y las ocho abstenciones del bloque
soviético, Sudáfrica y Arabia Saudí. El primer artículo declara:
Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados
como están de razón y consciencia, deben comportarse fraternalmente los unos con los
otros.
Los restantes artículos denuncian la esclavitud, la tortura y el trato y el castigo cruel,
inhumano y degradante. Una señal del desarrollo del pensamiento humano la representa el
hecho de que la mayoría de habitantes de las sociedades científicamente avanzadas se
horrorice ante este tipo de actos, sobre todo cuando los autores de los mismos son los
gobiernos o sus agencias, como es el caso de las torturas por parte de militares
estadounidenses en la cárcel de Abu Ghraib, Irak, en 2003 y 2004, o la violación de
manifestantes políticos por parte de sus interrogadores y de la guardia revolucionaria iraní
en las cárceles iraníes después de las elecciones de 2009.[8]
Aumento de cooperación

La evolución del pensamiento que provocó una disminución de la agresividad,


causó a su vez un aumento de la cooperación.
Peter Kropotkin, el naturalista de finales del siglo xix que defendía que el apoyo
mutuo era un factor más importante para la evolución biológica que la competencia,[9]
extendió su argumento a la evolución humana. Sostenía que los documentos históricos
transmiten una impresión distorsionada:
Los poemas épicos, las inscripciones de los monumentos, los tratados de paz…
prácticamente todos los documentos históricos tienen el mismo carácter; hablan de
fragmentos de paz, no de la paz en sí misma. Por lo tanto, incluso el historiador con
mejores intenciones traza inconscientemente una imagen distorsionada de los tiempos que
pretende describir.[10]
En la actualidad, el distinguido historiador David Cannadine presenta una postura
similar en el libro que publicó en 2013, The Undivided Past: History Beyond Our
Differences,[11] donde argumenta que los historiadores han hecho hincapié en los
conflictos que se han producido tanto dentro como entre las diversas divisiones de la
humanidad —como las religiones, las razas y las naciones—, pero han ignorado incontables
y fructíferas interacciones y actos de cooperación que también han tenido lugar.
Existen, no obstante, evidencias de los primeros humanos no solo de
colectivización,[12] como sucede con las sociedades de insectos, sino también de
cooperación, que definimos en el capítulo 19 como:
Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar objetivos
acordados por todos o por el beneficio mutuo.
A diferencia de la colectivización instintiva o coaccionada, la cooperación requiere
la presencia de pensamiento reflexivo, y esto es lo que la hace exclusiva de la especie
humana. Los primeros signos de cooperación se presentan en el capítulo 26, que examina la
emergencia de los humanos.[13] El capítulo 27, que gira en torno a la evolución del
pensamiento primitivo, muestra cómo luchó para instaurarse por encima del instinto
competitivo dominante que había dado como resultado la colectivización forzada y el
desarrollo de imperios jerárquicos.[14] Con la evolución del pensamiento filosófico, la
regla de oro de hacer a los demás, enemigos incluidos, solo aquello que te harías a ti
mismo, se convirtió en una prescripción enraizada en la cooperación que contratacó el
dominio de la competencia agresiva con otros estados por los recursos y el territorio.
El colapso del imperio romano occidental en el siglo v dio paso a lo que los
historiadores occidentales denominaron periodo medieval. Pero los godos, los vándalos, los
anglos, los sajones, los lombardos y otras tribus conocidas despectivamente como
«barbaros», que invadieron el territorio desde el este, importaron de sus sociedades rurales
la tradición del «folkmoot», o reunión de todos los hombres adultos, un órgano encargado
de tomar decisiones sobre el cultivo de la tierra, que habitualmente era de propiedad
comunitaria. En estas reuniones se acostumbraba a elegir también los representantes para
arbitrar en caso de disputas, decidir quién era el responsable de un daño o una injusticia, y
recaudar las multas que se imponían a modo de compensación en vez de ejercer la
venganza. Parte de esta compensación quedaba retenida por el pueblo para trabajos
comunales.[15] Estas tradiciones fueron las precursoras de los modernos sistemas
parlamentario y judicial.
A medida que los poblados barbaros se expandieron, Europa desarrolló un tapiz
fluctuante de sistemas socio-políticos distintos. La Iglesia se convirtió en un poder secular;
los invasores se cristianizaron y los ciudadanos del antiguo imperio romano occidental
asimilaron las tradiciones bárbaras; se vivieron nuevas oleadas de invasiones; bandas de
guerreros lideradas por señores de la guerra ofrecieron su protección a los campesinos que
trabajaban las tierras a cambo de tributos, lo que acabó dando como resultado el sistema
feudal. Pero pese a todo esto, la cooperación siguió siendo evidente en la mayor parte de
Europa, donde los pueblos rurales más prósperos se convirtieron en ciudades y reafirmaron
sus raíces cooperativas a medida que los miembros de las distintas profesiones
establecieron hermandades o gremios basados en el autogobierno democrático y el apoyo
mutuo. Muchas de estas asociaciones cobraron carácter permanente, como los gremios de
comerciantes, artesanos, trabajadores agrícolas y maestros, pero se formaron asimismo
otras de carácter temporal con objetivos concretos, como las expediciones marítimas o la
construcción de catedrales.
Las ciudades medievales europeas se organizaron como una doble federación: de
propietarios agrupados en pequeñas uniones de carácter territorial —básicamente
comunidades de pequeños pueblos cada una de ellas con su propia parroquia— y de
hombres unidos por un juramento en gremios diferenciados por su profesión. Los residentes
de algunas ciudades cooperaron más aun formando comunas en las que los ciudadanos
realizaban un juramento que los unía mediante un vínculo de apoyo mutuo con fines de
comercio y defensa, mientras que en algunas áreas rurales también se desarrollaron
comunas. Estas comunas con autogobierno democrático crecieron poco a poco y acabaron
siendo prácticamente independientes de los señores feudales. Esta independencia se vio
reforzada por la cooperación con otras comunas y la formación de federaciones, como la
Liga Lombarda, que se extendió por el centro y el norte de Italia.
En el espacio de 350 años desde principios del siglo xi, el aspecto de Europa se
transformó por completo gracias a esta actividad cooperativa. Pequeños pueblos y aldeas se
transformaron en ricas ciudades medievales amuralladas en las que floreció el comercio, las
artes, la artesanía y la enseñanza, junto con la construcción de edificios impresionantes,
como las catedrales góticas de Colonia y Chartres.
La desaparición de la mayoría de las comunas medievales entre los siglos xiv y xvi
fue debida a diversos factores en diversos lugares. Destaca entre ellos el alejamiento de los
principios cooperativos con el fin de mantener la riqueza y el poder. Este proceso marginó a
los recién llegados y a los campesinos que trabajaban la tierra y, paradójicamente, dejó las
comunas vulnerables a la usurpación por parte de tiranos despiadados o subyugadas al
poder de estados centralizadores. Estos estados solían estar gobernados por un monarca de
carácter hereditario, el descendiente del que fuera el señor de la guerra más poderoso.
A pesar de que la cooperación como forma de gobierno sufrió un retroceso, sus
tradiciones influyeron los diversos acuerdos a los que llegaron los poderes en competencia
representados por el rey, la nobleza, la Iglesia y los comerciantes, algo que quedó
especialmente patente en los parlamentos que se desarrollaron para aprobar y elaborar leyes
y recaudar impuestos.
La cooperación volvió a emerger a mediados del siglo xix en la Gran Bretaña
industrializada como respuesta a la explotación de la mano de obra por parte de los poderes
capitalistas. Pensadores ilustrados, como el exitoso industrial Robert Owen, fundaron
comunidades cooperativas en las que los miembros podían trabajar juntos para satisfacer
sus necesidades económicas y sociales, incluyendo la educación de sus hijos. Ninguna de
estas cooperativas sobrevivió mucho tiempo, en gran parte por culpa de su estructura
económica. Sin embargo, abrieron el camino para que en 1844, 28 hombres fundaran la
Rochdale Equitable Pioneers Society, sobre un conjunto de principios socioeconómicos que
alcanzaron un gran éxito. Las sociedades cooperativas organizadas sobre estos principios se
multiplicaron y se propagaron por todo el mundo, inspirándose en las tradiciones
cooperativas locales.[16] En 1895, solo 51 años después de la declaración de estos
principios cooperativos en la entonces ciudad algodonera de Rochdale, las federaciones
cooperativas nacionales trabajaron conjuntamente para formar una alianza global.[17] En
2012, la Alianza Cooperativa Internacional estimó que más de mil millones de personas —
una de cada siete de la población mundial— formaban parte de una cooperativa de
consumidores, una cooperativa de trabajadores, una cooperativa de viviendas, una
cooperativa agrícola u otro tipo de empresa cooperativa.[18]
Las organizaciones políticas y económicas arraigadas en la competencia siguieron la
iniciativa con más lentitud. Sin embargo, desde mediados del siglo xii, la organización
jerárquica del imperio gobernada por un autócrata fue cediendo paso a estados
democráticos que cooperan a nivel regional, como la Unión Europea, e intentan, aunque no
siempre con éxito, cooperar globalmente a través de las Naciones Unidas y sus agencias.
El capítulo 29 muestra que el progreso en la ciencia se alcanzó principalmente a
través de la cooperación. Nadie puede negar los avances conceptuales importantes que se
han realizado a nivel individual, pero es evidente que han quedado superados por la
cooperación con la financiación de sociedades científicas, la publicación de los
descubrimientos y el desarrollo de equipos internacionales para investigar fenómenos.
La velocidad del cambio

La evolución humana se acelera a un ritmo cada vez mayor. Los humanos


emergieron como una especie introspectiva hace entre 40.000 y 10.000 años. Si tomamos
como punto de partida la media de ese rango, es decir, 25.000 años atrás, tendremos que
durante el 88 por ciento de su tiempo de vida las sociedades humanas fueron
exclusivamente primitivas y las reflexiones sobre el individuo y su relación con el resto del
universo estuvieron basadas en la superstición y con el único objetivo de la supervivencia.
Solo durante el 12 por ciento de ese tiempo, la reflexión humana ha incluido la búsqueda de
conocimiento y la comprensión a través de la revelación y el razonamiento, mientras que la
edad de la ciencia, que utiliza la observación sistemática y la verificación de las evidencias,
ocupa menos del 2 por ciento de la existencia humana.
Si utilizáramos la analogía de un reloj de 24 horas y planteáramos que los humanos
emergieron a las 0 horas, el pensamiento filosófico habría emergido 2 horas y 53 minutos
antes de la medianoche y el pensamiento científico lo habría hecho solo 27 minutos antes
de la medianoche, según ilustra la figura 31.1.

Globalización

De forma exclusiva, los humanos se diseminaron por el planeta sirviéndose de la


consciencia reflexiva para concebir maneras de sobrevivir en cualquier tipo de entorno, sin
dividirse en distintas especies. Desde mediados del siglo xx, la globalización, más que la
dispersión global, empezó a acelerarse como consecuencia de los avances en los
desplazamientos internacionales. Esto, a su vez, y junto con la invención de
comunicaciones globales electrónicas, incrementó los cruces raciales y disminuyó las
diferencias fisiológicas y culturales.[19]
El comercio también se globalizó. Más que eso. El pensamiento también empezó a
globalizarse. Las organizaciones supranacionales científicas, políticas, económicas,
educativas y humanitarias, como las Naciones Unidas y sus agencias, empezaron a abrirse
paso para convertirse en redes de pensamiento global.
En diciembre de 1968, en el momento álgido de la Guerra Fría, las imágenes
enviadas por los astronautas del Apolo 8 asombraron al mundo; en ellas se veía por primera
vez el planeta Tierra, azul, verde marrón y blanco, destacando en la fría oscuridad del
espacio y por encima de la superficie grisácea y sin vida de la luna. Aquella imagen jugó un
papel muy importante en la creación de una consciencia global. En el planeta no aparecía
ningún tipo de frontera nacional. Era el hogar de todos nosotros, de los miembros de una
especie que intentaba sobrevivir en un hábitat pequeño y en precario equilibrio. Aquella
visión fue una experiencia que cambió por completo la vida de los ex pilotos de aviones de
combate que la disfrutaron personalmente. Para el resto de nosotros, supuso el inicio de
muchos movimientos ecologistas y un reconocimiento creciente del carácter
contraproducente de la guerra, en contraposición con la actitud predominante fomentada
por el complejo militar-industrial.
Los pequeños grupos locales crecieron rápidamente para convertirse en
organizaciones no gubernamentales a nivel global. Médicos sin Fronteras, fundada en 1971
en Francia por unos pocos médicos y el editor de una revista médica, posee ahora oficinas
en 23 países y proporciona ayuda médica urgente a personas afectadas por conflictos
armados, epidemias y desastres naturales. Actúa de forma imparcial, sin prestar atención ni
a filiaciones políticas o religiosas ni a fronteras nacionales. En 1999, la organización
recibió el Premio Nobel de la Paz. Greenpeace fue fundada en 1971 por doce personas que
protestaron contra la utilización de armas nucleares navegando a vela por la zona de islas
de Alaska donde los Estados Unidos estaban preparando las pruebas para una bomba
nuclear. Sus actividades se han ampliado e incluyen ahora también conflictos
medioambientales a nivel global. La organización opera más de 50 oficinas a nivel nacional
y regional repartidas por todo el mundo, y no ha dejado en ningún momento de lado su
compromiso con la protesta pacífica.
Los avances tecnológicos han logrado que, desde principios del siglo xxi, todas las
personas del planeta puedan, en teoría, estar conectadas entre sí a través de redes
multimedia globales. En la práctica, cada vez hay más gente conectada globalmente a
través de redes sociales como Facebook, que en 2012 afirmaba tener más de mil millones
de usuarios activos. En términos generales, en 2011, una tercera parte de los 7 mil millones
de habitantes del mundo estaba conectada online y había más de 6 mil millones de
contratos de telefonía móvil.[20] En 2020, según la compañía de telecomunicaciones sueca
Ericsson, la sociedad global dispondrá de más de 50 mil millones de dispositivos
conectados, de los cuales 15 mil millones tendrán capacidad de vídeo.[21]
Aumento de la complejidad

Durante al menos el 60 por ciento del tiempo de existencia del hombre, los humanos
han vivido en pequeños grupos de estructura sencilla, principalmente familias ampliadas,
en movimiento constante, con el único objetivo de la supervivencia y con una división del
trabajo entre caza y recolección; todos los adultos varones participaban en la guerra. Tal y
como se ha detallado en el capítulo 27, la invención de la agricultura, y los asentamientos
permanentes que se asocian a ella, iniciaron un proceso de aumento de complejidad de las
sociedades humanas y de su cultura.
La evolución del pensamiento científico llevó a un rápido aumento de la
complejidad en todos los aspectos de las sociedades humanas y de su cultura, desde las
organizaciones sociales, económicas y políticas hasta las comunicaciones, la educación, los
oficios, las artes y las actividades de ocio. En el siglo xxi, un individuo de un país
científicamente avanzado puede vivir con su familia inmediata y ser miembro de una
familia extendida diseminada por el planeta con la que se comunica electrónicamente.
Gracias a su formación, puede ser una persona socialmente móvil y tener una ocupación
profesional muy distinta a la de sus progenitores. Puede trabajar en una empresa u
organización local, regional, nacional o internacional. Puede ser miembro de un barrio, de
una comunidad local, de un partido político, de un ayuntamiento, de una nación y de una
organización supranacional, como la Comunidad Europea. Por otro lado, puede ser además
miembro de un coro local, de un club de fútbol y de un grupo de lectura, que pueden ser
organizaciones tanto locales como globales, además de miembro de varias redes sociales
globales. Este aumento de la complejidad se ha iniciado hace aproximadamente 65 años de
modo que, teniendo en cuenta que la especie humana está presente desde hace 25.000 años,
estamos hablando de menos del 0,25 por ciento de la existencia humana.
Tendencia hacia la vanguardia

Estos patrones caracterizan la vanguardia de la evolución humana. Pero la mayoría


de la población humana no forma parte de sociedades científicamente desarrolladas; en
términos generales, su cultura recuerda la de las sociedades europeas en distintas fases de
su desarrollo. En el Bangladesh actual, por ejemplo, los trabajadores textiles viven en
suburbios pobres, trabajan muchísimas horas en condiciones penosas y cobran salarios que
se cuentan entre los más bajos del mundo; los gobiernos se alían con los propietarios de las
fábricas para desbaratar los intentos de los trabajadores de crear sindicatos y arrestar a los
activistas obreros, ignoran las intimidaciones de los propietarios hacia sus trabajadores y
dificultan los sindicatos.[22] Podríamos estar perfectamente ante una descripción de los
trabajadores del sector textil del noroeste de Inglaterra a finales del siglo xviii y principios
del xix. En general, los países en vías de desarrollo evolucionan de un modo similar,
aunque con mayor rapidez, a cómo evolucionaron en su momento las naciones
científicamente avanzadas.
La mayoría de la población de las sociedades científicamente avanzadas, sin
embargo, no es inmune a las creencias que se han inculcado a lo largo de varios centenares
de generaciones y que provienen de la imaginación primitiva y del miedo a lo desconocido.
En la figura 31.1 se observa que el pensamiento primitivo no cesa con la emergencia del
pensamiento científico. No es de extrañar que, por ejemplo, un gran porcentaje de la
población de los Estados Unidos, un país científicamente muy desarrollado, crea en el
relato bíblico de la creación cuando está completamente desaprobado tanto por el peso
abrumante de las evidencias como por la consistencia lógica.[23] O que en países
científicamente avanzados haya tantos miembros de la religión más numerosa del mundo
que crean que Dios elige al líder de su Iglesia y le inspira para hablar indefectiblemente de
asuntos morales y relacionados con la fe.
La vanguardia es pequeña y apenas tiene un centenar de años de existencia. Pero
indica la dirección del viaje de la evolución humana. Merece la pena destacar, por ejemplo,
que la iglesia católica romana está perdiendo miembros con rapidez en las regiones
científicamente desarrolladas de Europa y Norteamérica, mientras que la mayoría de los
habitantes de esas regiones que permanecen en ella no creen en las enseñanzas de la Iglesia
sobre cuestiones éticas, como el control de natalidad; la Iglesia solo conserva miembros
plenamente creyentes en regiones subdesarrolladas, sobre todo en África y América del Sur.
En general, el instinto de competencia agresiva arraigado a lo largo de millones de
años en nuestros ancestros pre-humanos y las creencias primitivas inculcadas durante miles
de años, son fuerzas tremendamente potentes en la conformación de la evolución humana
que están declinando de manera gradual. La cooperación, diferenciada de la colectivización
impuesta por un rey, un emperador o un líder religioso, ha luchado contra estas fuerzas y
solo ha empezado a ejercer un efecto significativo sobre la evolución humana en el último
centenar de años, un periodo que se corresponde con el momento en que los
descubrimientos y las invenciones resultado de la segunda revolución científica empezaron
a aportar cambios relevantes en las sociedades humanas. Pero estos dos factores —
cooperación y pensamiento científico— están convirtiéndose de forma acelerada en fuerzas
que conforman la evolución humana.
Convergencia

La dirección del viaje de la vanguardia de la evolución humana, aunque se avance a


tientas, es hacia la convergencia.
La aparición de la especie humana que se expandió por el planeta creó lo que el
paleontólogo, jesuita y visionario Pierre Teilhard de Chardin denominó una noosfera (lo
que podría definirse, sugiero, como una capa noética), que a su vez había evolucionado a
partir de la litosfera de la Tierra (definida mejor como una geosfera). Teilhard predijo de un
modo abstracto que esta capa de pensamiento cada vez más complejo se intensificaría y
convergería hacia una nueva fase del proceso evolutivo cósmico. El humanista seglar Julian
Huxley compartió esta visión, pero no se sumó a la identificación que Teilhard había hecho
de esta fase como la cristianización del cosmos, que Teilhard dedujo a partir de sus
profundas creencias religiosas más que siguiendo un argumento metafísico.[24]
Ni Teilhard ni Huxley vivieron para ver estos últimos 65 años, en los que su visión
ha empezado a hacerse realidad. Alrededor de la Tierra no solo se ha formado una capa de
pensamiento sino que además, siguiendo el ritmo velozmente acelerado de los
descubrimientos científicos y las innovaciones tecnológicas desde mediados del siglo xx, el
incremento en la cooperación entre los humanos junto con el aumento de complejidad de
las sociedades humanas y la globalización de la actividad humana, están generando una
tendencia hacia la convergencia que se opone a la divergencia característica de la
competencia.
A nivel biológico, los signos de esta convergencia se hacen aparentes en la
distinción decreciente entre subespecies. El término «raza» rara vez se utiliza hoy en día en
el contexto científico porque es imposible definirlo fuera de los grupos humanos más
aislados que poseen características físicas o genomas únicos. La tendencia hacia la
convergencia se hace más patente en las redes de intercomunicación, interactuación y
cooperación que están formando los humanos a nivel familiar, local, nacional, internacional
y global. El resultado es una consciencia humana compartida que se refleja en cosas como
la supervivencia de toda la especie humana, de nuestro hábitat planetario, de las demás
especies del planeta y en la futura evolución de sí misma como una especie y su relación
con el resto del cosmos del que forma parte. Esto no implica un avance hacia la
uniformidad, sino más bien una variedad dentro de la unidad. Del mismo modo que la
consciencia introspectiva de un individuo se correlaciona con la interacción y la
colaboración de innumerables redes de células nerviosas, la consciencia introspectiva de la
especie se correlaciona con la interacción y la cooperación de innumerables redes de
consciencias humanas distintas.
Esta tendencia convergente y acelerada es extremadamente reciente en la historia
humana. La figura 31.1, en la que las 24 horas representan la duración de la existencia
humana, sitúa su inicio 3 minutos antes de la medianoche.
Hominización

Este proceso evolutivo de hominización, o lo que Julian Huxley denominó


evolución psicológica progresiva, se está acelerando pero está todavía muy lejos de su
compleción; los miembros de la especie podrían describirse más como futuribles humanos
que como seres humanos. Por analogía con el desarrollo del humano a nivel individual, la
especie humana nació después de una gestación muy larga, experimentó una infancia
desconcertante y a menudo amedrentadora, una adolescencia inquietante y ahora se
encuentra avanzando a tientas hacia la edad adulta.
La dualidad cambiante de la naturaleza humana

La dualidad de la especie humana ha quedado patente desde la emergencia de los


humanos y se ha manifestado en aspectos como la cooperación frente a la competencia, el
altruismo frente al egoísmo, y la compasión frente a la agresión. Esta dualidad se ha visto
como un conflicto entre el bien y el mal, se ha mitificado en historias que van desde el
relato de Caín y Abel en la Biblia hebrea hasta la tentación de Buda por parte de Mara antes
de su iluminación y la tentación de Jesús por parte del diablo en el desierto, pasando por la
historia que escribió en el siglo xix Robert Louis Stevenson sobre Jekyll y Hyde que
reconoce explícitamente el conflicto dentro de cada individuo.
Pero no es un conflicto estático. La consciencia reflexiva ha evolucionado a un
ritmo cada vez mayor desde su emergencia y está cambiando el equilibrio de esta dualidad.
Mientras que el instinto de competencia agresiva sigue siendo una fuerza poderosa pero
gradualmente decreciente en su influencia sobre la evolución humana, el concepto de que la
cooperación pacífica es el único camino que tiene la especie humana para sobrevivir y
proseguir su evolución empieza a ser predominante.
La integración de los patrones en las evidencias

La integración de estos patrones dinámicos en las evidencias de la evolución de loso


humanos podernos se representan de forma esquemática en la figura 31.2 (la figura no está
a escala).

La evolución de la consciencia reflexiva se inició muy lentamente y su avance fue


torpe, en el sentido de que, contratacada por el instinto dominante heredado de nuestros
antepasados pre-humanos, sus consecuencias, como la cooperación, avanzaron dando dos
pasos hacia delante y un paso hacia atrás: la cooperación se vio a menudo trastocada por la
agresividad y transformada en colaboración forzada, que es una cosa completamente
distinta. La consciencia reflexiva empezó a tener un impacto importante en el
comportamiento de las sociedades humanas hace tan solo 3.000 años, con la fase del
pensamiento filosófico. A partir de ahí, la aceleración siguió aumentando en la fase
científica. En este momento, sus principales consecuencias —la cooperación, el altruismo,
el aumento de complejidad y la convergencia— no han superado aún las del instinto, pero
la continuación de esta aceleración incrementada implica que acabarán haciéndolo en un
futuro no muy lejano.
[1]http://www.pepysdiary.com/diary/1660/10/, consultado el 31 de marzo de 2012.
[2]http://www.deathpenaltyinfo.org/states-and-without-death-penalty, consultado el
13 de mayo de 2014.
[3]The Better Angels of Our Nature, publicado en español bajo el título Los ángeles
que llevamos dentro: el declive de la violencia y sus implicaciones, Editorial Paidos,
Barcelona, 2012.
[4]Pinker (2012), pp. 62–63.
[5]http://www.pugwash.org/about/manifesto.htm, consultado el 1 de abril de 2013.
[6]http://coursesa.matrix.msu.edu/~hst306/documents/indust.html, consultado el 1
de abril de 2013.
[7]http://www.nobelprize.org/nobel_prizes/peace/laureates/2012/, consultado el 31
de marzo de 2012.
[8]Véase, por ejemplo, http://www.iranhrdc.org/english/publications/reports/3401-
survivingrape-in-iran-s-prisons.html#.UVn_jHD5hhK, consultado el 1 de abril de 2013.
[9] Véase página 429.
[10]Kropotkin (1972), p. 114.
[11]Cannadine (2013).
[12] Véase el glosario.
[13] Véase, por ejemplo, página 695.
[14] Véanse, por ejemplo, las conclusiones 4 y 5, página 749.
[15]Kropotkin (1972), pp. 113–140.
[16]Para un relato sobre los orígenes y el desarrollo del movimiento cooperative,
véase Hands (1975), pp. 13–28.
[17]http://ica.coop/en, consultado el 23 de marzo de 2013.
[18]http://ica.coop/en/whats-co-op/co-operative-facts-figures, consultado el 25 de
marzo de 2013.
[19] Véase página 714.
[20]http://www.itu.int/ITU-D/ict/facts/2011/material/ICTFactsFigures2011.pdf,
consultado el 5 de abril de 2013.
[21]http://www.ericsson.com/news/1775026, consultado el 7 de abril de 2014.
[22]Véase, por ejemplo, http://www.hrw.org/news/2013/04/25/bangladesh-tragedy-
showsurgency-worker-protections, consultado el 25 de abril de 2013.
[23] Véase página 41.
[24]Teilhard de Chardin (1965); Huxley (1965).
CUARTA PARTE.
Un proceso cósmico
CAPÍTULO 32. LAS LIMITACIONES DE LA CIENCIA

El método científico es el único medio para descubrir la naturaleza de la realidad.

Peter Atkins, 2011

Pese a que supuestamente vivimos en la gran época de la investigación científica,


la nuestra se ha convertido en una época de superstición sobre la infalibilidad de la
ciencia.

Louis Kronenberg, 1954

A lo largo de nuestro viaje ha quedado claro que la ciencia tiene límites en cuanto a
lo que puede explicarnos sobre quién somos y cómo hemos evolucionado desde el origen
del universo. Revisaré dos categorías de limitaciones: (1) dentro del ámbito de la ciencia y
(2) fuera del ámbito de la ciencia. Mencionaré brevemente algunos asuntos que quedan
fuera del ámbito de la ciencia y que debemos conocer para responder a las preguntas de qué
somos, de dónde venimos, cómo hemos evolucionado, y concluiré sugiriendo cualquier
posible limitación.
Limitaciones dentro del ámbito de la ciencia

En el capítulo 29 he repetido la definición de ciencia tal y como la entendemos


actualmente y le he incorporado el método científico generalmente aceptado del que es
inseparable, haciendo además hincapié en que los científicos no siempre siguen todos los
pasos de este método, sobre todo en el caso de los avances fundamentales más destacados.
Dentro de este ámbito, existen limitaciones en cuanto a lo que la ciencia puede explicarnos
en la actualidad y que los avances científicos podrán superar; sin embargo, hay limitaciones
que son insuperables. Resulta útil considerarlas ambas dentro de los diversos aspectos
interrelacionados de la ciencia.
Observación y medición

La ciencia utiliza observaciones y experimentos sistemáticos y preferiblemente


mensurables, pero si dos teorías científicas de base son válidas, nos encontramos con
limitaciones en cuanto a lo que puede ser sometido a observación y medición.
Si la teoría cuántica es válida, el Principio de incertidumbre de Heisenberg nos dice
que cuánto más seguros estemos de la medición de la posición de un objeto menos seguros
estaremos de la medición simultanea de su velocidad. Esto aplica también a la medición de
la energía de un objeto en un momento concreto. Para los objetos visibles, el producto de
estas dos incertidumbres es tan pequeño que puede ignorarse. Sin embargo, en el caso de
objetos con la masa de un átomo o incluso inferior, como podría ser un electrón, la
incertidumbre resulta significativa.
Además, no podemos medir un intervalo de tiempo inferior a 10-43 segundos ni
decir nada con sentido sobre un suceso que se produzca en ese intervalo de tiempo. A pesar
de que no es una limitación práctica para la mayoría de fenómenos, muchos de los varios
modelos de inflación de los cosmólogos especulan que, en el inicio del universo, se
produjeron sucesos muy importantes en un intervalo de tiempo de este tipo.
Si la teoría especial de la relatividad es válida, nada puede viajar más rápido que la
luz y, por lo tanto, no podemos observar nada que esté más alejado de nosotros que la
distancia recorrida a la velocidad de la luz desde los inicios del universo; es lo que se
conoce como el horizonte de partículas. Además, si el modelo ortodoxo actual de la
cosmología, el del Big Bang caliente, es válido, no podemos observar nada anterior a
380.000 años después del Big Bang, puesto que la radiación electromagnética no se habría
separado de la materia; es lo que se conoce como horizonte visual.[1]
Datos

Los datos científicos —la información obtenida mediante la observación o la


experimentación sistemáticas— están limitados en cuatro sentidos. En primer lugar, hay
datos que no se han obtenido aún pero que están siendo buscados activamente, como qué es
la materia oscura que hipotéticamente reconciliaría la teoría gravitatoria con las
observaciones,[2] aunque algunos teóricos defienden que los cambios en la teoría
gravitatoria eliminan la necesidad de que exista la materia oscura.[3]
En segundo lugar, en el futuro se descubrirán datos inesperados que producirán
cambios en las teorías. El descubrimiento de la radioactividad dio como resultado la teoría
de la interacción nuclear débil como una de las cuatro fuerzas fundamentales del universo.
[4]
Las dos siguientes son limitaciones insuperables. Los datos existentes pueden ser
poco fidedignos de por sí. Por ejemplo, los primeros registros escritos rara vez se
concibieron como un relato factual pero sirvieron a las necesidades propagandísticas de un
gobernante o de una religión, como sucede con la historia bíblica de la caída de Jericó,
mientras que los relatos del pensamiento filosófico griego más antiguo provienen de fuentes
secundarias y terciarias escritas varios centenares de años más tarde.
Por último, puede haber datos perdidos para siempre. En el capítulo 14 vimos que al
ser la fosilización un fenómeno tan excepcional, y debido al hecho de que prácticamente
todas las rocas sedimentarias fueron subducidas o experimentaron metamorfosis durante los
primeros miles de millones de años de la Tierra, es casi seguro que jamás lograremos
obtener evidencias de las primeras formas de vida de la Tierra.[5] La escasez de ejemplares
fósiles hace imposible, entre otras cosas, determinar el linaje concreto que va desde los
primates hasta los humanos modernos.[6]
Subjetividad

Se dice a menudo que el método científico es la única manera de obtener una


explicación objetiva de los fenómenos, pero tal y como observó el inmunólogo y Premio
Nobel, Peter Medawar, «La observación inocente y no tendenciosa es un mito».
La subjetividad puede limitar el poder explicativo de la ciencia en tres aspectos
relacionados entre sí: la adopción (a menudo inconsciente) de supuestos de base, la
selección de datos y la interpretación de los datos.
Adopción de supuestos
En la base de toda explicación científica existe una elección explícita o implícita de
supuestos. Vimos, por ejemplo, en el capítulo 3 que para resolver las ecuaciones de campo
de la relatividad general aplicadas al universo, Einstein y otros se basaron en dos supuestos
explícitos: el universo es isotrópico (es el mismo independientemente de la dirección hacia
la que miremos) y es omnicéntrico (esto sigue siendo cierto si observamos el universo
desde cualquier otra parte). El primer supuesto no es totalmente válido: las estrellas de
nuestra galaxia, por ejemplo, forman una banda visible de luz en el firmamento, lo que se
conoce como la Vía Láctea. Lo segundo nunca podrá ser verificado.
Con estos dos supuestos simplificadores, que dan necesariamente como resultado un
universo homogéneo (es el mismo en todos los puntos), las ecuaciones de la relatividad
general produjeron tres soluciones: un universo cerrado cuya expansión se ralentizará, se
detendrá y se iniciará en el sentido inverso, terminando con un Big Crunch; un universo
abierto cuya expansión continuará indefinidamente a un ritmo regular produciendo un
universo vacío; y un universo plano cuyo ritmo de expansión se ralentiza pero no se detiene
nunca. Los cosmólogos adoptaron la solución del universo plano como supuesto de base
para lo que acabó convirtiéndose en el modelo ortodoxo, el Big Bang, y sus posteriores
modificaciones. En los capítulos 3 y 4 se demostró que este modelo es inconsistente con las
observaciones. Sin embargo, los supuestos de base del modelo apenas se mencionan, y
mucho menos se cuestionan, mientras que las soluciones del universo abierto o del universo
cerrado rara vez se examinan para ver si encajan mejor con los datos observados.
La Segunda Parte expone los muchos supuestos de los que han partido los biólogos
para intentar explicar la emergencia y la evolución de la vida. Por ejemplo, la explicación
ortodoxa de la evolución de las formas de vida se basa en el supuesto de que los genes,
ADN que codifica para la producción de proteínas, son los responsables de la apariencia y
la conducta características de un organismo. El supuesto era razonable a mediados del siglo
xx, pero se acabó solidificando en una doctrina y sus defensores resistieron o ignoraron los
ataques de aquellos que defendían que se trataba de un burdo exceso de simplificación.
Durante más de 50 años, los defensores del neodarwinismo se basaron en el supuesto de
que el 98 por ciento del genoma humano que no estaba integrado por genes era simple
ADN basura carente de toda función. Los experimentos llevados a cabo en los últimos años
como resultado del mapa del genoma humano han demostrado que la realidad no es ni
mucho menos esa y han reivindicado los argumentos de aquellos que desafiaron aquel
supuesto de base.[7]
Otro ejemplo ofrecido en el capítulo 20 es la lista de supuestos sobre los que se
asienta la técnica del reloj molecular que se utiliza para determinar cuándo las especies se
separaron, y los importantes retos a los que se enfrentan esos supuestos.[8]
Por lo que a la evolución del pensamiento, los sentimientos y la conducta humana,
el supuesto de base de la psicología evolutiva es que estas características son el resultado de
la acumulación neodarwinista de modificaciones genéticas seleccionadas naturalmente a lo
largo de miles de generaciones para dar a los humanos una ventaja competitiva para
sobrevivir durante la Edad de Piedra. En el capítulo 29 he planteado la irracionalidad y el
conflicto con las evidencias que presenta este supuesto.[9]
Los supuestos que fueron razonables en el momento en que fueron asumidos
deberían reconocerse explícitamente como supuestos a revisar, modificar o abandonar en
cuanto aparecen evidencias que entran en conflicto con ellos, y no solidificarse hasta
convertirse en un dogma que limita el avance del poder explicativo de la ciencia.
Selección de datos
La decisión de qué fenómeno observar o medir sistemáticamente o de qué fenómeno
experimentar, y qué datos recopilar entre todos los obtenidos a partir de estas observaciones
o experimentos, siempre tiene un matiz interesado. La selección está fuertemente
influenciada por la elección consciente o inconsciente de los supuestos de base y con
frecuencia también por los resultados que se espera obtener. En el ejemplo del reloj
molecular que se acaba de citar, los investigadores seleccionan qué datos utilizar para
calibrar el reloj y seleccionan que secuencias de nucleótidos comparar en las distintas
especies. Distintas selecciones pueden llevar a conclusiones muy distintas. Por ejemplo, las
estimaciones en cuanto a la división entre el género de chimpancés Pan y el género humano
Homo oscilan entre hace 2,7 y hace 13 millones de años.[10]
La selección de datos suele estar relacionada con la interpretación de dichos datos.
Interpretación de datos
Un dato por sí mismo, como podría ser la lectura de la temperatura que marca un
termómetro, carece de sentido. La ciencia se ocupa de la interpretación de los datos. La
interpretación objetiva de los datos por parte de los científicos es un ideal que nunca llega a
alcanzarse. Los filósofos Thomas Khun y Paul Feyerabend mantenían que la interpretación
está determinada en gran parte por la teoría previa. Y así es, efectivamente. En la primera
parte se presentan muchos ejemplos de datos astronómicos interpretados de manera distinta
por los defensores de la teoría ortodoxa y de otras teorías. Entre ellos están los grandes
desplazamientos al rojo asociados a los cuásares,[11] la radiación de supernovas Tipo 1a
muy remotas,[12] las ondulaciones en el fondo cósmico de microondas,[13] y el mapa de la
sonda de anisotropía de microondas Wilkinson.[14]
Además, hay más factores implicados. Los científicos no son autómatas. No se
diferencian del resto de la gente y tienen motivaciones, egos, ambiciones e inseguridades
como todos nosotros. La investigación de las distintas interpretaciones me lleva a sugerir,
no sin cierta malicia, la Ley de la interpretación de datos.
Ley de interpretación de los datos: el grado en el cual un científico se distancia de
una interpretación objetiva de los datos de su investigación es función de cuatro factores: su
determinación por validar una hipótesis o confirmar una teoría; el tiempo que la
investigación ha ocupado en su vida; su grado de inversión emocional en el proyecto; y su
necesidad profesional de publicar un documento importante o salvaguardar su reputación.
Cuando se practica la mejor ciencia, este grado es pequeño. Pero cuando el grado es
grande, se convierte en ciencia defectuosa, un asunto que consideraré más adelante.
La segunda parte descubría también muchos problemas a la hora de interpretar los
datos para explicar la evolución de la vida. Incluso en aquellos casos excepcionales en que
se descubre un fósil completo, su interpretación puede ser errónea. Por ejemplo, un fósil
descubierto en el esquisto de Burgess, Canadá, se consideró de entrada como un ejemplar
perteneciente a una especie desconocida que caminaba sobre una especie de zancos
espinosos y en 1977 se le impuso el nombre de Hallucigenia sparsa. 14 años más tarde,
evidencias descubiertas en China demostraron que el fósil se había estudiado bocabajo: era
miembro de un filo ya existente que caminaba sobre unas patas parecidas a tentáculos y
tenía dos hileras de espinas en el dorso.[15]
La mayoría de fósiles, sin embargo, no son más que pequeños fragmentos y en el
capítulo 17 se documentan las dificultades que plantea su interpretación con el objetivo de
averiguar más detalles sobre la evolución de la vida.
En el capítulo 26 se examinan los problemas de la interpretación de los fósiles y
demás evidencias para explicar cómo, dónde y cuándo emergieron los primeros humanos y
cómo las distintas interpretaciones dan resultados distintos en cuanto a los linajes que
conducen de los homininos a los humanos.
Método
El reduccionismo —el método que consiste en desglosar algo en las distintas partes
que lo componen para comprender en qué consiste y cómo funciona— ha demostrado ser
una herramienta de gran éxito para aumentar nuestros conocimientos sobre los fenómenos
naturales. Puede ofrecer explicaciones completas para sistemas aislables y relativamente
simples, como el de la formación de estructuras de cristal en una solución salina saturada.
Pero el reduccionismo se muestra limitado para explicar sistemas complejos,
abiertos, interactivos y emergentes. En el capítulo 13 hemos visto sus limitaciones en
cuando a definir la vida[16] y sus limitaciones han quedado más patentes si cabe en el
capítulo 26, al hablar sobre la emergencia de los humanos con consciencia reflexiva a partir
de sus antecedentes pre-humanos. La mayoría de teóricos cuánticos lo consideran
inadecuado para explicar los fenómenos naturales.
Los científicos que solo utilizan esta herramienta analítica limitan su capacidad
explicativa al no poder combinarla con un enfoque holístico.
Teoría

Varias teorías planteadas como científicas implican en sus conceptos la infinitud. El


modelo matemático del universo de Friedmann-Lemaitre, en el que se basa la idea del Big
Bang, es infinito en su alcance. Como se ha destacado en el capítulo 6, infinito y un número
muy grande no es en absoluto lo mismo.[17] Si una cantidad o un número infinito se
corresponde con la realidad, o al menos con la realidad percibida por seres finitos como
nosotros, es una cuestión metafísica que la ciencia no puede responder. Mientras estas
teorías no puedan verificarse mediante la observación o la experimentación sistemática,
quedarán fuera del ámbito de la ciencia. Consideraré algunas de las más relevantes en un
momento más avanzado del capítulo.
Como se ha mencionado también en el capítulo 6, las dos teorías sobre las que
actualmente se asienta la física tienen una capacidad explicativa limitada. La teoría de la
relatividad no puede explicar fenómenos de la escala del átomo o inferior, mientras que la
teoría cuántica no puede explicar fenómenos con la masa de una estrella o superior o con
una velocidad cercana a la de la luz.
Se hace razonable suponer que, del mismo modo que la teoría de la relatividad y la
teoría cuántica fueron en su momento avances con respecto a las teorías previas de la
mecánica clásica, un nuevo avance podría producir una teoría más profunda que supere las
limitaciones de la teoría de la relatividad y de la teoría cuántica. Podría superar además los
límites de medición y observación de estas dos teorías.
Otra teoría de alcance limitado es la del principio de entropía creciente, que afirma
que en un sistema cerrado o aislado el desorden se mantiene o, más comúnmente, aumenta
a medida que la energía disponible disminuye.[18] Pese a que la mayoría de sistemas lo
soporta empíricamente, este principio no explica la evolución del universo —que por
definición es un sistema cerrado o, como mínimo aislado—, que muestra un aumento de
complejidad con el paso del tiempo.[19]
En las Conclusiones del capítulo 10 he sugerido que una solución a este problema
sería la identificación de una nueva forma de energía que estuviera implicada en las
transformaciones de energía y en los cambios de complejidad asociados.
La historia de la ciencia ha mostrado casos imprevistos que han cambiado
radicalmente nuestra comprensión de la naturaleza. Antes de mediados del siglo xix, nadie
había previsto que los fenómenos eléctricos y magnéticos quedarían explicados por la
existencia de un campo de energía universal (los físicos teóricos consideran actualmente
que el rango del campo electromagnético es el universo en su totalidad). Antes de 1932, no
se conocía la existencia del campo de energía responsable de unir las partículas del núcleo
atómico (la fuerza nuclear fuerte). Antes de 1956, tampoco se conocía la existencia del
campo de energía responsable de un tipo de desintegración radiactiva (la fuerza nuclear
débil). Pero, con todo y con eso, las interacciones de la fuerza electromagnética, la fuerza
nuclear fuerte y la fuerza nuclear débil, junto con la interacción gravitatoria, constituyen lo
que la ciencia reconoce actualmente como las cuatro interacciones fundamentales de la
naturaleza.[20]
¿Energía psíquica?
Una candidata a nueva forma de energía es la energía psíquica. En términos
generales podría definirse como la energía asociada a la mente que no es reducible a formas
conocidas de energía.
En el siglo xix, los supuestos ejemplos de energía psíquica estaban relacionados con
creencias supersticiosas como el espiritualismo y con emociones como el duelo y eran, en
su mayoría, engañosos y fraudulentos. En consecuencia, los científicos rechazaron la idea y
apenas llevaron a cabo investigaciones sobre el tema.
Las áreas de estudio más recientes en el campo de la energía psíquica en Europa y
Norteamérica incluyen la percepción extrasensorial, la psicoquinesis (la manipulación de
objetos físicos con el poder de la mente), las experiencias extracorpóreas y las experiencias
cercanas a la muerte.
El libro que publicó en 1975 el psicólogo Raymond Moody, Vida después de la
vida,[21] ofreció los primeros relatos detallados de experiencias cercanas a la muerte.
Impulsó la fundación de organizaciones como la International Association for Near-Death
Studies que busca, recopila, clasifica e investiga estos casos. Una encuesta llevada a cabo
por Gallup en 1992 estimó que unos 8 millones de norteamericanos habían experimentado
este tipo de experiencia. Muchos de los fenómenos experimentados, como ver pasar la
propia vida en un instante, una sensación de serenidad, viajar por un túnel de luz y ser
recibido por un familiar fallecido o por una deidad (Jesús en el caso de los cristianos, Shiva
u otro dios en el de los hindúes, etc.) tienen explicaciones fisiológicas perfectamente
plausibles, como la anestesia y otros fármacos administrados al paciente capaces de
provocar alucinaciones y distorsiones de memoria, el exceso de dióxido de carbono, la falta
de oxígeno en las neuronas provocada por el descenso de la presión arterial, el cierre
paulatino de determinadas regiones del cerebro moribundo y una sobrecarga transitoria de
las ondas cerebrales gamma que se produce inmediatamente después de sufrir una parada
cardiaca, como se ha demostrado en ratones.[22]
Pero hay una categoría que aparentemente desafía todas estas explicaciones.
Algunos pacientes que han resucitado después de haber sido declarados clínicamente
muertos informan de haber abandonado su cuerpo y haber presenciado el ejercicio de
resucitación desde una posición superior, como si hubieran estado tocando el techo, y
ofrecen un relato preciso de las actividades y las conversaciones de los médicos.
Sam Parnia, en la actualidad médico de cuidados intensivos y director de la unidad
de investigación de la resucitación de la Stony Brook University School of Medicine,
Nueva York, junto con Peter Fenwick, experto británico en experiencias cercanas a la
muerte y neuropsiquiatra, iniciaron un estudio en 2008 con el fin de investigar si la mente
puede separarse del cuerpo.
El estudio fue posteriormente modificado para examinar un rango más amplio de
experiencias mentales de 2.060 pacientes que habían sufrido paradas cardiacas en 15
hospitales distintos, y los resultados fueron publicados en la edición de diciembre de 2014
de Resuscitation.[23] Pudieron entrevistar a 140 de los 330 supervivientes. El 39 por ciento
describió una percepción de consciencia de la situación pero no recordaba explícitamente lo
sucedido. Según Parnia, esto sugiere que una proporción elevada de individuos podría
haber tenido experiencias cercanas a la muerte intensas pero no las recordaba como
consecuencia de los efectos de las lesiones cerebrales o de los fármacos sedantes sobre los
circuitos de la memoria.
Entre los 101 pacientes que completaron posteriores entrevistas, nueve de ellos (un
9 por ciento) informaron de experiencias compatibles con experiencias cercanas a la
muerte, mientras que dos pacientes recordaban experiencias extracorpóreas en las que
habían «visto» y «oído» sucesos asociados con su proceso de resucitación, aunque resultó
imposible diferenciar el sesgo del recuerdo y los recuerdos fabricados (el relleno
inconsciente de los vacíos de memoria mediante fabulaciones que se consideran reales).
Uno de los entrevistados informó de recuerdos de estímulos auditivos durante un periodo
de tres minutos durante el cual no le latió el corazón.
Los investigadores llegaron a la conclusión de que los resultados justificaban una
investigación más amplia, mientras que los escépticos los consideraron totalmente
negativos.
Si es posible recibir información cuando los pulmones han dejado de respirar, el
corazón ha dejado de bombear sangre hacia el cerebro y el cerebro no muestra actividad
neural, cabría sugerir que la mente no está limitada por los aproximadamente 1.200
centímetros cúbicos que ocupan los 1,5 kilos de materia gelatinosa que forma un cerebro
humano, o que ni siquiera depende del funcionamiento del cerebro para existir. De ser así,
el funcionamiento de la mente exigiría una nueva forma de energía.
No dispongo de más espacio para considerar en profundidad el problema clásico de
la mente y el cuerpo que, en el mundo científico, está polarizado entre la mayoría, que cree
en el fisicalismo o materialismo, y la minoría, que cree o en el idealismo (básicamente los
teóricos cuánticos) o en el dualismo, que sostiene que la mente y el cuerpo no son lo
mismo. Basta con decir que el cerebro por sí solo no puede ser el equivalente a la mente: un
cerebro aislado es una sandez biológica.
Todos los estudios neurocientíficos verificables sistemáticamente y replicables
afirman demostrar que la mente no es nada pero que las interacciones de las neuronas en el
cerebro pueden interpretarse como la mente inmaterial que dirige el cuerpo material a
través del cerebro. Por lo tanto, utilizando el ejemplo del capítulo 29, si usted decide
disparar a su vecino, la mente ordenará las acciones que llevará a cabo el cuerpo según las
señales electroquímicas generadas por el cerebro. Frente a los tribunales, resultaría menos
que convincente argumentar que no ha tenido más opción porque Francis Crick, Stephen
Hawking y otros materialistas sostienen que el libre albedrio es una ilusión; que todas las
acciones están determinadas por sus genes y por la química cerebral, un punto de vista
conocido como determinismo neurogenético.
Los estudios sobre las lesiones de distintas regiones del cerebro que afectan a
distintas funciones mentales, como la memoria o la vista, se presentan como evidencias que
sustentan el punto de vista materialista de que la mente no es más que el cerebro en acción,
pero el neurocientífico Mario Beauregard repite las ideas de muchos dualistas cuando
asevera que esto «es tan ilógico como escuchar música en una radio, destruir el aparato de
radio y llegar a la conclusión de que la radio era lo que creaba la música».[24]
La percepción extrasensorial es la supuesta capacidad que permite adquirir
información sin la utilización de los cinco sentidos. Incluye la telepatía (cuando la
información proviene de otra persona), la visión remota (cuando la información proviene de
un objeto o un suceso remoto) y la precognición y la retrocognición (cuando la información
proviene del futuro o del pasado).
En principio, no existen motivos para asumir que sea imposible. Antes de mediados
del siglo xix nadie creía posible transmitir información visual a través de un medio material
que no fuera el servicio postal. Pero poco más de cien años después, las películas y el
sonido se enviaban y recibían con grandes distancias de por medio en forma de ondas de
energía electromagnética.
En 1975, en plena Guerra Fría, se puso en marcha un proyecto secreto de 20
millones de dólares sobre visión remota y psicoquinesis que se prolongó durante 20 años.
Subvencionado por las agencias de inteligencia de los Estados Unidos y por la NASA,
estuvo dirigido por dos físicos de láser, Harold Puthoff y Russell Targ, del Stanford
Reseach Institute de California. Trabajaron en él docenas de médiums y videntes no solo en
labores de investigación sino también para realizar visiones remotas y, según uno de los
participantes, interrupción psicoquinética del electromagnetismo del enemigo.
En 2002, el neurocientífico cognitivo Michael Persinger publicó un estudio sobre la
capacidad de visión remota de uno de los médiums participantes en el Stargate, Ingo
Swann, y concluyó no solo con que se habían obtenido resultados positivos, sino que
además estos resultados podían correlacionarse con procesos neuropsicológicos y sucesos
físicos; además, afirmó que la visión remota podía mejorar con la aplicación de campos
magnéticos en el cerebro del sujeto.[25]
En 2012, Targ publicó un libro titulado The Reality of ESP: A Physicist’s Proof of
Psychic Phenomena [La realidad de la percepción extrasensorial: la prueba de un físico de
los fenómenos psíquicos] que documenta sus décadas de investigación científica en este
campo, incluyendo las evidencias ya desclasificadas del proyecto Stargate. Entre sus
ejemplos destaca el de un comisario de policía jubilado con poderes psíquicos, Pat Price,
que dibujó a escala y con gran detalle una fábrica de armamento soviética localizada en
Semipalatinks, una estructura que fue posteriormente confirmada mediante fotografías
tomadas por satélite, y el de los beneficios de 120.000 dólares obtenidos por su grupo por
predecir durante nueve semanas seguidas las oscilaciones de la plata en el mercado de
futuros.
Targ cree que estos fenómenos psíquicos se explican en parte por los conceptos de
la mecánica cuántica de la no localidad y del entrelazamiento cuántico, y que todo está
relacionado con la antigua revelación mística de que el Yo de la consciencia pura es lo
mismo que la realidad suprema de la Consciencia Cósmica.[26] A pesar de que algunos
individuos poseen por naturaleza potentes habilidades psíquicas, Targ considera que la
percepción extrasensorial es una capacidad que puede aprenderse.[27]
En el libro publicado en 1997 que lleva por título The Noetic Universe: The
Scientific Evidence for Psychic Phenomena[28] [El universo noético: las evidencias
científicas de los fenómenos psíquicos], Dean Radin, director científico del Institute of
Noetic Sciences, ofrece otros ejemplos, igual que en el libro que publicó en 2006,
Entangled Minds[29] [Mentes entrelazadas], donde comparte la creencia de Targ de que el
entrelazamiento cuántico podría explicar los fenómenos psíquicos. Radin defiende que la
mayoría de la comunidad científica se niega a aceptar las potentes evidencias de existencia
de la energía psíquica debido al sesgo de confirmación, un término psicológico según el
cual las evidencias que sustentan creencias previas se perciben como plausibles, mientras
que las evidencias que desafían creencias previas se perciben como inverosímiles y, por lo
tanto, se asume que son débiles o falsas.
Es evidente que la mayoría de científicos rechaza la energía psíquica como
fenómeno. Sin embargo, la hipnosis es una comunicación mente-mente intencionada
mediada por la comunicación vocal entre el emisor y el receptor. Induce en el receptor una
relajación física profunda y un estado de consciencia alterado que se correlaciona con
cambios en el funcionamiento de su cerebro. En este estado alterado, la mente del receptor
responde a sugerencias del emisor que producen cambios mentales, como el alivio de la
ansiedad, y cambios físicos, como el alivio del dolor.
Numerosas pruebas científicas han confirmado sus efectos[30] y, desde los años
noventa, la medicina ortodoxa moderna ha adoptado la terapia por hipnosis en países
científicamente desarrollados como un tratamiento efectivo para determinadas afecciones.
[31]
Además, en 2014, el físico teórico Giulio Ruffini y un equipo internacional
multidisciplinario demostraron la transmisión de información directa de un cerebro humano
a otro a través de grandes distancias y sin la utilización de los sentidos.
El equipo desarrolló técnicas recientes con interfaces cerebro-ordenador mediante
los cuales los electrodos conectados a la cabeza registran corrientes eléctricas cuando el
individuo tiene un pensamiento determinado, como querer mover un brazo robótico o
controlar un dron. En este caso, el receptor de las corrientes sería otro humano. Los
pensamientos del emisor se tradujeron en código binario a través de un encefalograma
conectado a internet y fueron recibidos a 8.000 kilómetros de distancia mediante unos
auriculares de estimulación magnética transcraneal colocados en tres personas y que
estimulaban directamente su córtex visual. Los receptores, que tenían los ojos vendados,
informaron de haber percibido destellos de luz en su visión periférica que se correspondían
con el mensaje.
Teniendo en cuenta que la transmisión exigía una actividad mental intencionada
tanto por parte del emisor como del receptor, Ruffini considera la experiencia como las
primeras fases de una telepatía con soporte tecnológico y llega a la conclusión de que en un
futuro no muy lejano el uso de la comunicación mente a mente con mediación tecnológica
estará plenamente extendido.[32]
Algunos defensores y practicantes que emplean distintos tipos de energía psíquica,
sin embargo, rechazan el método científico por considerarlo inadecuado y argumentan que
la esencia radica en la experiencia subjetiva, no en los test objetivos.
Hay que tener en cuenta que a pesar de que muchos practicantes de la energía
psíquica del siglo xix estaban involucrados en la superstición y, como consecuencia de ello,
la ciencia refutaba sus reivindicaciones, esto sucedió también con los primeros practicantes
de muchas disciplinas científicas, como por ejemplo la química. Rechazar la posible
existencia de la energía psíquica es tan poco razonable como rechazar la posibilidad de que
una nueva teoría verificable pueda sustituir la teoría cuántica y la teoría de la relatividad
porque los intentos de hacerlo a lo largo de los últimos treinta años hayan fracasado, por
mucho que la inversión de recursos haya sido inmensamente superior a la que se ha
dedicado a la investigación de la energía psíquica.
Además, la mayoría de cosmólogos se conforma con conjeturar la existencia de una
nueva y misteriosa energía oscura que ocupa más de dos tercios del universo cuando otras
interpretaciones de un fenómeno, otras hipótesis y otros modelos cosmológicos no están de
acuerdo con ello.[33]
En el futuro podrían descubrirse y validarse nuevas formas de energía, igual que ha
sucedido en el pasado. Que una candidata a nueva forma de energía sea aquella que está
asociada con el incremento empíricamente constatado de la consciencia reflexiva y con el
incremento de complejidad correlacionado al mismo, es decir, una energía mental o
psíquica, sería una conjetura razonable.
Ciencia defectuosa

El poder explicativo de la ciencia queda limitado cuando las propuestas que afirman
ser científicas contradicen algún dogma básico de la ciencia o sus métodos. La frontera
entre ciencia y ciencia defectuosa puede llegar a ser muy difuso. Antes he sugerido que la
objetividad en la elección de supuestos y en la selección e interpretación de datos es un
ideal inalcanzable. Cuando el grado de subjetividad es pequeño, estamos ante buena
ciencia; cuando es grande, y sobre todo cuando además es deliberado, tenemos ciencia
defectuosa. Esta investigación se ha encontrado con otros tipos adicionales de ciencia
defectuosa.
Utilización inapropiada de modelos
Un modelo por ordenador o matemático puede ser extremadamente útil para
construir o refinar una hipótesis que luego se verifique empíricamente. Fusionar el modelo
con la realidad, sin embargo, es ciencia con defectos.
Además, suponer que la prueba matemática constituye prueba científica cuando no
existe manera conocida de verificar el modelo empíricamente, también es ciencia
defectuosa.[34] Es el caso, por ejemplo, de las diversas «teorías» de cuerdas y de la teoría
M,[35] y de la afirmación que el modelo de la gravedad cuántica de bucles ha establecido
sobre la existencia de un universo colapsado previamente con propiedades específicas.[36]
Introducir en un modelo matemático un parámetro arbitrario o un campo escalar y
alterar su valor para obtener el resultado deseado o validar una teoría también es ciencia
defectuosa. El modelo carece de cualquier función predictiva.
Como se apuntó en el capítulo 3, Einstein introdujo la constante cosmológica
lambda (Λ) en sus ecuaciones de campo de la relatividad general y le asignó un valor
calculado para producir un universo estático. Después de aceptar los datos obtenidos
mediante observación que confirmaban la expansión del universo, tanto él como otros
científicos eliminaron Λ de las ecuaciones. Cuando este modelo básico del Big Bang
empezó a plantear grandes problemas, los teóricos de la inflación reintrodujeron Λ, pero
con un valor muchísimo mayor que el que originalmente le había asignado Einstein y solo
durante un periodo increíblemente breve para así obtener la densidad de masa crítica de un
universo tremendamente expandido que experimenta una expansión desacelerada estable.
Posteriormente, para confirmar su interpretación de la radiación de las supernovas Tipo 1a,
los cosmólogos asignaron otro valor arbitrario muy distinto a Λ y quisieron demostrar con
ello que, contrariamente a lo dicho de que el universo experimentaba una expansión
desacelerada estable, el ritmo de expansión había empezado a acelerarse después de
transcurridos dos tercios de su vida; Λ, en este caso, representaría una energía oscura
desconocida para la que no existe ningún tipo de base empírica.[37] Hoyle y sus colegas
asignaron un cuarto valor a Λ para producir un universo en expansión en un estado
estacionario a través de ciclos de expansión y contracción de 50 mil millones de años.[38]
En los años 70, y para explicar aquellas conductas animales y humanas que
contradecían el modelo neodarwinista, los sociobiólogos adoptaron modelos de juego
simplistas utilizados en la economía que están divorciados de la realidad biológica.
Eligiendo de manera arbitraria las reglas de los juegos, los parámetros y los valores
asignados a dichos parámetros, obtuvieron los resultados deseados.[39] Un juego
económico distinto con un conjunto de elecciones distintas produjo el resultado contrario.
[40]
Afirmaciones que van más allá de las evidencias o las contradicen
La creencia en supuestos más que en una valoración objetiva de las evidencias
produce afirmaciones exageradas. Por ejemplo, la afirmación de que la sonda espacial
Wilkinson Microwave Anisotropy Probe (WMAP) permitió a los científicos distinguir entre
diferentes versiones de lo que sucedió durante la primera billonésima de segundo de la
existencia del universo se basa en un conjunto de supuestos sin ninguna base empírica.[41]
El relato de la paleontología ortodoxa de cinco sucesos de extinción en masa en los
últimos 500 millones de años, con estimaciones de porcentajes de especies extinguidas en
periodos geológicamente súbitos, va mucho más allá de las evidencias fósiles, dejando
aparte la incertidumbre sobre lo que en aquellos tiempos podía considerarse una especie.
[42]
Basándose en el supuesto neodarwinista de cómo se produce la evolución, la
mayoría de biólogos afirma que si dispusiéramos de evidencias fósiles más completas
observaríamos un cambio gradual. Lo cual entra en contradicción con las evidencias
documentadas por los paleontólogos que muestran una estasis morfológica con cambios
menores, y a menudo oscilantes, salpicados por la aparición geológicamente repentina de
nuevas especies que a su vez permanecen sin cambios hasta desaparecer del registro fósil o
seguir hasta la actualidad como lo que se conoce como «fósiles vivos».[43]
A diferencia de los fundadores del neodarwinismo, la mayoría de los neodarwinistas
contemporáneos niega, a pesar de que las evidencias son abrumadoras, que la evolución
biológica muestre un patrón de aumento de complejidad, puesto que de ser así entraría en
conflicto con lo que tienen asumido como causa de la evolución biológica o con una
ideología que cree que todas las especies son iguales.[44]
Selección de datos sesgada
Cuando la selección de datos presenta un sesgo deliberado para poder sustentar una
teoría o hipótesis, se convierte en ciencia fallida.
El capítulo 6 destaca que la argumentación que ofrece un destacado teórico de
cuerdas para explicar por qué el universo adopta la forma que adopta no considera en
ningún momentos los datos que no le son favorables.[45]
En la disputa sobre si las minúsculas trazas de carbono descubiertas en unas rocas
antiguas eran los fósiles con indicios de vida más antiguos de la Tierra o depósitos
inorgánicos, uno de los defensores fue acusado por una estudiante que había colaborado en
la investigación de ignorar sus protestas sobre el carácter selectivo de las evidencias.[46]
El panel que revisó los 20 años de investigación de las causas de la extinción en
masa de especies, consideró que se había producido hace 65 millones de años (la extinción
Cretácica-Terciaria) sustentándose en la explicación ortodoxa de que un asteroide gigante
había impactado contra la península mexicana de Yucatán. Pero algunos investigadores
acusaron al panel de haber interpretado erróneamente sus descubrimientos mientras que
otros los acusaron de haber ignorado un amplio cuerpo de evidencias inconsistente con su
conclusión.[47]
Metodología defectuosa
Los experimentos llevados a cabo por Bernard Kettlewell en los años 50 y 60 con el
objetivo de demostrar la selección natural a través del oscurecimiento industrial de la
polilla moteada contenían numerosos defectos que socavaron la conclusión a la que quería
llegar. A pesar de que dichos defectos salieron a la luz en 1998, su trabajo sigue
utilizándose como prueba del neodarwinismo.[48]
Un artículo emblemático publicado en 1987 utilizó el ADN mitocondrial para
realizar el seguimiento del linaje de una mujer que vivió hace 200.000 años en África, la
conocida «Eva mitocondrial». La metodología utilizada fue puesta en duda posteriormente
en diversos aspectos, destacando entre ellos la selección de muestras y el programa
informático utilizado. Pero sus conclusiones siguen citándose todavía.[49]
Perpetuación de una teoría defectuosa
La perpetuación de una teoría que ha quedado contradicha por las evidencias
empíricas es algo que entra en conflicto con uno de los dogmas básicos de la metodología
científica. Normalmente, esta perpetuación surge de la elección de supuestos y queda
reforzada por la posterior selección e interpretación de datos que se apartan de forma
significativa de la objetividad para poder justificar la teoría. En el capítulo 12 hemos visto
que la teoría geológica ortodoxa que explica las arrugas características de la superficie de la
Tierra se mantuvo vigente durante más de cincuenta años a pesar de que las evidencias que
sustentaban la teoría de la deriva continental (que posteriormente se desarrolló para dar
lugar a la teoría de las placas tectónicas) se acumulaban.[50]
Durante los últimos treinta años, la explicación ortodoxa de la emergencia en la
Tierra de las primeras formas de vida independientes ha sido que la energía del sol, y
posiblemente también de otras fuentes, provocó reacciones aleatorias en la sopa acuosa de
moléculas compuestas por un máximo de 13 átomos que con el tiempo dieron como
resultado la selección ultradarwinista de moléculas auto-replicantes de ARN. Sin embargo,
los intentos experimentales de sustentar esta idea no solo han fracasado, predeciblemente
por razones químicas según varios científicos, sino que además la probabilidad estadística
de que reacciones aleatorias produzcan moléculas de ese tamaño y complejidad es cercana
a cero.[51]
La teoría ortodoxa de la evolución biológica desde mediados del siglo xx asume la
validez de la selección natural darwinista gradual, que incorpora en un modelo matemático
de genética de poblaciones. Sin embargo, los capítulos 17 al 23 incluyen una cantidad
considerable de evidencias empíricas, obtenidas tanto a partir del registro fósil como a
partir de estudios de un rango mucho más amplio de especies en estado salvaje que las
moscas de la fruta y los gusanos nematodos de laboratorio, que entran en conflicto con este
modelo neodarwinista. Y pese a ello, uno de sus principales proponentes afirmó en 2006
que el neodarwinismo ya no era tan solo una teoría, sino que además era un hecho
establecido.[52] De hecho, hoy en día, la inmensa mayoría de biólogos equipara el
fenómeno de la evolución biológica (que tiene una base de evidencias atractiva) con el
modelo matemático neodarwinista, y tiende a tratar cualquier duda sobre el neodarwinismo
como un ataque a la realidad de la evolución biológica.[53]
Estos y otros ejemplos ilustran que la teoría acaba a menudo solidificándose y
transformándose en dogma, que es la antítesis de la ciencia y limita sus avances. La
mentalidad de pensamiento grupal que genera queda ejemplificada por los 155 biólogos que
firmaron artículos publicados por Nature afirmando que el fundador de la sociobiología no
comprendía ni sus propias teorías después de que este tuviera la transparencia y la valentía
de publicar un artículo reconociendo que, después de 40 años, sus teorías no habían
aportado apenas avances en la explicación de la conducta animal y humana.[54]
Supresión de teorías alternativas
El progreso científico está limitado además cuando los proponentes de una teoría
que se ha convertido en dogma obstaculizan e incluso suprimen los intentos de otros de
desarrollar o publicar teorías alternativas.
El mismo año que Nature publicó las evidencias acumuladas a lo largo de 50 años
que demostraban que la teoría de la deriva continental explicaba fenómenos geológicos
mucho mejor que la teoría ortodoxa vigente, el Journal of Geophysical Reseach rechazaba
un artículo similar escrito por otro investigador argumentando que «no es el tipo de cosa
que debería publicarse bajo un patrocinio científico serio».[55]
En el capítulo 5 se comenta que el dominio por parte de los teóricos de cuerdas de
los comités que deciden en los Estados Unidos los nombramientos y las becas académicas
en el campo de la física teórica ha dificultado que, aun a pesar de la falta de éxitos que las
conjeturas de cuerdas han demostrado a lo largo de 30 años, cualquier enfoque alternativo
obtenga financiación, mientras que, por otro lado, algunos teóricos de cuerdas llevan a cabo
prácticas más que dudosas para reprimir cualquier tipo de opinión disconforme.[56]
En el capítulo 3 hemos visto que la adhesión continuada de Fred Hoyle a la teoría
del estado estacionario lo llevó a ser condenado al ostracismo por sus colegas académicos y
lo obligó a dimitir de su puesto como profesor en Cambridge en un acto sin apenas
precedentes.[57] Varios astrónomos distinguidos han protestado diciendo que las revistas
académicas se niegan a publicar aquellas interpretaciones de los datos astronómicos que
contradicen la interpretación ortodoxa que además, afirman, es fruto de matemáticos
teóricos y no de astrónomos consagrados a la observación. Alegan, por otro lado, que ha
habido muchos intentos fructíferos de impedir que reciban invitaciones a determinadas
conferencias[58] y que se les niega tiempo de utilización de telescopios para poder verificar
sus hipótesis.[59]
El capítulo 23 muestra que los que ofrecen alternativas al actual modelo ortodoxo
de evolución biológica tampoco salen muy bien parados. Un ejemplo sorprendente es lo
sucedido con la teoría de la simbiogénesis de Lynn Margulis, que tanto le costó publicar.
Incluso después de que los neodarwinistas reconocieran que su explicación de la evolución
de la mitocondria y los cloroplastos en células eucariotas estaba sustentada por evidencias
genéticas y era correcta, las revistas principales del ámbito de la ciencia y la biología
siguieron negándose a publicar su trabajo. Un destacado neodarwinista la tildó en 2011 en
su página web de loca por haberse atrevido a plantear aquella alternativa al modelo
neodarwinista.[60]
El anquilosamiento en forma de dogma de la mejor teoría disponible en el momento
da como resultado la respuesta defensiva a cualquier postura contraria que caracteriza a las
creencias más institucionalizadas e, inevitablemente, la ciencia ha acabado
institucionalizándose a través de sus sociedades especializadas y de los departamentos
universitarios que forman a los futuros científicos. Prácticamente todas las instituciones
humanas —partidos políticos, gobiernos o religiones— responden de forma similar cuando
se ven cuestionadas desde dentro o desde fuera, de modo que la resistencia al cambio de los
defensores y enseñantes de la ortodoxia actual no es en absoluto en fenómeno extraño. Pero
corresponde a los miembros de las instituciones científicas recordar que lo que distingue a
la ciencia de los partidos políticos, los gobiernos y las religiones es su compromiso con la
verificación empírica llevada a cabo del modo más objetivo posible, así como la
modificación o el rechazo de una teoría cuando aparezcan nuevos datos que entren en
conflicto con ella.
Fraude
En la inmensa mayoría de los casos, el alejamiento de los científicos de la
objetividad a la hora de elegir supuestos, seleccionar e interpretar los datos, perpetuar
teorías defectuosas e incluso suprimir teorías alternativas, está motivado por razones
honestas, aunque con frecuencia erróneas. Pero a lo largo de este viaje me he encontrado
también con casos de fraude. El falso fósil del Hombre de Piltdown pasó desapercibido
durante 40 años, mientras que Reiner Protsh falsificó sistemáticamente la datación de sus
fósiles a lo largo de un periodo de 30 años.[61] En 2010, la Universidad de Harvard declaró
a Marc Hauser culpable de falsificar datos en experimentos sobre la conducta de animales.
[62]
Esto, sin embargo, no son simples ejemplos aislados de «manzanas podridas», tal y
como dan a entender los medios de comunicación. En 2009, Daniele Fanelli, del Institute
for the Study of Science, Tecnnology & Innovation de la Universidad de Edimburgo, llevó
a cabo la primera revisión y meta-análisis sistemático de datos sobre la mala praxis
científica. Descubrió que casi el 2 por ciento de los científicos reconocía haber inventado,
falsificado o modificado datos o resultados al menos en una ocasión —una forma grave de
mala praxis— y que hasta un tercio de ellos reconocía otras prácticas de investigación
cuestionables. Cuando preguntó a los científicos acerca de sus colegas, el 14 por ciento
declaró que creía que los demás científicos falsificaban datos y hasta un 72 por ciento dijo
sospechar que los demás utilizaban métodos de investigación cuestionables. Fanelli
concluye su estudio diciendo: «Considerando que estas encuestas formulan preguntas
capaces de herir la susceptibilidad y presentan otras limitaciones, parece probable que
estemos ante una estimación conservadora de la verdadera prevalencia de mala praxis
cientifica».[63]
No es en absoluto mi intención desprestigiar la ciencia, que ha revolucionado y
expandido sobremanera nuestros conocimientos sobre los fenómenos naturales, pero sí creo
que debemos reconocer las limitaciones que existen en el ámbito de la ciencia en cuanto a
nuestra comprensión actual de cómo emergimos y evolucionamos desde el origen del
universo.
Limitaciones fuera del ámbito de la ciencia

Muchos científicos y muchos de los que suscriben el empirismo, el positivismo, el


naturalismo, el fisicalismo, el materialismo o el materialismo eliminativo, creen que el
ámbito de la ciencia no tiene límites.
El argumento que sustenta esta creencia es el siguiente:
1. No existe nada excepto las cosas físicas y sus interacciones.
2. La ciencia es el estudio empírico de las cosas físicas y sus interacciones.
3. Por lo tanto, el ámbito de la ciencia no tiene límites.
A modo de corolario:
4. Si la ciencia no puede explicar algún fenómeno ahora, lo más probable es que lo
haga en un futuro, cuando dispongamos de nuevos o mejores datos.
La validez de la conclusión depende de la validez de sus dos premisas. La primera
es evidentemente inválida porque la premisa en sí no es ni una cosa física ni una interacción
de cosas físicas. Dicho de otro modo, la creencia de que el ámbito de la ciencia no tiene
límites no puede verificarse mediante observación sistemática ni con un experimento
repetible, lo que hace que la creencia sea falsa.
La ciencia ha limitado su ámbito a lo empírico para diferenciar su método de
indagación del de la religión, que busca respuestas que cree que tendrían que haber sido
reveladas por Dios o por un dios, y del de la filosofía, que busca respuestas a través de la
revelación y el razonamiento. Hay cosas fuera de este ámbito limitado de la ciencia que
necesitamos saber para comprender qué somos y de dónde venimos. Y entre estas cosas
destacan las experiencias subjetivas, los conceptos y los valores sociales, las conjeturas no
verificables y las respuestas a determinadas preguntas metafísicas.
Experiencias subjetivas

Como individuos somos algo más que la suma de nuestras células, moléculas,
átomos y sus interacciones. Estamos conformados en gran parte por lo que vemos, oímos,
sentimos, recordamos, pensamos, etc. Estas experiencias subjetivas no pueden observarse
objetivamente ni experimentarse con el método científico. El mejor ejemplo de ello son los
qualia, examinados en el capítulo 29, donde he citado el caso aportado por los
neurocientificos V. S. Ramachandran y Colin Blakemore: un neurocientífico que no puede
distinguir los colores por un problema congénito podría controlar todos los procesos
fisicoquímicos que se producen cuando un individuo ve una rosa roja, pero nunca sería
capaz de experimentar la calidad del rojo percibida por ese individuo.
Los neurocientíficos reduccionistas, sin embargo, afirman ser capaces de llevar a
cabo test objetivos de visión. En 2012, un equipo de la Universidad de California, Berkeley,
utilizó la IRMf (Imagen por Resonancia Magnética Funcional) para controlar la actividad
neural de 30.000 regiones del córtex cerebral de cinco hombres mientras veían dos horas de
imágenes de vídeo que contenían 1.705 categorías de objetos y acción como animales,
edificios y vehículos. Descubrieron que los cinco hombres compartían mapas cerebrales
similares de áreas activas que se solapaban y se correspondían con las distintas categorías.
[64] Pero esto no nos informa de qué animales, edificios y vehículos concretos veían
aquellos hombres cuando esas áreas estaban activas, a menos que (como sucedía en el
experimento) el investigador estuviera también viendo la misma imagen o el individuo en
cuestión se lo comunicara al investigador.
Para poner otro ejemplo, por mucho que en el futuro un neurocientífico fuera capaz
de controlar la actividad de todas y cada una de las neuronas del cerebro de un individuo
mientras este individuo está soñando, el neurocientífico no podría predecir ni saber qué
sueño en concreto estaría teniendo el individuo ni compartir la experiencia del individuo en
ese sueño.
De un modo similar, escuchar una interpretación de la sinfonía Júpiter de Mozart no
puede reducirse a recibir unas ondas de sonido que vibran en los tímpanos y son
transmitidas por vías fisicoquímicas hasta que activan las neuronas del cerebro. La
experiencia de escuchar implica muchas más cosas, como la sensación de placer, la
comparación con la interpretación por parte de otras orquestas, la anticipación de los
compases siguientes, los recuerdos de la última vez que se ha escuchado la pieza, etc. Son
experiencias que ni son mensurables, ni pueden observarse sistemáticamente, ni pueden
replicarse. Todas estas respuestas se combinan para proporcionarnos una experiencia
subjetiva y holística que es única para cada individuo.
He llegado a la conclusión de que la característica exclusiva y diferenciadora de la
especie humana es el pensamiento reflexivo. En 2010, un grupo de neurocientíficos del
University College de Londres correlacionaron la capacidad de introspección con la
estructura de una pequeña región del córtex prefrontal del cerebro. Pero no averiguaron la
relación casual: ¿se desarrolló esta área a medida que mejoramos en la reflexión sobre
nuestros pensamientos, o acaso los humanos somos mejores en introspección precisamente
porque el córtex prefrontal está más desarrollado?[65] Y lo que es más fundamental, el test
objetivo no mostró cuáles eran esos pensamientos introspectivos.
A pesar de que la neurociencia está logrando grandes éxitos en la demostración de
las correlaciones físicas de muchas cosas no físicas, sería un error fundamental confundir
las correlaciones físicas de la experiencia subjetiva con la experiencia en sí.
Algunas experiencias subjetivas —como la inspiración que proporciona un maestro,
enamorarse, ser testigo de un nacimiento o de un fallecimiento y alcanzar un objetivo
importante— pueden jugar un papel fundamental en la determinación de quién somos a
nivel individual.
Conceptos y valores sociales

No somos solo individuos; somos además miembros de muchas sociedades. Del


mismo modo que la consciencia reflexiva proporciona al individuo humano la capacidad de
pensar y razonar, permite también a una sociedad humana desarrollar conceptos y valores
sociales. Para dar solo un ejemplo, una sociedad humana podría desarrollar el concepto de
una guerra justa. Los científicos políticos y sociales podrían estudiar sistemáticamente la
encarnación del concepto (por ejemplo, la declaración de guerra de Gran Bretaña contra
Alemania en 1945), pero el concepto en sí, y los valores éticos que lleva asociados,
permanecen en el ámbito de la filosofía, no de la ciencia.
Ideas no verificables

Como vimos en los capítulos 4-7, ni la explicación ortodoxa del universo de la


ciencia actual, el Big Bang caliente inflacionario, ni ninguna conjetura alternativa,
proporcionan una explicación verificable empíricamente del origen del universo y, en
consecuencia, del origen de la materia y la energía de las que estamos hechos. Es
prácticamente seguro que son explicaciones que quedan fuera del alcance de la ciencia.
Algunas explicaciones que se presentan como científicas de cómo evolucionamos
del modo en que hemos evolucionado implican la existencia de otros universos con los que
no tenemos contacto, como sucede con las diversas explicaciones basadas en multiversos
que se examinan en el capítulo 7.[66] Si no tenemos contacto con otros universos, es
imposible verificar nada mediante la observación sistemática o el experimento replicable.
Estas conjeturas podrían ser plausibles y, por lo que sabemos, una de ellas podría ser cierta.
Sin embargo, quedan fuera del ámbito de la ciencia tal y como la entendemos en la
actualidad.
Preguntas metafísicas

Las ciencias naturales explican y predicen muchos fenómenos naturales aplicando


leyes físicas y químicas que determinan las interacciones de cosas físicas. Pero la ciencia
no puede explicar la esencia de estas leyes. Según señala el cosmólogo y matemático
George Ellis, «la fuerza de la gravedad», por hablar de alguna interacción, nos ayuda a
predecir qué pasará, pero no nos dice cómo la materia es capaz de ejercer una fuerza de
atracción sobre otra materia muy alejada de ella; etiquetándola de nuevo como «el efecto
del campo gravitatorio» no cambia la situación.[67]
Es importante comprender que la ciencia no puede decirnos por qué estas leyes
existen. Newton creía que estaban creadas por Dios, Einstein que estaban causadas por
algún tipo de poder inteligente trascendental.
Otra posible limitación
Finalmente, existe la posible limitación no de la ciencia en sí, sino de la mente
humana. ¿Existe una realidad que los humanos no serán nunca capaces de comprender, del
mismo modo que las rocas no pueden comprender que el sol proporciona luz y calor y los
chimpancés no pueden comprender la existencia de los agujeros negros?
[1] Véase página 140.
[2] Véase página 88.
[3] Véase página 206.
[4] Véase página 184.
[5] Véase página 341.
[6] Véase página 673.
[7] Véase página 503.
[8] Véase página 524.
[9] Véase página 810.
[10] Véase página 529.
[11] Véase página 144.
[12] Véase página 92 y página 144.
[13] Véase página 150.
[14] Véase página 153.
[15] Véase página 455.
[16] Véase página 330.
[17] Véase página 162.
[18] Véase Glosario para una definición completa.
[19] Véase página 247.
[20] Véase página 184.
[21]Life after Life, publicado en español bajo el título Vida después de la vida,
Editorial Edaf, Madrid, 2013.
[22]Borjigin, Jimo, et al., «Surge of Neurophysiological Coherence and
Connectivity in the Dying Brain», Proceedings of the National Academy of Sciences, 12 de
Agosto de 2013.
[23]Parnia, Sam, et al., «AWARE—AWAreness During REsuscitation—a
Prospective Study», Resuscitation, 85: 12, 2014, pp. 1799–1805.
[24]Beauregard (2012), p. 10.
[25]Persinger, M. A., et al., «Remote Viewing with the Artist Ingo Swann:
Neuropsychological Profile, Electroencephalographic Correlates, Magnetic Resonance
Imaging (MRI), and Possible Mechanisms», Perceptual and Motor Skills, 94: 3, 2012, pp.
927–949.
[26] Véase página 753.
[27]Targ (2012).
[28]Radin (2009).
[29]Radin (2006).
[30]Flammer, Erich y Bongartz, Waltert, «On the Efficacy of Hypnosis: A Meta-
Analytic Study», Contemporary Hypnosis, 20: 4, 2003, pp. 179–197.
[31]Véase, por ejemplo, la declaración emitida en 1995 por el National Institute for
Health «Integration of Behavioral & Relaxation Approaches into the Treatment of Chronic
Pain & Insomnia»,
http://consensus.nih.gov/1995/1995BehaviorRelaxPainInsomniata017PDF.pdf
[32]Grau, Carles, et al., «Conscious Brain-to-Brain Communication in Humans
Using Non-Invasive Technologies», PLoS One 9: 8, 2014, e105225.
[33] Véase página 145.
[34] Véase página 82.
[35] Véase página 130.
[36] Véase página 111.
[37] Véase página 91.
[38] Véase páginas 113 a 118.
[39] Véase páginas 585 a 589.
[40] Véase página 600.
[41] Véase página 153.
[42] Véase página 459.
[43] Véase página 463.
[44] Véase páginas 539 a 558.
[45] Véase página 155.
[46] Véase página 343.
[47] Véase página 470.
[48] Véase páginas 490 a 492.
[49] Véase página 679.
[50]Véase páginas 285 a 287.
[51]Véase página 368.
[52]Véase página 540.
[53]Véase página 641.
[54]Véase página 640.
[55] Véase página 285.
[56] Véase página 135.
[57] Véase página 57.
[58] Véase página 150.
[59] Véase página 117.
[60] Véase página 608.
[61] Véase página 456.
[62]Véase página 593.
[63]Fanelli, Daniele, «How Many Scientists Fabricate and Falsify Research? A
Systematic Review and Meta-Analysis of Survey Data», PLoS One 4: 5, 2009, e5738.
[64]Huth, Alexander G., et al., «A Continuous Semantic Space Describes the
Representation of Thousands of Object and Action Categories across the Human Brain»,
Neuron, 76: 6, 2012, pp. 1210–1224.
[65]http://www.ucl.ac.uk/news/news-articles/1009/10091604, 16 de septiembre de
2010.
[66]Véase página 177.
[67]Ellis (2002), capítulo 8.
CAPÍTULO 33. REFLEXIONES Y CONCLUSIONES SOBRE LA
EVOLUCIÓN HUMANA COMO UN PROCESO CÓSMICO

Todos los aspectos de la realidad están sujetos a evolución, desde los átomos y las
estrellas hasta los peces y las flores, pasando por las sociedades y los valores humanos; de
hecho […] toda la realidad es un único proceso de evolución.

Julian Huxley, 1964

Reflexiones

Inicié este viaje de exploración con mentalidad abierta decidido a averiguar qué
puede contarnos la ciencia sobre lo que somos los humanos y cómo hemos evolucionado,
no solo desde las primeras formas de vida de la Tierra, sino también desde el origen de la
materia y la energía. Cuanto más cosas aprendía, más cuenta fui dándome de lo mucho que
no sabemos. El reconocimiento del alcance de nuestra ignorancia no suele estar presente, y
tal vez es comprensible, en los científicos centrados en el último descubrimiento de su
estrecho campo de especialización. Tampoco está presente, y esto sí que es menos
comprensible, en los científicos cuya adhesión a una teoría concreta se ha solidificado hasta
transformarse en una creencia inquebrantable.
El capítulo 32 considera las limitaciones de nuestro conocimiento dentro del ámbito
de la ciencia y fuera también del ámbito de la ciencia. La ciencia diferencia la explicación
científica de los demás tipos de explicación por sus intentos de comprender y describir los
fenómenos naturales mediante observaciones o experimentos repetibles, sistemáticos y
preferiblemente mensurables e inferir, a partir de estos datos, leyes verificables que puedan
utilizarse para realizar predicciones o retrodicciones.
El relato de la cosmología ortodoxa actual sobre el origen de la materia y la energía
de la que estamos hechos encaja mal dentro del ámbito de la ciencia.
Las evidencias obtenidas a partir de la observación contradicen el modelo básico del
Big Bang. Las dos grandes modificaciones que se hicieron al modelo para solventar estos
conflictos dieron como resultado el modelo del Big Bang caliente inflacionario con
fluctuación cuántica, pero la reivindicación central de estas modificaciones —a saber, que
el universo que podemos observar no es más que una parte increíblemente minúscula de la
totalidad del universo, del cual no podemos obtener información— es imposibles de
verificar. Además, estas modificaciones producen un modelo lógicamente inconsistente
siempre y cuando se mantenga que el Big Bang es el inicio de todo, o un modelo que
contradice este principio básico en el caso de que existiera un vacío cuántico y un campo de
inflación antes del supuesto Big Bang.
Por otro lado, reconciliar este modelo modificado con la interpretación ortodoxa
actual de los datos observados invoca la presencia de una «materia oscura» misteriosa que
integra el 27 por ciento del universo observable y de una «energía oscura» anti-gravedad,
más misteriosa si cabe, que integra el 68 por ciento del universo observable. El modelo
presenta importantes problemas conceptuales, el menor de los cuales no es precisamente
ofrecer una explicación convincente de la creación de la materia y la energía a partir de la
nada.
Otras hipótesis planteadas para modificar aún más el modelo ortodoxo o sustituirlo
no están verificadas o son imposibles de verificar con los medios conocidos hasta la fecha.
La disciplina empírica de la ciencia sigue sin poder determinar si el cosmos es eterno o no.
A partir de las evidencias empíricas podemos deducir que evolucionamos de la
energía primigenia hacia formas de vida con base de carbono y con conducta sofisticada, y
que poseemos el objeto más complejo de todo el universo conocido: el cerebro humano.
Pero esa evolución solo fue posible porque las prácticamente ilimitadas interacciones entre
la materia y la energía se vieron constreñidas por una serie de leyes físicas y químicas,
además de por el ajuste de precisión de seis parámetros cosmológicos, dos constantes sin
dimensión y tres parámetros de nucleosíntesis. Además, esta evolución necesitó de un
planeta con un rango de masa limitado, que poseyera los elementos químicos necesarios y
que estuviera situado en una parte concreta de una galaxia y en una parte concreta de un
sistema solar, donde recibiera la cantidad justa del tipo de energía adecuado durante varios
miles de millones de años y quedara protegido de las radiaciones letales de energía y de las
colisiones de los cometas y otros desechos espaciales.
La ciencia, una disciplina empírica, no puede explicar cuál es la causa de la
existencia de estas leyes físicas y químicas, por qué estos parámetros tienen los valores
críticos que tienen y por qué se produjo la concurrencia de factores altamente improbables e
inusuales en el planeta Tierra, todo lo cual se combinó para producir las condiciones
necesarias para nuestra evolución. (Las muchas explicaciones que giran en torno a un
multiverso son especulaciones no verificables y en su mayoría parten de una lógica
cuestionable).[1] Sin este conocimiento, sin embargo, la cadena de causalidad que llevó a la
emergencia y la evolución de los humanos queda incompleta.
Pese a que la ciencia es capaz de informarnos acerca de las correlaciones físicas de
nuestras experiencias subjetivas, no puede explicarnos la esencia de dichas experiencias,
que se combinan holísticamente para que cada uno de nosotros tenga una sensación única
que conforma, en un muy alto grado, lo que somos a nivel individual. De un modo similar,
la ciencia tampoco puede explicarnos la esencia de determinados conceptos, como los
valores que ayudan a conformar a los humanos al nivel de las sociedades.
En términos generales, las limitaciones dentro del ámbito de la ciencia son de dos
tipos: permanentes y temporales. Estas últimas desaparecerán a medida que la ciencia
avance con nuevos datos y nuevas ideas. Pero algunas limitaciones, como la pérdida
irreparable de datos, son permanentes.
De todos modos, lo que la ciencia puede explicarnos actualmente acerca de quién
somos y de dónde venimos es importante. Y existe, además, un patrón general que domina
las evidencias.
Conclusiones

Un repaso a los descubrimientos realizados en la Primera, Segunda y tercera parte


nos lleva a las siguientes conclusiones.
1. Es prácticamente seguro que la disciplina empírica de la ciencia nunca será capaz
de explicar el origen de la materia y de la energía de las que estamos hechos.
2. Probablemente, la energía-materia primigenia consistía en un plasma denso
tremendamente energético que perdió energía (es decir, se enfrió) a medida que fue
expandiéndose y la materia se condensó. En el proceso, la materia se volvió cada vez más
compleja. A escala del universo observable, el plasma caótico se enfrió y formó una
jerarquía de estructuras en rotación integrada por sistemas solares, galaxias, cúmulos
galácticos, supercúmulos y sábanas de supercúmulos separados entre sí por vacíos que
juntos constituyen un todo complejo. A escala microscópica, las partículas fundamentales
de materia se combinaron para formas núcleos más complejos de hidrógeno que fueron
aumentando de complejidad al combinarse para formar los núcleos de unos 95 elementos
de composición natural. Estos elementos se combinaron con electrones y aumentaron su
complejidad más si cabe para transformarse en átomos, y luego en moléculas integradas por
los hasta 13 átomos que se han descubierto por el momento en el espacio exterior y los
meteoritos.
3. La vida emergió en la superficie de una de estas agregaciones de materia, el
planeta Tierra, que se formó hace entre 4,6 y 4 miles de millones de años a partir de la
combinación de los desechos materiales que orbitaban alrededor del recién encendido sol.
Se han planteado diversas conjeturas para explicar cómo se combinaron, probablemente
dentro de los primeros 500 mil millones de años de vida de la Tierra, las materias
inanimadas compuestas por hasta 13 átomos para formar la complejidad, el tamaño, las
estructuras cambiantes y el funcionamiento de las formas de vida independientes más
sencillas. Pero el hecho de que los procesos geológicos hayan destruido de forma
irreparable las evidencias, deja fuera del alcance de la ciencia explicar la emergencia de
esta vida, del mismo modo que no podemos conocer con exactitud la emergencia de la
materia.
4. A pesar de que los límites son borrosos, la emergencia de la vida —la capacidad
de una entidad cerrada de responder a cambios que se produzcan tanto en su interior como
en su entorno, de extraer energía y materia de su entorno, y de convertir esa energía y esa
materia en actividad dirigida internamente, incluyendo en dicha actividad el mantenimiento
de su propia existencia— marca un cambio de tipología, no simplemente de grado, con
respecto a la materia inanimada.
5. Es altamente probable, aunque no seguro, que la vida emergiera solo una vez en
la Tierra, y que todos loso seres vivos del planeta evolucionaran a partir de este suceso
único.
6. Muy posiblemente, la colaboración activa de algunas de las primeras formas de
vida para su supervivencia mutua llevó a su fusión y dio como resultado la divergencia de
la vida en distintas ramas, la mayoría de las cuales se ramificó aún más para crear especies
cada vez más complejas.
7. El número cada vez mayor de especies se propagó por la superficie del planeta y
ocupó hábitats propicios para sus formas concretas de mantener su existencia y
reproducirse. Por encima de la geoesfera inanimada se formó una biocapa.
8. La competencia por los recursos, las mutaciones genéticas nocivas y los rápidos
cambios medioambientales que dieron como resultado la pérdida de los hábitats propicios
provocaron el patrón más dominante entre los seres vivos, a saber, la extinción de especies.
9. La colaboración a nivel de genes, genomas, células, tejidos, órganos y
organismos provocó la evolución de especies más complejas.
10. La rama animal se caracterizó por la movilidad, la reproducción sexual que
incrementó la complejidad y el desarrollo de una centralización de un sistema nervioso para
percibir y responder a estímulos internos y externos. Estos tres factores llevaron a la rama
animal a evolucionar en forma de linajes divergentes y, en ocasiones, fusionados.
11. La evolución de especies con una complejidad morfológica cada vez mayor y un
sistema nervioso centralizado se correlacionó con un incremento de la consciencia de
dichas especies.
12. Con una única excepción, los linajes supervivientes terminaron en la estasis de
su última especie, con cambios morfológicos menores en respuesta a cambios
medioambientales reversibles.
13. Esa única excepción fue la especie humana, en la que la consciencia alcanzó un
punto en el que se hizo consciente de sí misma: sus miembros no solo saben, sino que
además saben que saben; de forma exclusiva, poseen la capacidad para reflexionar sobre sí
mismos y sobre el cosmos del que saben que forman parte.
14. Debido a la irremediable escasez del registro fósil y de otras evidencias, es
prácticamente seguro que la ciencia nunca será capaz de explicar con confianza y exactitud
dónde, cuándo, por qué y cómo se produjo la emergencia de los humanos. Es probable que
ocurriera en África, aunque no necesariamente en el este de África, y que estuviera
completa hace entre 40.000 y 10.000 años, posiblemente incluso antes. Seguramente estuvo
causada por un cambio fluctuante que produjo un hábitat fluctuante que impulsó la
creatividad y la inventiva, junto con la comprensión de que para sobrevivir la cooperación
presentaba más beneficios que la competencia. La hibridación o la duplicación total del
genoma podrían haber jugado un papel en este cambio evolutivo.
15. Estamos al parecer ante un caso de emergencia de sistemas, donde la interacción
de facultades como la inventiva, la creatividad y la comunicación dieron lugar a una nueva
facultad de nivel superior, la consciencia reflexiva, que a su vez causó la transformación de
las facultades de nivel inferior y la generación de facultades nuevas como la imaginación,
las creencias, el lenguaje, la abstracción y la ética.
16. Como sucede con la emergencia de la vida a partir de la materia inanimada, y a
pesar de que la frontera es borrosa, la emergencia de la consciencia reflexiva a partir de la
consciencia marca un cambio de tipología, no simplemente de grado. Por lo tanto, la
evolución de los humanos no fue principalmente morfológica o genética, sino noética: la
evolución de la consciencia reflexiva.
17. Esta evolución noética puede dividirse en tres fases que se solapan entre sí:
primitiva, filosófica y científica. El pensamiento primitivo, el único tipo de pensamiento
durante alrededor del 90 por ciento de la existencia humana, evolucionó cuando lo
imperativo era sobrevivir y reproducirse. Se caracterizó por la creatividad, la inventiva, la
imaginación y las creencias.
18. Hace unos 10.000 años, el pensamiento primitivo generó la comprensión de que
una forma más efectiva de supervivencia que la de pequeños grupos familiares en
movimiento constante y adaptándose a un hábitat cambiante, consistía en adaptar un
determinado hábitat a las necesidades humanas. La invención de la agricultura, y de los
asentamientos humanos que la siguieron, se asocia con la comprensión de que la
cooperación era la mejor manera de seguir adelante, lo que dio también como resultado el
intercambio de productos e ideas con otros asentamientos.
19. Sin embargo, a medida que estos asentamientos fueron desarrollándose y
expandiéndose, esta comprensión se vio enfrentada al instinto predominante de
competencia agresiva arraigado a lo largo de varios millones de años de antepasados pre-
humanos. Este instinto produjo batallas para el control de los asentamientos y de sus
recursos, tanto agrícolas como otros. Los enfrentamientos se produjeron tanto dentro como
fuera del grupo. El resultado fue la centralización y la colaboración forzada.
20. Con su crecimiento, los asentamientos desarrollaron una jerarquía social que
reflejaba las habilidades transmitidas de padres a hijos y que constaba de gobernantes,
sacerdotes, guerreros, comerciantes y artesanos, campesinos y esclavos. Los asentamientos
se expandieron y dieron lugar a ciudades, ciudades-estado e imperios gobernados
autocráticamente que vivieron momentos de auge y de caída. El patrón generalizado en
todo el planeta fue de incremento en el tamaño, la complejidad y la centralización de las
sociedades humanas.
21. La evolución del pensamiento primitivo estuvo estrechamente ligada a la
evolución de las creencias que surgieron tanto de la imaginación como del resultado de una
falta de entendimiento de los fenómenos naturales y del miedo a lo desconocido, es decir,
de la superstición. A partir del animismo, el totemismo y la veneración de los antepasados
de los cazadores-recolectores, se desarrollaron religiones que reflejaron el crecimiento en
tamaño, complejidad y especialización de las sociedades humanas asentadas. Las religiones
evolucionaron desde la adoración a una diosa de la fertilidad mediante el politeísmo, hacia
un panteón gobernado por un poderoso dios del cielo y de la guerra, para llegar al
monoteísmo patriarcal con otros dioses sometidos a un solo Dios o degradados a ángeles.
22. Las religiones se expandieron cuando fueron adoptadas por imperios, y los
gobernadores autocráticos de los imperios, incluso hasta tiempos de la Primera Guerra
Mundial, reivindicaron gobernar por mandato divino para legitimar y consolidar su poder.
23. El pensamiento primitivo se aplicó para concebir tecnologías para la
supervivencia de las sociedades humanas y para influir las fuerzas sobrenaturales que
consideraban como determinantes de su destino. Así nacieron las bases del arte, la música,
el lenguaje hablado y escrito, las matemáticas y la astronomía.
24. La consciencia reflexiva permitió a las sociedades humanas, de forma exclusiva,
adaptar cualquier territorio del planeta a sus necesidades para convertirlo en su hábitat y, en
el proceso, seguir manteniéndose como una única especie sin cruces con ninguna otra.
25. El pensamiento filosófico emergió hace alrededor de 3.000 años —lo que
representa apenas el último 10 por ciento de la existencia humana— en distintos lugares del
planeta con el fin de buscar respuestas a las preguntas introspectivas de quién somos, de
dónde venimos y cómo deberíamos comportarnos, sin necesidad de invocar espíritus
imaginados, dioses antropomorfos o Dios. Estos antiguos filósofos se sirvieron de la
revelación, normalmente resultado de un ejercicio de meditación disciplinado, y del
razonamiento, basado en observaciones de fenómenos naturales o en supuestos tomados
como obvios. Esta fase marcó una búsqueda del conocimiento de por sí, no únicamente con
fines de supervivencia y reproducción.
26. Los videntes de las distintas culturas experimentaron una revelación similar que
les dio a entender que todas las cosas poseen una unidad subyacente en una realidad
suprema inefable. Esto puede describirse como una consciencia cósmica trascendente o
inteligencia que existe sin forma fuera del espacio y del tiempo, pero que es inmanente en
los fenómenos percibidos por nuestros cinco sentidos físicos y por nuestra mente; la esencia
de todos nosotros, que se diferencia de nuestro yo fenomenológico, es idéntica a este todo
indiviso. Además, esta realidad suprema se manifiesta en el cosmos y regula su
funcionamiento, por lo que deberíamos armonizar nuestra vida para alcanzar la plenitud.
27. Cuando sus pensamientos se concentraron en cómo deberíamos comportarnos
entre nosotros, prácticamente todos los antiguos filósofos, tanto a través de la revelación
como del razonamiento, impartieron la enseñanza de que solo alcanzaríamos la tranquilidad
y la plenitud actuando altruistamente y tratando a los demás como nos gustaría que los
demás nos trataran a nosotros. Esta conclusión iba en contra del instinto dominante de
guerra y conquista de sus sociedades. En la raíz de todo ello está la recomendación de
cooperación y altruismo, y no de competencia agresiva, para alcanzar el progreso de la
humanidad.
28. El pensamiento filosófico se ramificó de forma trascendental a partir del siglo
xii, cuando Occidente adoptó el razonamiento como único método impartido en las
universidades. El razonamiento se ramificó según el objeto de indagación, y estas ramas
siguieron dividiéndose en distintas escuelas de pensamiento. La revelación era básicamente
holística, pero lo que se ramificó de forma considerable fueron las distintas escuelas
fundadas para interpretar las revelaciones inefables.
29. A pesar de que algunas ramas tienen sus raíces en la antigüedad, el pensamiento
científico, la tercera fase de la evolución humana, emergió con claridad en el transcurso de
unos 150 años, a partir de mediados del siglo xvi, como un intento de comprender los
fenómenos naturales mediante la observación y la experimentación sistemática, y
preferiblemente mensurable, con el fin de deducir leyes verificables y realizar predicciones
también verificables. Sus principales ramas fueron las ciencias físicas que estudiaban los
fenómenos inanimados, las ciencias de la vida que estudiaban los seres vivos y las ciencias
médicas que buscaban fomentar la supervivencia de los humanos. En el siglo xix, el estudio
de los humanos y de sus relaciones sociales dio lugar a las ciencias sociales.
30. La ciencia desaprobó numerosas creencias supersticiosas y conjeturas filosóficas
sobre los fenómenos naturales. Pero su emergencia no produjo el rechazo de la
superstición, que llevaba decenas de miles de años inculcada, razón por la cual muchos
pioneros del pensamiento científico conservaron sus creencias supersticiosas. Además,
creían que las leyes naturales que pretendían descubrir habían sido creadas por Dios.
31. La fase científica constituye hasta el momento menos del 2 por ciento de la
existencia humana, pero en este tiempo el ritmo de la evolución humana se ha acelerado
más que nunca. Gracias a la invención de tecnología cada vez más sofisticada, el
pensamiento científico ha producido un incremento de proporciones geométricas en nuestro
conocimiento de lo que somos físicamente, de dónde venimos, del universo del que
formamos parte y de nuestras interrelaciones.
32. Todo ello dio como resultado una mayor ramificación de la ciencia en campos
de estudio cada vez más estrechos, lo que ha excavado pozos de experiencia desde donde es
difícil ver la imagen global o iniciar un diálogo con sentido con otros especialistas, excepto
cuando esos pozos se cruzan entre sí. Este foco tan estrecho ha impulsado la creencia en el
reduccionismo como único método científico válido y también en el fisicalismo, lo cual es
irracional, puesto que esta creencia no es en sí misma física ni resultado de la interacción de
cosas físicas.
33. Hace cien años, la tecnología que permitió la investigación de fenómenos que
normalmente no eran observables ayudó a la gestación de una segunda revolución científica
en la física. La mecánica cuántica reveló un reino submicroscópico de indeterminación,
entrelazamientos cuánticos e interdependencias que contrasta con el determinismo de la
física clásica, o newtoniana, de la primera revolución científica. Muchos de sus pioneros
interpretaron que estos modelos predictivos y validados matemáticamente necesitan
consciencia para que los fenómenos físicos se materialicen. Varios de ellos apoyaron
visiones holísticas similares a las revelaciones antiguas de una consciencia cósmica
trascendente o inteligencia que se manifiesta en los fenómenos físicos percibidos por
nuestros sentidos y nuestra mente que regula las interacciones de estos fenómenos
interdependientes.
34. Desde mediados del siglo xx, los físicos intentan demostrar que toda la materia
y energía —es decir, todos los fenómenos físicos— son manifestaciones de energía inferior
de una única energía que estaba presente en los inicios del universo. Esta tendencia
convergente en la ciencia fundamental, en contraposición con la hasta ahora tendencia
divergente de las ciencias, está asimismo en consonancia con la revelación antigua de una
energía fundamental que subyace todas las cosas.
35. Después de cruzado el umbral de la consciencia reflexiva, los humanos
desarrollaron una naturaleza dual. La herencia arraigada de la competencia instintiva y
agresiva y la colaboración forzada empezó a sentir el contrapeso de la reflexión, que daba
como resultado la cooperación pacífica y el altruismo. Esta nueva tendencia se incrementó
de forma muy gradual a lo largo de las tres fases solapadas de la evolución humana,
mientras que el instinto fue abandonando poco a poco su posición dominante.
36. Solo desde mediados del siglo xx —lo que representa apenas un 0,25 por ciento
de toda la existencia humana—, la tendencia al alza de la cooperación y el altruismo
empezó a tener un impacto planetario sobre las sociedades humanas, como demuestran las
organizaciones supranacionales y globales que cooperan con fines pacíficos, humanitarios,
científicos y educativos.
37. Durante este brevísimo periodo de la historia de la humanidad, y gracias a los
avances científicos y tecnológicos, ha emergido una tendencia a la globalización y la
convergencia que se asocia a ella, tanto a nivel físico como noético, es decir, por el
pensamiento reflexivo. A partir de la dispersión global, con distintas sociedades humanas
ocupando distintos hábitats repartidos por todo el planeta, los humanos, al menos en las
sociedades científicamente avanzadas que ocupan la vanguardia de la evolución humana,
utilizan cada vez más el planeta entero como su hábitat. Es posible que el hecho más
destacado sea que cada vez más se comunican de manera casi instantánea a través de una
multiplicidad creciente de redes electrónicas globales que generan una intensificación del
pensamiento todavía mayor.
38. En consecuencia, a partir de la biocapa que había evolucionado a partir de la
geosfera que había evolucionado a su vez a partir de la energía primigenia, ha evolucionado
una capa noética, o mental.
39. El ritmo de este proceso evolutivo cósmico se ha acelerado exponencialmente,
con la fase inanimada calculada en entre 10 y 20 miles de millones de años, la fase
biológica en alrededor de 3,5 miles de millones de años y la fase humana en decenas de
miles de años; la fase filosófica de la humanización ha ocupado unos 3.000 años, la fase
científica unos 450 años, mientras que la globalización y la convergencia en la vanguardia
de la evolución humana empezaron hace apenas 65 años.
La respuesta corta a la pregunta de quién somos es que, al menos por lo que
sabemos hasta el momento, somos el producto inacabado de un proceso evolutivo cósmico
acelerado que se caracteriza por la combinación, el aumento de complejidad y la
convergencia, además de ser los agentes introspectivos de nuestra futura evolución.
[1] Véase página 177.
BIBLIOGRAFÍA

La fecha entre paréntesis es la de la edición consultada. La fecha que aparece sin


paréntesis es la de la primera edición en inglés de la obra en el caso de que fuera distinta.
Adams, Fred y Laughlin, Greg, The Five Ages of the Universe: Inside the Physics of
Eternity, Free Press, Nueva York, 1999.
Ahmed, Akbar S., Journey into Islam: The Crisis of Globalization, Brookings
Institution Press, Washington, D. C., 2007.
Allchin, Bridget y Allchin, F. Raymond, Origins of a Civilization: The Prehistory
and Early Archaeology of South Asia, Viking, Nueva Delhi, 1997.
Alonzo, Gualberto Zapata, An Overview of the Mayan World, Ediciones Alducin,
Mérida, 1993.
Álvarez, Walter, T Rex and the Crater of Doom, Princeton University Press,
Princeton, NJ, (1997). [Publicado en español bajo el título Tiranosaurus Rex y el cráter de
la muerte, Editorial Crítica, Barcelona, 1998]
Armstrong, Karen, The Great Transformation: The World in the Time of Buddha,
Socrates, Confucius and Jeremiah, Atlantic, Londres, 2006.
Arp, Halton C., Seeing Red: Redshifts, Cosmology and Academic Science, Apeiron,
Montreal, 1998.
Ayala, Francisco J., «Evolution», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/197367/evolution 2014, consultado el 7 de
abril de 2014.
Barrow, John D. y Tipler, Frank J., The Anthropic Cosmological Principle, Oxford
University Press, Oxford, 1996.
Batchelor, Stephen, Buddhism Without Beliefs: A Contemporary Guide to
Awakening, Bloomsbury, Londres, 1997. [Publicado en español bajo el título Budismo sin
creencias: guía contemporánea para despertar, Gaia Ediciones, Madrid, 2012]
Beauregard, Mario, Brain Wars: The Scientific Battle Over the Existence of the
Mind and the Proof That Will Change the Way We Live Our Lives, HarperOne, Nueva York,
2012.
Behe, Michael J., Darwin’s Black Box: The Biochemical Challenge to Evolution,
The Free Press, Nueva York, Londres, 1996. [Publicado en español bajo el título La caja
negra de Darwin, Ed. Andres Bello, Barcelona, 2000]
—The Edge of Evolution: The Search for the Limits of Darwinism, Free Press,
Nueva York, 2007.
Bohm, David, Wholeness and the Implicate Order, Routledge and Kegan Paul,
Londres, 1980. [Publicado en español bajo el título La totalidad y el orden implicado, Ed.
Kairos, Barcelona, 2014]
Bonner, John Tyler, The Evolution of Complexity by Means of Natural Selection,
Princeton University Press, Princeton, NJ, 1988.
Botha, Rudolf P. y Knight, Chris, The Cradle of Language, Oxford University
Press, Oxford, 2009.
Braden, Gregg, The Spontaneous Healing of Belief: Shattering the Paradigm of
False Limits, Hay House, Londres, 2008. [Publicado en español bajo el título La curación
espontanea de las creencias, Ed. Sirio, Málaga, 2013]
Braibant, Sylvie, et al., Particles and Fundamental Interactions: An Introduction to
Particle Physics, Springer, Dordrecht; Londres, 2012.
Bronkhorst, Johannes, Buddhism in the Shadow of Brahmanism, Brill, Leiden, 2011.
Bryson, Bill, A Short History of Nearly Everything, Black Swan, Londres, 2003,
(2004). [Publicado en español bajo el título Una breve historia de casi todo, RBA Libros,
Barcelona, 2014]
Buddha, The, Anguttara Nikaya traducido al inglés por Thanissaro Bhikku, 1997.
http://www.accesstoinsight.org/tipitaka/an/index.html – an04.077.than
Cairns-Smith, A. G. Seven Clues to the Origin of Life: A Scientific Detective Story,
Cambridge University Press, Cambridge, 1985, 1990. [Publicado en español bajo el título
Siete pistas para el origen de la vida: una historia cientifica en clave detectivesca, Alianza
Editorial, Madrid, 2013]
Cannadine, David, The Undivided Past: Humanity Beyond Our Differences, Allen
Lane, Londres, 2013.
Capra, Fritjof, The Web of Life: A New Synthesis of Mind and Matter, Flamingo,
Londres, 1996. [Publicado en español bajo el título La trama de la vid: una nueva
perspectiva de los sistemas vivos, Alianza Editorial, Madrid, 2012]
—The Tao of Physics: An Exploration of the Parallels between Modern Physics and
Eastern Mysticism, Shambhala, Boston, 1975. [Publicado en español bajo el título El tao de
la física, Editorial Sirio, Málaga, 2017]
Chang, Raymond, Chemistry, McGraw-Hill Higher Education, Londres, Boston,
MA, (2007) (9ª ed.). [Publicado en español bajo el título Principios esenciales de química
general, McGraw-Hill Interamericana de España, Madrid, 2006]
Chomsky, Noam, Language and Mindn Cambridge University Press, Cambridge,
Nueva York, 1968. [Publicado en español bajo el título El lenguaje y el entendimiento,
Editorial Seix Barral, Barcelona, 1986]
Confucius, Analects, (1893), traducido al inglés por James Legge,
http://www.sacred-texts.com/cfu/conf1.htm
Conway Morris, S., The Crucible of Creation: The Burgess Shale and the Rise of
Animals, Oxford University Press, Oxford, Nueva York, 1998.
— Life’s Solution: Inevitable Humans in a Lonely Universe, Cambridge University
Press, Cambridge, 2003.
Cook, Jill, Ice Age Art: Arrival of the Modern Mind, British Museum Press,
Londres, 2013.
Couprie, Dirk L., «Anaximander», The Internet Encyclopedia of Philosophy, 2006,
http://www.iep.utm.edu/anaximan/. Consultado el 17 de junio de 2014.
Coyne, Jerry, «Intelligent Design: The Faith That Dare Not Speak Its Name», en
Intelligent Thought editado por John Brockman, Random House, Nueva York, 2006.
—, y Allen Orr, H., Speciation, Sinauer Associates, Sunderland, MA, 2004.
Crick, Francis, What Mad Pursuit: A Personal View of Scientific Discovery,
Penguin, Londres, 1990. [Publicado en español bajo el título Qué loco propósito, Tusquets
Editores, Barcelona, 1989]
— The Astonishing Hypothesis: The Scientific Search for the Soul, Touchstone,
Londres, 1990. [Publicado en español bajo el título La búsqueda científica del alma,
Editorial Debate, Barcelona, 2003]
Crystal, David, The Cambridge Encyclopedia of Language, Cambridge University
Press, Cambridge, 1987.
Curd, Patricia, «Presocratic Philosophy», The Stanford Encyclopedia of Philosophy,
editado por Edward N. Zalta, 2012, http://plato.stanford.edu/entries/presocratics/.
Consultado el 17 de junio de 2014.
Darwin, Charles, On the Origin of Species by Means of Natural Selection, or the
Preservation of Favoured Races in the Struggle for Life, John Murray, Londres, 1859.
— On the Origin of Species by Means of Natural Selection, or the Preservation of
Favoured Races in the Struggle for Life, John Murray, Londres, 1859.
—The Variation of Animals and Plants under Domestication, John Murray,
Londres, 1868.
—On the Origin of Species by Means of Natural Selection, or the Preservation of
Favoured Races in the Struggle for Life, John Murray, Londres, 1859.
—The Descent of Man, and Selection in Relation to Sex, John Murray, Londres,
1882.
— Autobiography of Charles Darwin: With Two Appendices Comprising a Chapter
of Reminiscences and a Statement of Charles Darwin’s Religious Views, Watts and Co,
Londres, 1882.
— The Autobiography of Charles Darwin, 1809–1882: With Original Omissions
Restored, Collins, Londres, 1958.
Darwin, Erasmus, Zoonomia; or the Laws of Organic Life, J. Johnson, Londres,
1794.
— The Temple of Nature; or, the Origin of Society a Poem, with Philosophical
Notes,J. Johnson, Londres, (1803).
Darwin, Francis (editor), The Life and Letters of Charles Darwin, Including an
Autobiographical Chapter, John Murray, Londres, 1887.
Davies, Nigel, The Ancient Kingdoms of Mexico, Penguin, Harmondsworth, 1982.
Davies, Paul, God and the New Physics, Penguin, Londres, 1990. [Publicado en
español bajo el título Dios y la nueva física, Salvat Editores, Barcelona, 1988]
Dawkins, Richard, The Selfish Gene Oxford University Press, Oxford, 1976, 1989.
[Publicado en español bajo el título El gen egoísta, Salvat Editores, Barcelona, 2014]
—The Blind Watchmaker, Norton, Londres, Nueva York, 1987, (1996) (con una
nueva introducción). [Publicado en español bajo el título El relojero ciego, RBA,
Barcelona, 1993]
Desmond, Adrian J., The Politics of Evolution: Morphology, Medicine, and Reform
in Radical London University of Chicago Press, Chicago, 1989.
—, y Moore, James R., Darwin, Penguin, Londres, 1992. [Publicado en español
bajo el título Charles Darwin, Herder Editorial, Barcelona, 2008]
Dobzhansky, Theodosius, The Biological Basis of Human Freedom, Columbia
University Press, Nueva York, Londres, 1956; OUP.
Doolittle, W. Ford, «Uprooting the Tree of Life», Scientific American, 282, 2000,
pp. 90–95.
Einstein, Albert, The World As I See It, traducido al inglés por Alan Harris,
Philosophical Library, Nueva York, 1949. [Publicado en español bajo el título Mi visión del
mundo, Tusquets Editores, Barcelona, 2005]
Eldredge, Niles, Reinventing Darwin: The Great Evolutionary Debate, Weidenfeld
and Nicolson, Londres, 1995.
—, y Gould, Stephen J., «Punctuated Equilibria: An Alternative to Phyletic
Gradualism», pp. 82–115 en Models in Paleobiology, Freeman Cooper, San Francisco,
1972.
—, Tattersall, Ian, The Myths of Human Evolution, Columbia University Press,
Nueva York, Guilford, 1982.
Elgin, Duane, Awakening Earth: Exploring the Dimensions of Human Evolution,
Morrow, Nueva York, 1993.
Elliott, David K., «Extinctions and Mass Extinctions», en Oxford Companion to the
Earth, editado por Hancock, Paul L. y Skinner, Brian J., Oxford University Press, Nueva
York, 2000.
Ellis, George, «The Universe around Us: An Integrative View of Science and
Cosmology», 2002, http://www.mth.uct.ac.za/~ellis/cos8.html, consultado el 13 de agosto
de 2013.
— «Issues in the Philosophy of Cosmology», en The Philosophy of Physics, editado
por Butterfield, Jeremy y Earman, John, Elsevier, Amsterdam; New Holland, 2007.
Eogan, George, Knowth and the Passage Tombs of Ireland, Thames and Hudson,
Londres, 1986.
Fagan, Brian M., The Long Summer: How Climate Changed Civilization, Granta,
Londres, 2004. [Publicado en español bajo el título El largo verano: de la Era Glacial a
nuestros días, GEDISA, Barcelona, 2007]
Finkelstein, Israel y Solberman, Neil Asher, The Bible Unearthed: Archaeology’s
New Vision of Ancient Israel and the Origin of Its Sacred Texts, Free Press, Nueva York,
2001. [Publicado en español bajo el título La Biblia desenterrada: una nueva visión
arqueológica del antiguo Israel y de los orígenes de sus textos sagrados, Siglo XXI de
España Editores, Madrid, 2011]
Fraser, Chris, «Mohism» Stanford Encyclopedia of Philosophy, editado por Edward
N. Zalta, (2012), http://plato.stanford.edu/entries/mohism/, consultado el 31 de Agosto de
2012.
Frawley, David, From the River of Heaven: Hindu and Vedic Knowledge for the
Modern Age Motilal Banarsidass, Nueva Delhi, 1990.
Futuyma, Douglas J., Science on Trial: The Case for Evolution, Pantheon Books,
Nueva York, (1983).
Gehring, W. J., Master Control Genes in Development and Evolution: The
Homeobox Story, Yale University Press, New Haven, CN; Londres, 1998.
Gombrich, Richard F., Theravada Buddhism: A Social History from Ancient
Benares to Modern Colombo, Routledge, Londres, 1988. [Publicado en español bajo el
título El budismo Theravada: historia social desde la antigua Benarés hasta la moderna
Colombo, Ediciones Cristiandad, Madrid, 2002]
Gorst, Martin, Measuring Eternity: The Search for the Beginning of Time,
Broadway Books, Nueva York, 2001.
Gottlieb, Anthony, The Dream of Reason: A History of Western Philosophy from the
Greeks to the Renaissance, Penguin, Londres, 2000, (2001). [Publicado en español bajo el
título El sueño de la razón: una historia de la filosofía desde los griegos hasta el
renacimiento, Ediciones de Intervención Cultural, Barcelona, 2009]
Gould, Stephen Jay, The Panda’s Thumb: More Reflections in Natural History,
Norton, Nueva York, Londres, 1980. [Publicado en español bajo el título El pulgar del
panda, Editorial Crítica, Barcelona, 2001]
— The Structure of Evolutionary Theory Cambridge, MA; London: Belknap,
Londres, 2002. [Publicado en español bajo el título La estructura de la teoría de la
evolución, Tusquets Editores, Barcelona, 2004]
— «The Evolution of Life on Earth», Scientific American, 14, 1994, pp. 92–100.
Graves, Robert, The Greek Myths, Penguin Books, Baltimore, (1955). [Publicado en
español bajo el título Los mitos griegos, Editorial Ariel, Barcelona, 2015]
Gregory, T. Ryan (editor),The Evolution of the Genome, Elsevier Academic Press,
Burlington, MA; San Diego, CA; Londres, 2005.
Gribbin, John R., Deep Simplicity: Chaos, Complexity and the Emergence of Life,
Allen Lane, Londres, 2004.
Griffiths, David J., Introduction to Elementary Particles, Harper & Row, Nueva
York, Londres, 1987.
Guth, Alan H., The Inflationary Universe: The Quest for a New Theory of Cosmic
Origins, Jonathan Cape, Londres, 1997. [Publicado en español bajo el título El universo
inflacionario: la búsqueda de una nueva teoría sobre los orígenes del cosmos, Editorial
Debate, Barcelona, 1999]
Halliday, Tim (editor), Animal Behavior, University of Oklahoma Press, Norman,
1994.
Hands, John, Housing Co-operatives, Society for Co-operative Dwellings, Londres,
1975.
Hansen, Chad, «Taoism», Stanford Encyclopedia of Philosophy, (2012) editado por
Edward N. Zalta, http://plato.stanford.edu/entries/taoism/, consultado el 3 de Agosto de
2012.
Harman, Oren Solomon, The Price of Altruism: George Price and the Search for
the Origins of Kindness, Bodley Head, Londres, 2010.
Harwood, Caroline y Buckley, Merry, The Uncharted Microbial World: Microbes
and Their Activities in the Environment, The American Academy of Microbiology,
Washington D. C., 2008.
Hawking, Stephen W., A Brief History of Time: From the Big Bang to Black Holes,
Bantam, Londres, 1988. [Publicado en español bajo el título Historia del tiempo: del Big
Bang a los agujeros negros, Alianza Editorial, Madrid, 2010]
Hawkins, Gerald Stanley y White, John Baker, Stonehenge Decoded, Collins,
Londres, 1966.
Henke, Winfried, et al., Handbook of Paleoanthropology, Springer-Verlag, Berlín,
2007.
Heylighen, Francis, «The Growth of Structural and Functional Complexity During
Evolution», pp. 17–44 en The Evolution of Complexity, editado por F. Heylighen, et al.,
Kluwer Academic Publishers, Dordrecht, 1999.
Hill, Kim y Hurtado, A. Magdalena, Ache Life History: The Ecology and
Demography of a Foraging People, Aldine de Gruyter, Nueva York, 1996.
The Holy Qur’an (1938) traduccido al inglés por Yusuf Ali, http://www.sacred-
texts.com/isl/quran/index.htm
Honderich, Ted (editor), The Oxford Companion to Philosophy Oxford: Oxford
University Press, Oxford, 1995. [Publicado en español bajo el título Enciclopedia Oxford
de filosofía, Ed. Tecnos, Madrid, 2008]
Hoyle, Fred y Wickramasinghe, Nalin Chandra, Lifecloud: The Origin of Life in the
Universe, Dent, Londres, 1978.
Huxley, Julian, Essays of a Biologist, Chatto & Windus, Londres, 1923.
— «Introduction», pp. 11–28 en The Phenomenon of Man, 1959 Collins, Londres,
1959.
Kauffman, Stuart A., At Home in the Universe: The Search for Laws of Self-
Organization and Complexity, Penguin, Londres, 1995, (1996).
Keeley, Lawrence H., War before Civilization, Oxford University Press, Nueva
York, Oxford, 1996.
Keown, Damien, A Dictionary of Buddhism, Oxford University Press, Oxford,
2003.
Kimura, Motoo, The Neutral Theory of Molecular Evolution, Cambridge University
Press, Cambridge, 1983.
Kious, W. Jacquelyne y Tilling, Robert I., «This Dynamic Earth: The Story of Plate
Tectonics», versión 1.12, 1996, http://pubs.usgs.gov/gip/dynamic/dynamic.html -
anchor19309449, consultado el 25 de abril de 2008.
Kitcher, Philip, Abusing Science: The Case against Creationism, MIT Press,
Cambridge, MA, Londres, 1982.
Koslowski, Peter, «The Theory of Evolution as Sociobiology and Bioeconomics: A
Critique of Its Claim to Totality», pp. 301–326 en Sociobiology and Bioeconomics: The
Theory of Evolution in Biological and Economic Theory, editado por Peter Koslowski,
Springer-Verlag, Berlín, 1999.
Krieger, Dolores, Accepting Your Power to Heal: The Personal Practice of
Therapeutic Touch, Bear & Co., Santa Fe, NM, 1993.
Krishnamurti, J. y Bohm, David, The Ending of Time, Gollancz, Londres, 1985.
— The Future of Humanity: A Conversation, Harper & Row, San Francisco, 1986.
[Publicado en español bajo el título El futuro de la humanidad, Ediciones Librería
Argentina, Madrid, 2005]
— The Limits of Thought: Discussions, Routledge, Londres, 1999. [Publicado en
español bajo el título Los límites del pensamiento: discusiones, Editorial Kairos, Barcelona,
2008]
Kropotkin, Peter, Mutual Aid: A Factor of Evolution, Allen Lane, Londres, 1914
(1972). [Publicado en español bajo el título El apoyo mutuo: un factor de la evolución,
Editorial Dharana, Lugo, 2012]
Kuhn, Thomas S. y Hacking, Ian, The Structure of Scientific Revolutions, The
University of Chicago Press, Chicago, Londres, 1962.
Kuhrt, Amelie, The Ancient Near East: c.3000–330 BC, Routledge, Londres, 1995.
[Publicado en español bajo el título El Oriente Próximo en la Antigüedad, c. 30000 – 330
a. C., Editorial Crítica, Barcelona, 2014]
Lack, David Lambert, Darwin’s Finches, Cambridge University Press, Cambridge,
1947.
Lagerwey, John y Kalinowski, Marc, Early Chinese Religion, Brill, Leiden, (2009).
Laszlo, Ervin, Science and the Reenchantment of the Cosmos: The Rise of the
Integral Vision of Reality, Inner Traditions, Rochester, VT, 2006.
Leakey, Richard E. y Lewin, Roger, The Sixth Extinction: Biodiversity and Its
Survival, Weidenfeld & Nicolson, Londres, 1995. [Publicado en español bajo el título La
sexta extinción: el futuro de la vida y de la humanidad, Tusquets Editores, Barcelona, 1997]
LeBlanc, Steven A. y Register, Katherine E., Constant Battles: The Myth of the
Peaceful, Noble Savage, St Martin’s Press, Nueva York, 2003.
Lerner, Eric J., The Big Bang Never Happened, Vintage, Nueva York, 1991.
Linde, Andrei, «The Self-Reproducing Inflationary Universe», Scientific American,
número especial de 26 de noviembre de 2001,
http://www.sciam.com/specialissues/0398cosmos/0398linde.html, consultado el 17 de
Agosto de 2006.
Lochner, James C., et al., «What Is Your Cosmic Connection to the Elements?»
Imagine the Universe, (2005),
http://imagine.gsfc.nasa.gov/docs/teachers/elements/imagine/contents.html, consultado el
24 de junio de 2007.
Lovelock, James, Healing Gaia: Practical Medicine for the Planet, Harmony
Books, Nueva York, 1991.
Lunine, Jonathan Irving, Earth: Evolution of a Habitable World, Cambridge
University Press, Cambridge, 1999.
Maddox, John, What Remains To Be Discovered: Mapping the Universe, the
Origins of Life, and the Future of the Human Race, Macmillan, Londres, 1998. [Publicado
en español bajo el título Lo que queda por descubrir: una inmersión en los problemas aún
no resueltos por la ciencia, desde el origen de la vida hasta el futuro de la humanidad,
Editorial Debate, Barcelona, 1999]
Magli, Giulio, Mysteries and Discoveries of Archaeoastronomy: From Giza to
Easter Island, Copernicus Books, Nueva York, Londres, 2009.
Magueijo, Joao, Faster Than the Speed of Light: The Story of a Scientific
Speculation, Perseus Book Group, Cambbridge, MA, 2003.
Maillet, Benoit de, Telliamed; or, Conversations between an Indian Philosopher
and a French Missionary on the Diminution of the Sea, traducido al inglés por Albert V.
Carozz, University of Illinois Press, Urbana, 1968.
Margulis, Lynn, Origin of Eukaryotic Cells: Evidence and Research Implications
for a Theory of the Origin and Evolution of Microbial, Plant, and Animal Cells on the
Precambrian Earth, Yale University Press, New Haven, Londres, 1970.
Mayr, Ernst, The Growth of Biological Thought: Diversity, Evolution, and
Inheritance, Belknap Press, Cambridge, MA, 1982.
— Towards a New Philosophy of Biology, Belknap, Cambridge, MA, 1988.
— What Evolution Is New York: Basic Books, Nueva York, 2001.
McFadden, Johnjoe, Quantum Evolution, Flamingo, Londres, 2000.
Melville, Duncan J., «Mesopotamian Mathematics», St Lawrence University, 2005,
http://it.stlawu.edu/~dmelvill/mesomath, consultado el 15 de febrero de 2006.
Morales, Demetrio Sodi, The Maya World, Minutiae Mexicana, México, 1989,
(1993).
Morowitz, Harold J., The Emergence of Everything: How the World Became
Complex, Oxford University Press, Nueva York, 2002.
Morris, Desmond, The Illustrated Naked Ape: A Zoologist’s Study of the Human
Animal, Cape, Londres, 1967. [Publicado en español bajo el título El mono desnudo,
Debolsillo, Barcelona, 2006]
Nagler, Michael N., «Reading the Upanishads», pp. 251–301 en The Upanishads
traducido por Eknath Easwaran, Nilgiri Press, Petaluma, CA, 1987.
Narlikar, Jayant y Burbidge, Geoffrey, Facts and Speculations in Cosmology,
Cambridge University Press, Cambridge, 2008.
Needham, Joseph y Ronan, Colin A., The Shorter Science and Civilisation in
China: An Abridgement of Joseph Needham’s Original Text, Cambridge University Press,
Cambridge, Nueva York, 1978.
—, y Wang, Ling, Science and Civilisation in China Vol. 3: Mathematics and the
Sciences of the Heavens and the Earth, Cambridge University Press, Cambridge, 1959.
Ni, Maoshing (traductor), The Yellow Emperor’s Classic of Medicine (the Neijing
Suwen), Shambala Publications, Boston y Londres, 1995.
Nissen, H J, et al., Archaic Bookkeeping: Early Writing and Techniques of the
Economic Administration in the Ancient Near East, University of Chicago Press, Chicago,
1990.
Nitecki, Matthew H., Evolutionary Progress, University of Chicago Press, Chicago,
Londres, 1988.
Noble, Denis, The Music of Life: Biology Beyond the Genome, Oxford University
Press. Oxford, Nueva York, 2006. [Publicado en español bajo el título La música de la
vida: más allá del genoma humano, Ediciones Akal, Madrid, 2008]
O’Grady, Patricia, «Thales of Miletus», The Internet Encyclopedia of Philosophy,
2006 http://www.iep.utm.edu/thales/, consultado el 17 de junio de 2014.
O’Kelly, Claire, Concise Guide to Newgrange, C O’Kelly, Blackrock, 1991.
Pallen, M., The Rough Guide to Evolution London: Rough Guides, Londres, (2009),
Pauling, Chris, Introducing Buddhism, Windhorse, Birmingham, 1990. [Publicado
en español bajo el título Iniciación al budismo, Fundación Tres Joyas, Valencia, 1993]
Penrose, Roger, The Emperor’s New Mind: Concerning Computers, Minds, and the
Laws of Physics Oxford University Press, Oxford, (1989). [Publicado en español bajo el
título La nueva mente del emperador, Debolsillo, Barcelona, 2006]
— The Road to Reality: A Complete Guide to the Laws of the Universe, Jonathan
Cape, Londres (2004). [Publicado en español bajo el título El camino a la realidad: una
guia completa de las leyes del universo, Editorial Debate, Barcelona, 2006]
Pinker, Steven, The Language Instinct: The New Science of Language and Mind,
Penguin, Londres, 1994. [Publicado en español bajo el título El instinto del lenguaje: cómo
la mente construye el lenguaje, Alianza Editorial, Madrid, 2012]
— The Better Angels of Our Nature: A History of Violence and Humanity, Penguin,
Londres, 2011. [Publicado en español bajo el título Los ángeles que llevamos dentro: el
declive de la violencia y sus implicaciones, Ediciones Paidos Ibérica, Barcelona, 2012]
Platón, The Republic, traducido por H. D. P. Lee, Penguin, Londres, 1955, (1965).
Plotino, The Six Enneads, traducido al inglés por Stephen MacKenna y B. S. Page,
Christian Classics Ethereal Library, (2010)
http://www.ccel.org/ccel/plotinus/enneads.toc.html
Possehi, Gregory L., «Mehrgarh» en The Oxford Companion to Archaeology,
editado por Brian M. Fagan, Oxford University Press, Nueva York, Oxford, 1996.
Price, Derek J. de Solla, Little Science, Big Science, Columbia University Press,
Nueva York, 1963.
Radin, Dean I., Entangled Minds: Extrasensory Experiences in a Quantum Reality,
Paraview Pocket, Nueva York, 2006.
— The Noetic Universe: The Scientific Evidence for Psychic Phenomena, Corgi,
Londres, 1997.
Ragan, Mark A., et al., «The Network of Life: Genome Beginnings and Evolution»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 364: 1527, (2009),
pp. 2169-2175
Reanney, Darryl, The Death of Forever: A New Future for Human Consciousness,
Souvenir Press, Londres, 1991.
Rees, Martin, Before the Beginning: Our Universe and Others, Addison-Wesley,
Reading, MA, 1997. [Publicado en español bajo el título Antes del principio: el cosmos y
otros universos, Tusquets Editores, Barcelona, 1999]
—, Just Six Numbers: The Deep Forces That Shape the Universe, Weidenfeld &
Nicolson, Londres, 1999. [Publicado en español bajo el título Seis números nada más,
Editorial Debate, Barcelona, 2001]
The Revised English Bible, Oxford University Press y Cambridge University Press,
1989.
Riegel, Jeffrey, «Confucius», The Stanford Encyclopedia of Philosophy, editado por
Edward N. Zalta, (2012), http://plato.stanford.edu/archives/spr2012/entries/confucius/,
consultado el 3 de Agosto de 2012.
The Rig Veda, traducido al inglés por Ralph Griffith, Internet Sacred Text Archive,
1896, http://www.sacred-texts.com/hin/rigveda/rvi10.htm
Roberts, Royston M, Serendipity: Accidental Discoveries in Science, Wiley, New
York, 1989.
Romer, John, A History of Ancient Egypt: From the First Farmers to the Great
Pyramid, Allen Lane, Londres, 2012.
Roth, Gerhard, «The Evolution of Consciousness», pp. 554–582 en Brain Evolution
and Cognition editado por Gerhard Roth y Mario F. Wullimann, Wiley, Nueva York, 2001.
Roughgarden, Joan, The Genial Gene: Deconstructing Darwinian Selfishness,
University of California Press, Berkeley, CA, Londres, 2009.
Rowan-Robinson, Michael, Cosmology, Clarendon, Oxford, 2004.
Ruggles, C. L. N., Ancient Astronomy: An Encyclopedia of Cosmologies and Myth,
ABC Clio, Santa Barbara, CA, Oxford, 2005.
Russell, Bertrand, History of Western Philosophy and Its Connection with Political
and Social Circumstances from the Earliest Times to the Present Day, G Allen and Unwin
Ltd., Londres, 1946. [Publicado en español bajo el título Historia de la Filosofía
Occidental, Espasa Libros, Madrid, 1984]
Sapp, Jan, The New Foundations of Evolution: On the Tree of Life, Oxford
University Press, Nueva York, Oxford, 2009.
Schrodinger, Erwin, My View of the World, traducido al inglés por Cecily Hastings,
Cambridge University Press, Cambridge, 1961. [Publicado en español bajo el título Mi
concepción del mundo, Tusquets Editores, Barcelona, 1988]
— What Is Life? with Mind and Matter and Autobiographical Sketches, Cambridge
University Press, Cambridge, Nueva York, 1944. [Publicado en español bajo el título ¿Qué
es la vida?, Tusquets Editores, Barcelona, 1984]
Shanahan, Timothy, The Evolution of Darwinism: Selection, Adaptation, and
Progress in Evolutionary Biology, Cambridge University Press, Cambridge, Nueva York,
(2004).
Shapiro, James Alan, Evolution: A View from the 21st Century, FT Press, Upper
Saddle River, NJ, (2011).
Sheldrake, Rupert, A New Science of Life: The Hypothesis of Formative Causation,
Icon, Londres, 1981. [Publicado en español bajo el título Una nueva ciencia de la vida: la
hipótesis de la causación formativa, Editorial Kairos, Barcelona, 2013]
Shields, Christopher, «Aristotle», The Stanford Encyclopedia of Philosophy, editado
por Edward N. Zalta, (2012), http://plato.stanford.edu/cgi-bin/encyclopedia/archinfo.cgi?
entry=aristotle, consultado el 3 de agosto de 2012.
Simpson, George Gaylord, The Meaning of Evolution: A Study of the History of Life
and of Its Significance for Man, Yale University, New Haven, CN, Londres, 1949.
Singh, Simon, Big Bang: The Most Important Scientific Discovery of All Time and
Why You Need To Know About It, Harper Perennial, Londres, 2004, (2005). [Publicado en
español bajo el título Vig Bang: el descubrimiento científico más importante de todos los
tiempos y todo lo que hay que saber acerca del mismo, Ediciones de Intervención Cultural,
Barcelona, 2008]
Smart, Ninian, The World’s Religions: Old Traditions and Modern Transformations,
Cambridge University Pressm Cambridge, 1989. [Publicado en español bajo el título Las
religiones del mundo, Ediciones Akal, Madrid, 1999]
Smith, Charles H., «The Alfred Russel Wallace Page» (1998, 2000–14), Western
Kentucky University http://people.wku.edu/charles.smith/index1.htm, consultado el 19 de
febrero de 2015.
Smolin, Lee, The Life of the Cosmos, Phoenix, Londres, 1997.
— The Trouble with Physics: The Rise of String Theory, the Fall of a Science, and
What Comes Next, Allen Lane, Londres, 2006.
Sproul, Barbara C., Primal Myths: Creation Myths Around the World, Harper &
Row, San Francisco, 1991.
Stachel, John, Einstein from ‘B’ to ‘Z’, Boston: Birkhauser, Boston, 2002.
Steinhardt, Paul J. y Turok, Neil, «The Cyclic Model Simplified», Departamento de
Física, Universidad de Princeton, 2004, http://www.phy.princeton.edu/~steinh/dm2004.pdf,
consultado el 11 de marzo de 2007.
—, Endless Universe: Beyond the Big Bang, Weidenfeld & Nicolson, Londres,
2007.
Stringer, Chris, The Origin of Our Species, Allen Lane, Londres, 2011.
Susskind, Leonard, Cosmic Landscape: String Theory and the Illusion of Intelligent
Design, Little, Brown and Co, Nueva York, (2005). ). [Publicado en español bajo el título
El paisaje cósmico: teoría de cuerdas y el mito del diseño inteligente, Editorial Crítica,
Barcelona, 2007]
Targ, Russell, The Reality of ESP: A Physicist’s Proof of Psychic Phenomena, Quest
Books, Wheaton, IL, (2012).
Teilhard de Chardin, Pierre, The Phenomenon of Man, traducido al inglés por
Bernard Wall, Collins, Londres, 1959. [Publicado en español bajo el título El fenómeno
humano, Ediciones Orbis, Barcelona, 1985]
The Ten Principal Upanishads, traducido al inglés por Swami Purchit Shree y W. B.
Yeats, Faber and Faber, Londres, 1937 .
Tolman, Richard Chace, Relativity, Thermodynamics, and Cosmology, Clarendon
Press, Oxford, 1934; Dover Publications, Nueva York, 1987.
Tomasello, Michael, Constructing a Language: A Usage-Based Theory of
Language Acquisition, Harvard University Press, Cambridge, MA, Londres, 2003.
Tuttle, Russell Howard, «Human Evolution», Encyclopedia Britannica Online,
2014, http://www.britannica.com/EBchecked/topic/275670/human-evolution, consultado el
1 de mayo de 2014.
Unep, «Global Environment Outlook 4», (2007),
http://www.unep.org/geo/geo4/report/GEO-4_Report_Full_en.pdf, consultado el 15 de
junio de 2010.
The Upanishads, traducido al inglés por Max Muller, Internet Sacred Text Archive,
1884, http://www.sacred-texts.com/hin/sbe15
The Upanishads, traducido al inglés por Eknath Easwaran, Petaluma, CA: Nilgiri
Press, Petaluma, CA, 1987.
Van de Mieroop, Marc, A History of Ancient Egypt, Wiley-Blackwell, Oxford, 2011.
Ward, Peter Douglas y Brownlee, Donald, Rare Earth: Why Complex Life Is
Uncommon in the Universe, Copernicus, Nueva York, 2000.
Watson, James D. y Stent, Gunther S., The Double Helix: A Personal Account of the
Discovery of the Structure of DNA, Norton, Nueva York, 1980.
Weinberg, Steven, Dreams of a Final Theory, Vintage Books, Nueva York, 1992.
[Publicado en español bajo el título El sueño de una teoría final: la búsqueda de las leyes
fundamentales de la naturaleza, Editorial Crítica, Barcelona, 2004]
Weiner, Jonathan, The Beak of the Finch: The Story of Evolution in Our Time,
Jonathan Cape, Londres, 1994.
Wells, Jonathan, Icons of Evolution: Science or Myth? Why Much of What We Teach
About Evolution Is Wrong, Regnery Publishing, Washington, 2000.
White, Gavin, Babylonian Star-Lore: An Illustrated Guide to the Star-Lore and
Constellations of Ancient Babylonia, Solaris Publications, Londres, 2008.
Williams, George C., Adaptation and Natural Selection: A Critique of Some
Current Evolutionary Thought, Princeton University Press, Princeton, N. J., Chichester,
1966.
Wilson, Edward O., Consilience: The Unity of Knowledge, Little Brown, Londres,
1998. [Publicado en español bajo el título Consilience: la unidad del conocimiento, Galaxia
Gutemberg, Barcelona, 1999]
—, Sociobiology: The New Synthesis, Belknap Press of Harvard University Press,
Cambridge, MA, Londres, 1975. [Publicado en español bajo el título Sociobiología,
Ediciones Omega, Barcelona, 1980]
Woit, Peter, Not Even Wrong: The Failure of String Theory and the Continuing
Challenge to Unify the Laws of Physics, Jonathan Cape, Londres, 2006.
Wright, Robert, The Moral Animal: Why We Are the Way We Are, Abacus, Londres,
1994.
Zhuangzi, The Book of Zhuangzi traducido al inglés por James Legge, 1891,
http://ctext.org/zhuangzi/knowledge-rambling-in-the-north
GLOSARIO

Las definiciones que siguen a continuación no representan el único significado de


las correspondientes palabras. Son el significado preciso con que se han utilizado a lo largo
del libro y se incorporan aquí para minimizar cualquier malentendido que pudiera surgir en
el texto. Las palabras en cursiva están definidas en otro punto de este Glosario.
A. C.: antes de Cristo; según la convención, antes del año teórico del nacimiento de
Jesús del calendario cristiano.
Abstracción: concepto general formado por la extracción de características
comunes de realidades concretas, casos reales o ejemplos concretos.
ADN: ácido desoxirribonucleico, localizado en las células, contiene las
instrucciones genéticas utilizadas para el mantenimiento y la reproducción de todos los
organismos independientes conocidos y de algunos virus. Una molécula de ADN está
formada por dos largas cadenas con cuatro nucleótidos dispuestos en una secuencia
característica; las cadenas (denominadas comúnmente «hebras») están trenzadas en una
doble hélice y unidas mediante enlaces de hidrógeno entre las bases complementarias de
adenina (A) y timina (T) o citosina (C) y guanina (G), de tal modo que su estructura
recuerda la de una escalera de caracol. Cuando se copia el ADN en una célula, las hebras se
separan y actúan a modo de plantilla para unir una nueva cadena complementaria a partir de
las moléculas de la célula. Las hebras de ADN actúan también como plantillas para la
síntesis de proteínas en la célula a través de un mecanismo que utiliza otro ácido nucleico,
el ARN, como intermediario.
Agujero negro: objeto con un campo gravitatorio tan grande que nada, ni siquiera
la luz, puede escapar de él, puesto que la velocidad exigida para hacerlo excede la de la luz.
La hipótesis plantea que los agujeros negros se formaron a partir del colapso de estrellas
con masas de varios soles cuando su combustible nuclear se agotó. Un agujero negro puede
crecer en masa porque su potente campo gravitatorio absorbe los objetos que lo rodean. La
teoría cuántica sugiere que los agujeros negros emiten radiación de cuerpo negro, pero el
efecto es significativo solo en el caso de agujeros negros muy pequeños.
Altruismo: conducta caracterizada por una preocupación desinteresada por el
bienestar de los demás; abnegación.
Aminoácido: una molécula que consiste en un átomo de carbono enlazado con un
grupo amino (-NH2), un grupo carboxilo (-COOH), un átomo de hidrógeno y un cuarto
grupo que difiere de un aminoácido a otro y que suele denominarse grupo-R o cadena
lateral. El grupo-R, que puede variar mucho, es el responsable de las diferencias en las
propiedades químicas de la molécula.
ARN: el ácido ribonucleico se parece al ADN porque consiste en una cadena de
cuatro nucleótidos dispuestos en una secuencia característica, pero aquí el uracilo (U)
sustituye a la timina (T) que, junto con la adenina (A), la citosina (C) y la guanina (G)
forman las bases de los nucleótidos, y las hebras son únicas, excepto en determinados virus.
Arqueas: procariotas que se diferencian de las bacterias tanto en su composición
genética como en la de sus membranas plasmáticas y sus paredes celulares. Incluyen la
mayoría de los extremófilos. A pesar de ser estructuralmente similares a las bacterias, su
ADN cromosómico y su maquinaria celular se parecen más a los de las eucariotas.
Asteroide: objeto rocoso o metálico, más pequeño que un planeta pero mayor que
un meteoroide, que orbita alrededor del sol u otra estrella; conocido también como planeta
menor. Las órbitas de la mayoría, aunque no todos, los del sistema solar se encuentran entre
las órbitas de Marte y Júpiter.
Astronomía: estudio observacional de lunas, planetas, estrellas, galaxias y
cualquier otra materia que quede más allá de la atmósfera de la Tierra, y de sus
movimientos.
Átomo: la unidad fundamental de un elemento químico. Está formado por un
núcleo central denso consistente en protones con carga positiva y neutrones sin carga, en
torno al cual orbitan nubes de electrones con carga negativa equivalentes en número y carga
a los protones, lo que hace que el átomo sea electrónicamente neutro. El número de
protones determina exclusivamente qué es cada elemento.
Aumento de la complejidad: el proceso que hace que algo sea cada vez más
complejo.
Bacterias: organismos unicelulares extremadamente pequeños cuya información
genética, codificada en un bucle de ADN de doble hebra, no queda encerrada en un núcleo
delimitado por una membrana (y por lo tanto son procariotas). Además de este nucleoide,
la célula puede incluir uno o más plásmidos, hebras circulares de ADN capaces de
replicarse independientemente y que no son responsables de la reproducción del organismo.
Suelen reproducirse dividiéndose en dos y produciendo copias idénticas de sí mismas.
Presentan diversas formas, destacando entre ellas las esferas, las barras, las espirales y las
comas.
Bariones: protones y neutrones, que constituyen la mayor parte de la masa de la
materia común, más una cantidad de partículas de vida corta como Sigmas, Deltas y Xis;
según el modelo estándar de la física de partículas, cada uno de ellos está compuesto por
tres quarks.
Big Crunch: el resultado de un universo en expansión con una densidad de masa
superior a un valor crítico, cuando la gravedad acabará cambiando el sentido de la
expansión y provocando el colapso del universo en el estado que se conjetura que tenía al
principio.
Bosón: partícula subatómica con espín integral (0, 1 y un hipotético 2) que no
obedece el Principio de exclusión de Pauli, lo que significa que el número de bosones que
puede ocupar el mismo estado cuántico es ilimitado.
Brahma: el dios creador de la trinidad védica, cuyos demás miembros son Visnú, el
conservador, y Shiva, el destructor. Posteriormente fue eclipsado por estos dos, No hay que
confundirlo con Brahmán. (Sánscrito)
Brahmán: realidad suprema, que existe fuera del espacio y del tiempo, de la que
mana todo, y en la que consiste todo; interpretada a menudo como la Consciencia Cósmica
o el Espíritu o el Dios Supremo por encima de todas las formas. (Sánscrito).
Cambio de fase: un cambio importante en la conducta de una sustancia. Por
ejemplo, el hielo calentado a 0º Celsius experimenta un cambio de fase de sólido a agua
líquida; el agua líquida calentada a 100º Celsius experimenta un cambio a vapor gaseoso.
Campo escalar: en matemáticas y física, un campo escalar asocia un valor escalar a
todo punto del espacio. El escalar puede ser tanto un número matemático como una
cantidad física.
Catalizador: una sustancia, normalmente utilizada en pequeñas cantidades en
relación con los reactivos, que cambia el ritmo de una reacción química sin experimentar
cambio alguno en ese proceso.
Ciencia: el intento de comprender y explicar los fenómenos naturales mediante la
observación y la experimentación sistemáticas, y preferiblemente mensurables, y de aplicar
el razonamiento al conocimiento obtenido de esta manera para deducir leyes verificables y
realizar predicciones o retrodicciones.
Ciencias de la tierra: las ramas de la ciencia que estudian el origen, la naturaleza y
la conducta de la Tierra y sus partes, incluyendo sus interacciones.
Ciencias de la vida: las ramas de la ciencia que estudian las características de los
organismos vivos (plantas, animales y humanos), así como las relaciones entre dichas
características.
Ciencias físicas: las ramas de la ciencia que estudian los fenómenos inanimados;
incluyen la astronomía, la física, la química y las ciencias de la Tierra.
Ciencias médicas: las ramas de la ciencia que se aplican para conservar la salud,
impedir y tratar enfermedades, y tratar lesiones.
Cientificismo: la creencia de que la ciencia, incorporando métodos de las ciencias
naturales, es el único medio para alcanzar al verdadero conocimiento y a la auténtica
comprensión.
Citoplasma: todo lo que queda en el exterior del núcleo de la célula y dentro de la
membrana celular. Consiste en un líquido gelatinoso con base acuosa denominado citosol,
que contiene sales, moléculas orgánicas y enzimas, y en el que flotan orgánulos, la
maquinaria metabólica de la célula.
Cladística: sistema de clasificación de los seres vivos que se basa únicamente en
las características compartidas por todos los descendientes de un antepasado común. Parte
del supuesto del linaje darwinista con modificación; esta agrupación genealógica en clades
(del griego «rama») produce un cladograma, o árbol familiar con ramas.
Cognición: facultad mental que permite conocer —a través de procesos como la
percepción, el reconocimiento, la revelación, el razonamiento, la memorización o la
concepción— y que se diferencia de las experiencias de sentir o querer.
Colaboración: todas las formas de trabajar conjuntamente, incluyendo la
cooperación y la colectivización.
Colectivización: trabajar conjuntamente de manera involuntaria,
independientemente de que se haga por instinto, por aprendizaje aprendido o por coerción
(véase cooperación).
Cometa: cuerpo pequeño, normalmente de unos pocos kilómetros de diámetro, que
contiene trozos de hielo y gases congelados junto con fragmentos de piedras y polvo
incrustados, y que tiene posiblemente un núcleo rocoso, que se describe a menudo como
una bola de nieve sucia. Los cometas presentan órbitas alargadas y excéntricas,
comúnmente con una inclinación muy superior al plano de la órbita de la Tierra. Cuando
pasan cerca del sol, desarrollan capas gaseosas difusas y largas colas brillantes.
Complejidad: cualidad de ser complejo.
Complejo: un todo compuesto de distintas partes interrelacionadas.
Comprensión: capacidad de captar el significado de las cosas.
Conjetura: opinión o conclusión basada en evidencias incompletas o no
concluyentes; una especulación.
Conocimiento: información sobre alguna cosa adquirida a través de la experiencia,
la inferencia, la revelación o la formación.
Consciencia reflexiva: la propiedad de un organismo por la que es consciente de su
propia consciencia, es decir, no solo lo sabe, sino que además sabe que lo sabe; la
capacidad de un organismo de pensar sobre sí mismo y sobre su relación con el resto del
universo, del que sabe que es parte integrante.
Consciencia: la percepción del entorno, de otros organismos y de uno mismo que
incentiva a la acción; una propiedad compartida por todos los organismos en distintos
grados, desde niveles rudimentarios en organismos muy simples hasta niveles más
sofisticados en organismos con sistemas cerebrales complejos. (Definida de este modo para
diferenciar esta propiedad de la consciencia reflexiva).
Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar objetivos
acordados por todos o por el beneficio mutuo.
Cosmología: el estudio del origen, la naturaleza y la estructura a gran escala del
universo físico, que incluye la distribución y la interrelación de todas las galaxias, cúmulos
de galaxias y objetos cuasi-estelares.
Cosmos: todo lo que existe, incluyendo varias dimensiones hipotéticas adicionales
a las tres dimensiones de espacio y una de tiempo que percibimos, así como otros universos
con los que no tenemos contacto físico y de los que no podemos obtener información
observable o experimental.
Creatividad: la capacidad de utilizar la imaginación para producir cosas nuevas
como ideas, soluciones a problemas, imágenes, sonidos, olores, sabores y artefactos.
Cromosoma: la estructura que contiene la información genética de la célula. En
una célula eucariota, consiste en hebras filiformes de ADN envueltas en una doble hélice
alrededor de un núcleo de proteínas dentro del núcleo de la célula; además de este
cromosoma nuclear, la célula puede contener otros cromosomas más pequeños, por
ejemplo, una mitocondria. En una célula procariota, consiste en un único bucle de ADN
estrechamente enrollado; la célula puede contener también una o más moléculas circulares
y más pequeñas de ADN, lo que se conoce como plásmidos.
Cultura humana: el conocimiento, las creencias, los valores, la organización, las
costumbres, la creatividad expresada en forma de arte y la innovación expresada en forma
de ciencia y tecnología, de una sociedad, aprendido y desarrollado todo ello por sus
miembros y transmitido entre ellos y hacia los miembros de generaciones sucesivas.
D. C.: después de Cristo; según la convención, después del año teórico del
nacimiento de Jesús del calendario cristiano.
Darwinismo: la hipótesis de que todas las especies del mismo género han
evolucionado a partir de un antepasado común. La causa principal de esta evolución
biológica es la selección natural, o supervivencia del mejor adaptado, por la cual los
descendientes cuyas variaciones los hagan mejor adaptados para competir con los demás
miembros de su especie para la supervivencia en un determinado entorno, vivirán más
tiempo y producirán más descendientes que los peor adaptados. Estas variaciones
favorables son hereditarias y, en el transcurso de sucesivas generaciones, acabarán
gradualmente dominando la población de ese entorno, mientras que las variantes peor
adaptadas perecerán en manos de los demás, morirán de hambre o se extinguirán. La
selección sexual de caracteres favorables al apareamiento, y el uso y desuso de órganos, son
también hereditarios y causa de la evolución biológica.
Deducción: proceso de razonamiento en el que la conclusión debe ser cierta si las
premisas, o proposición, son ciertas; inferencia de lo general a lo específico.
Deriva genética: la variación en la frecuencia de alelos (juegos de genes) en una
población pequeña que tiene lugar como consecuencia del azar y no a través de la selección
natural. Puede dar como resultado la pérdida de rasgos genéticos en una población, o la
difusión de otros, independientemente del valor de supervivencia o el valor reproductivo de
dichos rasgos genéticos.
Dharma: palabra sanscrita cuyo origen se encuentra en los Upanishads de la
antigua India y que significa la ley natural que regula y coordina el funcionamiento del
universo y de todo lo que este contiene, asi como la conducta de los individuos en
conformidad con esta ley. El concepto se utiliza en el hinduismo, el budismo y el jainismo.
Dualismo: la especulación o creencia de que el universo consta de dos elementos
constituyentes fundamentales, materia y mente, o consciencia.
Electrón: partícula fundamental que forma parte de todos los átomos. Lleva una
carga de electricidad negativa (aproximadamente 1,6 x 10-19 culombios) y su masa es
aproximadamente 1/1836 la del protón, que lleva una carga de electricidad positiva.
Elemento: sustancia que no puede descomponerse en sustancias más simples por
procedimientos químicos. Todos los átomos del mismo elemento se caracterizan por tener
el mismo número atómico.
Emergencia: la aparición en un todo complejo de una o más propiedades nuevas
que ninguna de sus partes constituyentes presenta. La «emergencia débil» se da cuando las
propiedades nuevas que aparecen en el nivel superior pueden explicarse por la interacción
de las partes constituyentes.
La «emergencia fuerte» se da cuando las propiedades nuevas que aparecen en el
nivel superior no pueden reducirse ni predecirse a partir de la interacción de las partes
constituyentes. La «emergencia de sistemas» se da cuando las propiedades nuevas que
aparecen en el nivel superior interactúan causalmente con propiedades de nivel inferior;
esta causalidad descendente, y también ascendente, suele formar parte de un enfoque
sistémico que, en contraste con el enfoque reduccionista, considera cada componente como
una parte interdependiente del todo.
Endosimbiosis: asociación en la que un organismo pequeño vive en el interior de
uno más grande, normalmente en condiciones de colaboración, en las que un organismo se
alimenta de la excreción metabólica del otro (véanse simbiosis y simbiogénesis).
Entropía: una medida del desorden o desorganización de las partes integrantes de
un sistema cerrado; una medida de la energía que no está disponible para ser utilizada.
Cuanto menor sea la entropía, mayor será la organización de sus partes integrantes y, en
consecuencia, habrá más energía disponible para su utilización y podrá obtenerse más
información a partir de la observación de su configuración. Con niveles de entropía
máximos, la configuración es aleatoria y uniforme, sin estructura ni energía disponible para
su utilización; esto ocurre cuando el sistema ha alcanzado un estado de equilibrio. Se
expresa estadísticamente como:
S = k ln Ω
Donde S representa la entropía, k es una constante, conocida como la constante de
Boltzmann por el científico que formuló la ecuación, ln es un logaritmo natural y Ω es el
número de las distintas maneras en que puede producirse un estado de equilibrio.
Enzima: catalizador biológico, o elemento químico, que acelera la velocidad de
una reacción química sin ser consumido por dicha reacción. Estos catalizadores son
esenciales para el funcionamiento de cualquier organismo porque hacen posibles procesos
que, de otro modo, se producirían con una lentitud excesiva sin la entrada de energía
(medida a partir de un incremento de temperatura) necesaria para activar la reacción, y
dañarían o destruirían el organismo.
Epigenética: el estudio de los mecanismos de la regulación genética que causan
cambios en el fenotipo de un organismo pero no implican ningún cambio en las secuencias
de ADN de dichos genes.
Epistemología: la rama del razonamiento que investiga la naturaleza, las fuentes, la
validez, los límites y los métodos del conocimiento humano.
Equinoccio: los dos días del año en que el sol se sitúa exactamente encima del
ecuador y el día y la noche tienen aproximadamente la misma duración sobre la Tierra. El
equinoccio vernal se produce alrededor del 21 de marzo y el equinoccio otoñal en torno al
22 de septiembre.
Escalar: una cantidad, como la masa, la longitud o la velocidad, que está totalmente
especificada por su magnitud y no tiene dirección.
Especie: población de organismos cuyos caracteres hereditarios definitorios adultos
han experimentado un cambio irreversible con relación a los de la población o poblaciones
a partir de las cuales ha evolucionado.
Especulación: idea o conclusión basada en evidencias incompletas o no
concluyentes; una conjetura.
Estética: la rama del razonamiento que intenta comprender y comunicar la esencia
de la belleza en la naturaleza y en las creaciones humanas.
Ética: la rama del razonamiento que evalúa la conducta humana e intenta producir
códigos que gobiernen la buena conducta entre individuos, entre un individuo y un grupo
de individuos (como podría ser una sociedad o un estado), y entre grupos de individuos.
Eucariotas: organismos cuyas células incorporan un núcleo delimitado por una
membrana y que contiene la información genética de la célula, además de orgánulos, que
son estructuras discretas que realizan funciones concretas. Más grandes y tanto estructural
como funcionalmente más complejas que las procariotas, comprenden organismos
unicelulares, como las amebas, y todos los organismos multicelulares, como las plantas, los
animales y el ser humano.
Evolución: proceso de cambio que afecta a alguna cosa, especialmente de un estado
sencillo a otro más complejo (véase también evolución biológica).
Evolución biológica, cuarta ley de la: el aumento de la consciencia se correlaciona
con un aumento de la colaboración, la complejidad y la centralización.
Evolución biológica, primera ley de la: la competencia y el rápido cambio
medioambiental causaron la extinción de especies.
Evolución biológica, segunda ley de la: la colaboración causa la evolución de las
especies.
Evolución biológica, tercera ley de la: los seres vivos evolucionan mediante el
aumento de la complejidad y la centralización a lo largo de linajes que se fusionan, bifurcan
y que desembocan en estasis en todos, excepto en un linaje.
Evolución biológica: proceso de cambio que experimentan los organismos y que da
como resultado una nueva especie.
Extinción filética o pseudoextinción: una especie evoluciona en una o más nuevas
especies; la primera especie se ha extinguido, pero el linaje evolutivo continúa.
Extinción terminal: una especie deja de existir sin dejar ningún descendiente
evolucionado.
Extremófilo: organismo que vive en condiciones extremas de calor, presión o
entorno químico, como alta acidez o concentración de sal.
Fenómeno: algo que puede percibirse o experimentarse mediante los sentidos.
Fenotipo: características observables de un organismo, como forma, tamaño, color
y conducta.
Filogenética: estudio de las relaciones evolutivas entre grupos de organismos, en
particular de los patrones de ramificación de los distintos linajes.
Filosofía natural: la rama del razonamiento que investiga e intenta comprender el
mundo natural que perciben nuestros cinco sentidos, así como su funcionamiento.
Filosofía: amor a la sabiduría; la reflexión sobre la realidad suprema, la esencia y la
causa de las cosas y de la existencia, el mundo natural, la conducta humana y el
pensamiento en sí a través de la revelación o el razonamiento.
Física: la rama de la ciencia que investiga la materia, la energía, la fuerza y el
movimiento, y la interacción entre todos ellos.
Fisicalismo: la especulación o creencia de que solo la materia física es real y que
todo lo demás, como la mente, la consciencia o los pensamientos, acabarán explicándose
como objetos físicos o sus interacciones; conocido también como materialismo, incorpora
una visión más amplia de la fisicidad que la materia, por ejemplo, fuerzas no materiales
como la gravedad, que surgen de la materia.
Fisión binaria: división de una célula en dos, en la que cada célula resultante es
idéntica a la célula original y suele alcanzar su mismo tamaño.
Fotón: un cuanto de luz u otra forma de energía electromagnética que posee
propiedades tanto de partícula como de onda y tiene masa cero, no posee carga eléctrica y
tiene un tiempo de vida indefinidamente largo.
Gen: la unidad fundamental de la herencia, que normalmente comprende segmentos
de ADN (en algunos virus son segmentos de ARN, no de ADN); la secuencia de las bases de
cada gen determina las características hereditarias individuales, codificando para la síntesis
de proteínas. Los segmentos suelen estar dispersos, de modo que algunas partes se
encuentran en regiones lejanas del cromosoma y se solapan con otros genes.
Genoma: la totalidad del contenido genético de un organismo consistente en hebras
largas, llamadas cromosomas, de moléculas de ADN o, en determinados virus, de ARN.
Incluye los genes, las regiones de codificación del ADN que se traducen en proteínas y
moléculas de ARN, así como regiones reguladores y no codificantes.
Genotipo: la composición genética de un organismo, a diferencia de sus
características físicas (véase fenotipo).
Gravedad cuántica: la esperada teoría de la gravedad cuántica que permitiría que
la energía gravitatoria se unificara con otras formas de energía en único marco teórico
cuántico.
Gravedad: fenómeno natural por el que los cuerpos físicos se atraen mutuamente a
causa de una fuerza proporcional a su masa, descrita por Newton pero modificada por la
teoría de la relatividad. Véase interacción gravitatoria.
Herencia epigenética: transmisión de una célula madre a una célula hija, tanto por
replicación asexual como por reproducción sexual, de variaciones que dan lugar a
variaciones en los caracteres de un organismo pero que no implican variaciones en las
secuencias de base del ADN.
Hipótesis: teoría provisional planteada para explicar un fenómeno o un conjunto de
fenómenos y utilizada como base de posteriores investigaciones; suele llegarse a ella bien
por revelación, bien por razonamiento inductivo después de examinar evidencias
incompletas y puede ser susceptible de ser falsa.
Homogéneo: que tiene una composición o estructura uniforme. Un universo
homogéneo es el mismo en todos sus puntos.
Horizonte de partículas: es imposible estar causalmente influidos, obtener
información e interactuar con toda partícula, independientemente de que tenga masa
positiva o masa cero, que esté más alejada de nosotros que la distancia que pueda recorrerse
a la velocidad de la luz desde que empezó el tiempo.
Horizonte visual: según el modelo del Big Bang, solo podemos retroceder hasta el
momento de la escisión entre materia y radiación electromagnética (estimado actualmente
380.000 años después del Big Bang) porque antes de eso los fotones estaban dispersos por
la interacción continua del plasma inicial, lo que hacía que el universo fuera opaco.
Humano: la única especie conocida que posee consciencia reflexiva.
Idealismo: la especulación o creencia de que las cosas materiales no existen
independientemente sino que existen solo como construcciones de la mente o consciencia.
Imaginación: capacidad de la mente para formar imágenes, sensaciones e ideas no
vistas ni experimentadas hasta el momento, incluyendo cosa que nunca podrán
experimentar los sentidos, como un hombre con la cabeza de un león.
Inducción: método consistente en recopilar hechos, detectar un patrón y establecer
una conclusión generalizada, o ley, basada en ese patrón; la conclusión puede ser cierta,
pero no es necesariamente cierta como lo es una conclusión a la que se llega por deducción
a partir de premisas válidas.
Inferencia: proceso de razonamiento a partir de premisas o hechos conocidos que
produce una conclusión que puede ser necesariamente o probablemente cierta (véase
deducción e inducción).
Ingeniería: la aplicación del conocimiento del mundo natural, normalmente
obtenido a través de la ciencia, para concebir medios de alcanzar los objetivos deseados.
Instinto: respuesta innata e impulsiva a los estímulos, normalmente determinada
por necesidades biológicas como la supervivencia y la reproducción.
Intelecto: capacidad de aprender, razonar y comprender.
Inteligencia: capacidad de adquirir conocimientos y aplicarlos con éxito con un
objetivo, especialmente en situaciones desafiantes y nuevas.
Interacción débil: una de las cuatro fuerzas fundamentales entre las partículas
elementales de la materia (véase interacción electromagnética, interacción fuerte e
interacción gravitatoria). Juega un papel trascendental en la transformación de unas
partículas en otras, por ejemplo, a través de la desintegración radiactiva. Es la responsable
de transformar un electrón y un protón en un neutrón y un neutrino, una fase fundamental
de las reacciones nucleares. Es varias órdenes de magnitud más débil que la interacción
electromagnética y mucho más débil que la interacción fuerte, mientras que su rango es de
en torno a una milésima de diámetro de un núcleo atómico.
Interacción electromagnética: la fuerza asociada con los campos eléctricos y
magnéticos, que son manifestaciones de un único campo electromagnético. Gobierna la
interacción entre dos partículas cargadas eléctricamente, como un protón y un electrón, y es
responsable de las interacciones químicas y de la propagación de la luz. Igual que sucede
con la interacción gravitatoria, su alcance es infinito y su fuerza es inversamente
proporcional al cuadrado de la distancia entre partículas; pero a diferencia de la interacción
gravitatoria, puede ser tanto atractiva, cuando las dos cargas son distintas (positiva y
negativa) como repulsiva, cuando las dos cargas son iguales (ambas positivas o ambas
negativas). La interacción electromagnética entre átomos es 1036 veces más fuerte que su
interacción gravitatoria. Según el modelo estándar de la física de partículas, opera por el
intercambio de una partícula mensajera, o intermediario, el fotón sin masa, de la que existe
evidencia experimental.
Interacción fuerte: una de las cuatro interacciones fundamentales entre partículas
elementales de materia (véase interacción electromagnética, interacción débil e interacción
gravitatoria). Se cree que es la fuerza que mantiene unidos a los quarks para que forman
protones, neutrones y otros hadrones, y que une a protones y neutrones para que formen el
núcleo del átomo, superando con ello la repulsión eléctrica de los protones con carga
positiva. Su rango es aproximadamente el de un núcleo atómico y a estas distancias su
fuerza es de unas 100 veces la de la fuerza electromagnética.
Interacción gravitatoria: en la física newtoniana, es una fuerza instantánea de
interacción entre todas las partículas de masa. Es la única universal de las cuatro
interacciones fundamentales (véase interacción electromagnética, interacción fuerte e
interacción débil). Su alcance es infinito, siempre es atractiva y se obtiene multiplicando
las masas y dividiendo el producto obtenido por el cuadrado de la distancia entre los
centros de masa de las partículas y multiplicando el resultado por la constante universal, G,
lo que se conoce como la constante gravitatoria de Newton. Matemáticamente:
F = G m1m2

———

r2

Donde F es la fuerza gravitatoria, m1 y m2 son las masas, r es la distancia entre los


centros de masa y la constante, G, es un número increíblemente pequeño: 6,67 x 10-11
metros3 (kg-seg2)-1. En la teoría de la relatividad, sin embargo, no es una fuerza sino una
deformación del tejido espacio-tiempo provocada por la masa y no es instantánea.
Inventiva: la capacidad de crear objetos nuevos, bien por la utilización creativa de
la imaginación, bien por el proceso de prueba y error.
Ion: átomo que ha perdido o ganado uno o más electrones y, en consecuencia, tiene
una carga positiva o negativa.
Isótopo: los átomos con el mismo número atómico pero con un número distinto de
neutrones —y, por lo tanto, una masa distinta, son isótopos del elemento.
Isotrópico: que tiene propiedades físicas que no varían en ninguna dirección. Un
universo isotrópico es aquel que parece ser el mismo en cualquier dirección; si el universo
es isotrópico cuando se observa desde cualquier punto, será necesariamente homogéneo.
Lenguaje: comunicación de sentimientos, narraciones, explicaciones o ideas a
través de una estructura compleja de símbolos aprendidos hablados, escritos o de signos,
que transmite un sentido en el seno de la cultura en la que se utiliza.
Leptón: grupo de partículas fundamentales que no participa en la interacción
fuerte. Un leptón puede llevar una unidad de carga eléctrica, como un electrón, o ser
neutral, como el neutrino.
Ley de interpretación de los datos. El grado en el cual un científico se distancia de
una interpretación objetiva de los datos de su investigación es función de cuatro factores: su
determinación por validar una hipótesis o confirmar una teoría; el tiempo que la
investigación ha ocupado en su vida; su grado de inversión emocional en el proyecto; y su
necesidad profesional de publicar un documento importante o salvaguardar su reputación.
Ley, científica o natural: una afirmación sucinta y general, capaz de ser verificada
mediante observación o experimentación y respecto a la cual no se han documentado
resultados contrarios repetibles, según la cual un conjunto de fenómenos naturales se
comporta invariablemente de manera idéntica dentro de los límites especificados.
Normalmente se expresa mediante una única ecuación matemática. El resultado de aplicar
una ley puede predecirse si se conocen los valores de aquellas variables que especifican el
fenómeno concreto a considerar. Véase también principio y teoría.
Lógica: la rama del razonamiento que intenta distinguir de manera sistemática las
inferencias válidas de aquellas que no lo son concibiendo reglas para el razonamiento
inductivo y deductivo, principalmente.
Longitud de Planck (lp): la unidad de longitud más pequeña de cualquier teoría
cuántica de la gravedad; por debajo de esta longitud, las fluctuaciones cuánticas son
incompatibles con el continuo espacio-tiempo de la teoría de la relatividad. Se expresa
matemáticamente como: lp = √ (h–G/c3) y es aproximadamente de 10-35 metros (véase
Unidades de Planck para una explicación de los símbolos).
MACHO: los objetos masivos de halo compacto (MACHO del inglés «Massive
Compact Halo Objects») son formas de materia densa —como los agujeros negros, las
enanas marrones y otras estrellas tenues— que los astrofísicos utilizan para explicar la
materia oscura. Véase también WIMP.
Masa de Planck (mp): la masa de la partícula elemental hipotéticamente más
masiva; con una masa mayor que esta, la partícula elemental se vería superada por su
propia fuerza gravitatoria y colapsaría en un agujero negro. Se expresa matemáticamente
como: mp = √ (h–c/G) y es aproximadamente de 1019 GeV o 10-5 gramos (véase
Unidades de Planck para una explicación de los símbolos).
Materialismo: la especulación o creencia de que solo las cosas o fenómenos
materiales son reales y que todo lo demás, como la mente, la consciencia o los
pensamientos, acabarán explicándose como objetos físicos o sus interacciones. (Véase
fisicalismo.)
Mecánica cuántica: la teoría que explica la conducta de la materia a escala de un
átomo o inferior y que se basa en la teoría cuántica e incorpora el principio de
incertidumbre de Heisenberg y el principio de exclusión de Pauli.
Megaverso: un hipotético universo con más dimensiones en el que estaría
incrustado nuestro universo de tres dimensiones espaciales. Algunas especulaciones
defienden que el cosmos comprende muchos megaversos.
Mente: lo que concibe, percibe, razona, desea y recuerda.
Metafísica: la rama del razonamiento que investiga e intenta comprender la
realidad suprema o la esencia y la causa de todas las cosas, tanto materiales como
inmateriales.
Meteorito: cuerpo sólido natural que alcanza la superficie de la Tierra o de otro
planeta después de atravesar la atmósfera.
Meteoro: un rayo de luz en el cielo nocturno causado por un cuerpo sólido natural,
conocido como un meteoroide, calentado hasta su incandescencia por la fricción cuando
atraviesa la atmósfera de la Tierra o de otro planeta.
Meteoroide: cuerpo sólido natural que atraviesa la atmósfera de la Tierra o de otro
planeta.
Método científico (teórico):
1. Los datos se recopilan mediante la observación sistemática, o la experimentación,
del fenómeno objeto de estudio.
2. A partir de estos datos se obtiene una conclusión provisional, o hipótesis.
3. Las predicciones deducidas a partir de esta hipótesis se someten a test mediante
más observaciones o experimentos.
4. Si los test confirman las predicciones, y verificadores independientes reproducen
estas confirmaciones, la hipótesis se acepta como teoría científica hasta que llega el
momento en que nuevos datos entran en conflicto con la teoría.
5. Si aparecen nuevos datos que entran en conflicto con la teoría, la teoría se
modifica o se descarta a favor de una nueva hipótesis que es consistente con todos los
datos.
Mito: relato tradicional, ficticio en parte o en su totalidad, que suele incluir seres
sobrenaturales, antepasados o héroes y que explica algún fenómeno social o natural o
alguna práctica cultural o religiosa.
Mitocondria: orgánulo recubierto por una membrana localizado en el citoplasma
de casi todas las células eucariotas; su principal función es generar energía.
Modelo: versión simplificada de una teoría construida para facilitar su cálculo o su
representación visual.
Modelo estándar de física de partículas: pretende explicar la existencia y las
interacciones de todo lo que observamos en el universo, excepto la gravedad, en términos
de partículas fundamentales y sus movimientos. En la actualidad describe 17 tipos de
partículas fundamentales, que se agrupan en quarks, leptones o bosones. Cuando se tienen
en cuenta las variaciones de antipartículas y bosones, el número total de partículas
fundamentales asciende a 61.
Molécula: la unidad física más pequeña de una sustancia capaz de existir
independientemente y consiste en uno o más átomos enlazados por compartición de
electrones y es eléctricamente neutral.
Monismo neutral: la especulación o creencia de que tanto lo mental como lo físico
puede reducirse a algún tipo de tercera entidad.
Monismo: la especulación o creencia de que todo lo que existe está formado, y es
reducible, a la misma realidad suprema o principio de existencia. Puede dividirse en
materialismo (o fisicalismo), idealismo y monismo neutral. Contrasta con el dualismo y el
pluralismo.
Monopolo magnético: partícula hipotética que solo tiene un polo de carga
magnética (un polo norte sin un polo sur o viceversa) en vez de los habituales dos.
Moralidad: la costumbre de mantener una buena o mala conducta.
Morfología: tamaño, forma y estructura de un organismo; su estudio.
Multiverso: un cosmos hipotético que contiene nuestro universo más múltiples, e
incluso infinitos, universos con los que no tenemos contacto físico y de los que no podemos
obtener información observable o experimental. Se han propuesto distintos tipos de
multiverso, cada uno con distintas propiedades.
Neodarwinismo: la síntesis de la selección natural darwinista con las teorías
mendelianas y la genética de poblaciones, en la que variaciones genéticas aleatorias son las
responsables de los caracteres que hacen que los individuos de la población de una especie
estén mejor adaptados para competir por los recursos de su entorno, sobrevivir más tiempo
y producir más descendencia. Estos genes favorables se heredan en cantidades cada vez
mayores, haciendo que el acervo génico —el total de genes de la población— varíe
gradualmente en el transcurso de muchísimas generaciones hasta que se produce la
emergencia de una nueva especie. Los miembros de la población que carecen de las
variaciones genéticas responsables de estos caracteres adaptativos acaban pereciendo en
manos de los demás, mueren de hambre o se extinguen gradualmente en ese entorno.
Neurona: célula eucariota especializada en responder a la estimulación y la
conducción de impulsos electroquímicos.
Neutrón: partícula subatómica eléctricamente neutra que se encuentra en el núcleo
de todos los átomos con la excepción del hidrógeno común. En los núcleos ligeros, la
configuración estable consiste en neutrones y protones en cantidades casi iguales, pero a
medida que los elementos se vuelven más pesados, los neutrones superan en número a los
protones. A pesar de que un neutrón es estable dentro del núcleo, un neutrón libre tiene una
vida media de unos 15 minutos y se descompone para producir un protón, un electrón y un
antineutrino.
Noético: de la mente, perteneciente a ella u originado en ella.
Número atómico: el número de protones de un átomo, indicado por Z; es el
número que determina fundamentalmente qué es el elemento y lo distingue de otros
elementos.
Ontogénesis u ontogenia: origen y desarrollo de un organismo individual, desde el
embrión hasta convertirse en adulto.
Ontología: subrama de la metafísica que investiga lo que existe.
Ortogénesis: la hipótesis de que la evolución biológica posee una dirección causada
por fuerzas intrínsecas; su versiones van desde aquellas que sostienen que la adaptación
juega también un papel destacado en la evolución de las especies, hasta la postura de que la
adaptación solo influye las variaciones dentro de una misma especie, pasando por la que
defiende que esa dirección demuestra la existencia de un fin o propósito en la evolución
biológica.
Paradigma: patrón dominante de pensamiento y supuestos, incuestionables en gran
medida, que integra una disciplina científica, dentro del que se desarrollan las
investigaciones y según el cual se interpretan los resultados.
Parámetro: en ciencias, y en términos generales, uno de entre varios conjuntos de
factores mensurables —como, por ejemplo, la temperatura y la presión— que define un
sistema y determina su conducta; en un experimento, un parámetro suele variarse mientras
los otros permanecen constantes. En matemáticas, donde es el instrumento preferido por los
físicos teóricos, es una constante en una ecuación que varía en otras ecuaciones del mismo
formato.
Partogénesis: desarrollo de un óvulo hasta convertirse en cría sin que se produzca
la fecundación por parte de un macho.
Pensamiento: el proceso de aplicar la mente para profundizar en algo; el resultado
de este proceso.
Pensamiento científico: la tercera fase de la consciencia reflexiva, en la que la
reflexión sobre el yo y su relación con el resto del universo se ramifica hacia el empirismo.
Pensamiento filosófico: la segunda fase de la consciencia reflexiva, cuando la
reflexión sobre el yo y su relación con el resto del universo se aleja de la superstición para
adentrarse en la filosofía.
Pensamiento primitivo: la primera fase de la consciencia reflexiva en la que la
reflexión sobre el individuo y su relación con el resto del universo se centra principalmente
en la supervivencia y la superstición.
Pensar: aplicar la mente, sea por razonamiento o por revelación, a alguna cosa, a
diferencia de responder a ello por instinto.
Péptido: cadena de dos o más aminoácidos formada por la unión química del grupo
carboxilo de un aminoácido y el grupo amino de otro aminoácido.
Planeta: objeto de masa y volumen aproximadamente constantes que normalmente
orbita alrededor de una estrella o de un resto estelar, posee una masa suficiente para que su
campo gravitatorio le dé una forma aproximadamente esférica pero insuficiente como para
provocar la fusión termonuclear de su núcleo, y no es un satélite de otro planeta; ha
limpiado su zona orbital de planetesimales y otros desechos y puede tener parte de los
mismos en órbita a su alrededor en forma de lunas o anillos de polvo.
Plasma: fase de la materia que comprende gas ionizado con núcleos de átomos
(iones) con carga positiva, electrones libres con carga negativa y partículas neutras, sin una
carga neta general; es conductivo eléctricamente y está afectado por campos magnéticos.
Plásmido: molécula circular de ADN, a veces de ARN, localizada en el citoplasma
de la mayoría de procariotas y en la mitocondria de algunas eucariotas. Se replican
independientemente del cromosoma de la célula.
Pluralismo: especulación o creencia de que la realidad consiste en numerosos tipos
de seres o sustancias.
Poliploide: que posee más de dos conjuntos de cromosomas en una célula.
Prana: energía vital, el poder de la vida; el sustrato esencial de todas las formas de
energía. (Sanscrito)
Primera ley de la termodinámica: la variación de la energía de un sistema cerrado
que utiliza o produce calor es igual a la diferencia entre la cantidad de energía calorífica
incorporada al sistema y la cantidad de trabajo intercambiada por el sistema con sus
alrededores. Se trata de una aplicación específica del Principio de conservación de la
energía.
Principio de conservación de la energía: la energía no se crea ni se destruye; la
energía total de un sistema aislado permanece constante, aunque puede transformarse de
unas formas a otras.
Principio de exclusión de Pauli: no puede haber dos electrones de un átomo o
molécula con los cuatro números cuánticos iguales. En términos más generales, en un
sistema no puede haber al mismo tiempo dos fermiones (un tipo de partículas que incluye
electrones, protones y neutrones) en estados caracterizados por los mismos números
cuánticos.
Principio de incertidumbre (Heisenberg): principio de la mecánica cuántica que
cuánto más seguros estemos de la medición de la posición de un objeto, menos seguros
estaremos de la medición simultanea de su velocidad. Esto aplica también a la medición de
la energía de un objeto en un momento concreto. Para los objetos visibles, el producto de
estas dos incertidumbres es tan pequeño que puede ignorarse. Sin embargo, en el caso de
objetos con la masa de un átomo o incluso inferior, como podría ser un electrón, la
incertidumbre resulta significativa.
Principio del aumento de entropía: durante cualquier proceso que tenga lugar en
un sistema aislado, la entropía se mantiene constante o, normalmente, se incrementa; por
ejemplo, el desorden aumenta, la energía disponible disminuye y la información se pierde
con el paso del tiempo, a medida que el sistema avanza hacia un estado de equilibrio.
Principio, científico o natural: una ley considerada fundamental y universalmente
cierta. Por ejemplo, la primera ley de la termodinámica aplica al trabajo y a la energía
calorífica, mientras que el principio de conservación de la energía aplica a todas las formas
de energía.
Procariota: célula que no tiene su material genético encerrado en su interior
mediante una membrana.
Proteína: molécula consistente en una cadena formada por entre cincuenta y varios
miles de aminoácidos que proporciona estructura a todas las células y controla reacciones.
Una proteína se caracteriza por la secuencia formada por los hasta los veinte tipos distintos
de aminoácidos que integran la cadena, más la configuración tridimensional de dicha
cadena.
Protón: particular subatómica estable que lleva una carga de electricidad positive y
constituye el núcleo de un átomo de hidrógeno. Los protones, junto con los neutrones —
algo más masivos— se encuentran en el núcleo de todos los átomos y el número de
protones define el elemento químico.
Psicología: la rama de la ciencia que investiga los procesos mentales y las
conductas de individuos y grupos.
Quark: grupo de partículas fundamentales que crean protones, neutrones y otras
partículas que perciben la interacción fuerte.
Química: la rama de la ciencia que investiga las propiedades, la composición y la
estructura de las sustancias y los cambios que experimentan cuando se combinan o
reaccionan en determinadas condiciones.
Razonamiento: intento de comprender la esencia de una cosa a través de un
proceso lógico, basado en evidencias o en supuestos tomados como obvios.
Reduccionismo: método que consiste en desglosar algo en las distintas partes que
lo componen para comprender en qué consiste y cómo funciona; la creencia de que todo
puede comprenderse y explicarse estudiando las partes que lo constituyen y cómo
interactúan. (Véase, por contraste, emergencia)
Regla: indicación para que los científicos lleven a cabo un procedimiento o
solucionen un problema, a diferencia de una ley que siguen los fenómenos naturales (la
naturaleza obedece a leyes, los científicos emplean reglas).
Religión: organización establecida para conservar, interpretar, aplicar, enseñar y,
normalmente, divulgar las revelaciones, creencias y exhortaciones resultantes de la persona
considerada su fundadora. Los miembros de la organización aceptan las verdades e
interpretaciones de estas revelaciones como cuestiones de fe. La organización se asegura la
fidelidad y la cohesión de sus miembros mediante tres métodos: inculcación, sobre todo de
los jóvenes; reglas, cuyo quebrantamiento supone castigos; y ritual, la práctica que genera
satisfacción emocional.
Retrodicción: un resultado que se ha producido en el pasado y que se deduce o
predice a partir de una ley o teoría científica posterior.
Revelación: ver con claridad la esencia de una cosa, normalmente de forma
repentina después de una meditación disciplinada o después de un intento infructuoso de
llegar a su comprensión a través del razonamiento. (Para tipos de revelación, véase
revelación mística, revelación espiritual, revelación científica, revelación matemática,
revelación psicológica, revelación ética y revelación artística. A modo de contraste, véase
razonamiento.)
Revelación artística: la comprensión directa que da como resultado la creación de
obras visuales, musicales o escritas bellas o capaces de provocar el pensamiento.
Revelación científica: la comprensión directa de la esencia o las causas de los
fenómenos naturales, sus interacciones u otras relaciones y, a menudo, de las reglas que
gobiernan estas interacciones o relaciones.
Revelación espiritual: supuesta revelación por parte de un dios o Dios, o su
mensajero, que suele exhortar a su receptor a defender un determinado proceder entre los
creyentes en la deidad.
Revelación ética: la comprensión directa de cómo, y a menudo por qué, los
humanos deberían comportarse como individuos o como grupo con respecto a otros
individuos y otros grupos.
Revelación matemática: la comprensión directa de las propiedades, o de las
relaciones, entre números, formas reales y abstractas y, a menudo, de las reglas que
gobiernan estas relaciones.
Revelación mística: la comprensión directa de la realidad suprema; la esencia y la
causa de todas las cosas.
Revelación psicológica: la comprensión directa de por qué y cómo los individuos,
o grupos de individuos, piensan y se comportan como lo hacen.
Ribosoma: partícula redonda compuesta por ARN y proteínas que se encuentra en
el citoplasma de las células. Actúa a modo de lugar de reunión de las proteínas y traduce el
código genético lineal que transporta un ARN mensajero y lo transforma en una secuencia
lineal de aminoácidos.
Segunda ley de la termodinámica: el calor nunca pasa espontáneamente de un
cuerpo frío a un cuerpo caliente; la energía siempre va de las formas más utilizables a las
menos utilizables. Se trata de una aplicación específica del Principio de aumento de
entropía.
Selección natural (darwinista y neodarwinista): el efecto acumulativo de
pequeñas variantes, producidas aleatoriamente y heredadas a lo largo de muchísimas
generaciones, que permite a los organismos sobrevivir más tiempo en un entorno particular
y reproducirse en mayor cantidad que los organismos que no poseen estas variantes; da
como resultado un incremento en el número de las variantes favorables, o mejor adaptadas,
a ese entorno y la eliminación de las variantes desfavorables. Véase también darwinismo,
neodarwinismo y ultradarwinismo.
Simbiogénesis: fusión de organismos distintos para formar un nuevo organismo
más complejo (véase endosimbiosis).
Simbiosis: asociación física de dos o más tipos distintos de organismos a lo largo de
la mayor parte de la vida de uno de ellos.
Singularidad: región hipotética en el espacio-tiempo donde la fuerza de la
gravedad hace que una masa finita quede comprimida en un volumen infinitamente
pequeño, y por lo tanto tenga una densidad infinita, y donde el espacio-tiempo queda
infinitamente distorsionado.
Sistema nervioso: un grupo organizado de células, llamadas neuronas,
especializadas en la conducción de estímulos electroquímicos a través de una red nerviosa,
desde un receptor sensorial hasta un efector, lugar en el cual se produce una respuesta.
Solsticio: momento (21 de junio o 22 de diciembre) en el cual el sol está más al
norte o más al sur del ecuador celeste de la Tierra y parece quedarse quieto hasta que
regresa hacia el ecuador. El día más largo coincide con el solsticio de verano, mientras que
el día más corto lo hace con el solsticio de invierno.
Superstición: creencia que entra en conflicto con las evidencias o que carece de
base razonable y que suele surgir como consecuencia de una falta de comprensión de los
fenómenos naturales o del miedo a lo desconocido.
Tao: realidad suprema, inefable; el Camino por el que todo cobra existencia y se
manifiesta en el Camino mediante el cual funciona el cosmos. (Chino)
Taxonomía: clasificación jerárquica de los organismos en grupos según los
caracteres que tienen en común, empezando por los más generales hasta llegar a los más
específicos.
Tecnología: La invención, creación y utilización de herramientas o máquinas para
solventar un problema.
Teoría: explicación de un conjunto de fenómenos que ha quedado confirmada por
diversos experimentos y observaciones y que se utiliza para realizar predicciones o
retrodicciones precisas sobre dichos fenómenos. Véase también hipótesis, modelo, ley y
principio.
Teoría cuántica: la teoría de que la energía es emitida y absorbida por la materia en
cantidades minúsculas y discretas, cada una de las cuales se conoce como un cuanto que
está relacionado con la frecuencia de radiación de la energía y, por consiguiente, posee
propiedades tanto de las partículas como de las ondas. Dio lugar a la mecánica cuántica. El
término se utiliza ahora en general para hacer referencia a todos los desarrollos teóricos
subsecuentes.
Tercera ley de la termodinámica: la entropía a temperatura cero absoluto de un
cristal perfectamente ordenado es igual a cero.
Tiempo de Plank (tp): el tiempo que tarda la luz en viajar una longitud de Planck.
Se expresa matemáticamente como: tp = √ (h–G/c5) y es aproximadamente de 10-43
segundos (véase Unidades de Planck para una explicación de los símbolos).
Ultradarwinismo: cualquier hipótesis que emplee el concepto de la evolución de
cosas que no sean organismos por medio de la selección natural y en la que el efecto
acumulativo de pequeñas variaciones aleatorias en los caracteres de esas cosas, o en los
caracteres causados por esas cosas, las haga, a lo largo de numerosas generaciones, cada
vez mejor adaptadas para competir por la supervivencia y la reproducción en su entorno.
Unidades de Planck: un sistema de escalas absolutas de medida elegidas para que
las constantes físicas universales sean igual a uno, concretamente: G = c = k = h– = 1,
donde G es la constante de gravitación universal de Newton, que mide la fuerza de la
gravedad; c es la velocidad de la luz constante; k es la constante de Boltzmann, que mide la
entropía, o grado de desorganización, de un sistema cerrado; h– es la constante de Planck,
h, que mide la escala de los fenómenos cuánticos, dividida por 2π. En consecuencia, estas
constantes desaparecen de las ecuaciones de las leyes físicas que utilizan estas escalas.
Universo: toda la materia y energía que existe en la única dimensión de tiempo y
las tres dimensiones de espacio que perciben nuestros sentidos; es distinto al universo
observable y al cosmos.
Universo observable: la parte del universo que contiene materia capaz de ser
detectada mediante la observación astronómica. Según la cosmología ortodoxa actual,
queda circunscrito por la velocidad de la luz y por el tiempo, puesto que la materia y la
radiación se escindieron unos 380.000 años después de que el universo empezara a existir a
partir del Big Bang.
Upanishad: relato de las enseñanzas de un vidente de la Antigua India surgido a
partir de sus revelaciones místicas. Tradicionalmente, van unidos al final de uno de los
Vedas, pero se ocupan de aspectos de realidad suprema más que de asuntos relacionados
con la veneración a los dioses. (Sánscrito)
Veda: sabiduría revelada; concretamente, una de las cuatro colecciones que forman
las escrituras hindúes. Se utiliza con frecuencia para hacer referencia a la primera parte, y
también la más antigua, de cada colección, la samhita, una recopilación de himnos a los
dioses. (Sánscrito)
Vida: la capacidad de una entidad cerrada de responder a los cambios que se
producen dentro de sí misma y en su entorno, de extraer energía y materia de su entorno y
de convertir esa energía y esa materia en una actividad dirigida internamente que incluya el
mantenimiento de su propia existencia.
Voluntad: utilización de la mente para tomar decisiones sobre cosas.
WIMP: las partículas masivas de interacción débil (WIMP, del inglés «Weakly
Interacting Massive Particles») son partículas dejadas por el Big Bang —como los
neutrinos, con una masa que multiplica por cien la del protón, y otros— que los físicos de
partículas utilizan para explicar la materia oscura. Véase también MACHO.
CRÉDITOS DE LAS ILUSTRACIONES

Figuras 3.2 y 3.3 de The Inflationary Universe © 1997, Alan Guth, con la debida
autorización por parte del autor.
Figura 4.1, NASA.
Figura 5.1 de A Brief History of Time © 1988, Stephen Hawking con la debida
autorización de Writers House LLC, en nombre del autor.
Figura 5.2 de Facts and Speculations in Cosmology © Jayant Narlikar y Geoffrey
Burbidge, 2008 con la debida autorización de Jayant Narlikar.
Figura 5.3 con la debida autorización de Paul Steinhardt.
Figura 8.1 From The Inflationary Universe © 1997, Alan Guth con la debida
autorización por parte del autor.
Figura 8.2, NASA.
Figura 8.3, Observatorio Europeo Austral.
Figuras 8.4, 9.1, y 9.2, NASA.
Figura 9.3 con la debida autorización de International Union of Pure & Applied
Chemistry.
Figura 10.1, NASA.
Figura 12.2, Dna-Dennis.
Figura 12.3 de Environmental Science: Earth as a Living Planet, de Daniel D.
Botkin y Edward A. Keller (Media Support Disk) © 1999, de John Wiley and Sons Inc. con
la debida autorización del editor.
Figura 12.4, NASA.
Figura 12.5, dibujo de un original de Stephen Nelson, con su debida autorización.
Figuras 12.6, 12.7 y 12.8, The United States Geological Survey.
Figura 14.1 con la debida autorización de Norman Pace.
Figura 14.2, Mariana Ruiz Villarreal.
Figure 14.3, The National Human Genome Research Institute.
Figura 14.4, adaptada de un original de Yassine Mrabet.
Figura 14.5, Yassine Mrabet.
Figuras 15.1 y 15.2 de At Home in the Universe © 1995, Stuart Kauffman; figuras
© 1993 Oxford University Press, reproducidas con la debida autorización de Oxford
University Press.
Figura 16.1, John Gould.
Figuras 17.1 y 17.2 de The Crucible of Creation © 1998 Simon Conway Morris,
con la debida autorización del autor y de Oxford University Press.
Figura 17.3 © John Hands, digitalizada por Kevin Mansfield.
Figura 17.5 de http://web.neomed.edu/web/anatomy/Pakicetid.html.
Figura 17.6 de http://web.neomed.edu/web/anatomy/Pakicetid.html, ilustración de
Carl Buell.
Figura 17.7 con la debida autorización de Encyclopedia Britannica Inc. © 2011.
Figura 18.1, Trevor Bounford.
Figura 19.1, Mediran.
Figura 20.1, © John Hands.
Figura 20.2, con la debida autorización de Douglas L. Theobald.
Figura 23.1, © John Hands.
Figura 23.2, Kathryn Delisle, reproducida con la debida autorización de Lynn
Margulis.
Figura 24.1, adaptada del dibujo de Quasar Jarosz.
Figura 24.2, © John Hands, dibujo modificado por Trevor Bounford.
Figura 24.3, dibujo modificado por Trevor Bounford a partir de un original de
William Tietien.
Figura 24.5, adaptada con la debida autorización de la página web de HOPES,
Universidad de Stanford, https://www.stanford.edu/group/hopes/cgi-bin/wordpress/?
p=3787.
Figura 24.6, con la debida autorización de http://brainmuseum.org/ y
https://www.msu.edu, con el apoyo de la US National Science Foundation.
Figura 26.1, © John Hands.
Figura 26.2, con la debida autorización de Encyclopedia Britannica Inc. © 2013.
Figura 27.1, © John Hands.
Figura 28.1 Klem.
Figuras 28.2, 29.1, 29.2, 31.1 y 31.2, © John Hands. figura 31.1 dibujo modificado
digitalmente por Kevin Mansfield. figura 31.2 dibujo modificado digitalmente por
Fakenham Prepress Solutions.
Allí donde no aparece mencionada la debida autorización, es porque la ilustración
no posee derechos de reproducción. Se han hecho todos los esfuerzos posibles con el fin de
localizar a todos los titulares de derechos de reproducción y tanto el autor como la editorial
rectificarán en ediciones futuras cualquier error u omisión que se les comunique.

También podría gustarte