Está en la página 1de 765

25

GRANDES
IDEAS

LA CIENCIA QUE ESTA


CAMBIANDO NUESTRO MUNDO

ROBERT MATTHEWS

2
Traduccion de
Maria Jose Hernandez

3
ESPASA (c) FORUM
Edicion original: 25 Big Ideas, de Robert Matthews
Traduccion del ingles: Maria Jose Hernandez
Revision cientifica: Jordi Mur Petit
Scan, edicion y conversion a EPUB: (c) 2013 NGP, Nacho Garcia.
(c) Robert Matthews, 2005
(c) Espasa Calpe, S. A., 2007
Diseno de coleccion y cubierta: Tasmanias
Ilustracion de cubierta: Getty Images/D. S. Robbins
Realizacion de cubierta: Angel Sanz Martin
Deposito legal: M. 10.207-2007
ISBN: 978-84-670-2414-2
Liberados todos los derechos. Se permite reproducir, almacenar en
sistemas de recuperacion de la informacion y transmitir alguna
parte de esta publicacion, cualquiera que sea el medio empleado —
electronico, mecanico, fotocopia, grabacion, etc.—, aun sin el
permiso previo de los titulares de los derechos de la propiedad
intelectual.
Espasa, en su deseo de mejorar sus publicaciones, agradecera
cualquier sugerencia que los lectores hagan al departamento
editorial por correo electronico: sugerencias@espasa.es
Impreso en Espana / Printed in Spain Impresion: Huertas, S. A.
Editorial Espasa Calpe, S. A. Complejo Atica - Edificio 4 Via de las
Dos Castillas, 33 28224 Pozuelo de Alarcon (Madrid)

4
Para Auriol, Ben y Theo

5
Indice
Introduccion
NOSOTROS Y LOS OTROS
1 - Conciencia
2 - Teoria del pequeno mundo
3 - Teoria del juego
HACER LO IMPOSIBLE
4 - Inteligencia artificial
5 - Teoria de la informacion
6 - Vegetales modificados geneticamente
VIDA
7 - Out of Africa (Nuestro origen africano
8 - Naturaleza versus cultura
9 - El gen egoista
10 - Catastrofismo
11 - Tectonica de placas
MATEMATICAS QUE CUENTAN
12 - El teorema de Bayes

6
13 - Caos
14 - Automatas celulares
15 - Teoria del valor extremo
EN LA SALUD Y EN LA ENFERMEDAD
16 - Medicina basada en pruebas
cientificas
17 - Epidemiologia
LA FISICA DE LA REALIDAD
18 - Relatividad especial
19 - Entrelazamiento cuantico
20 - El modelo estandar
21 - La teoria del todo
EL UNIVERSO Y NUESTRO LUGAR EN
EL
22 - El Big Bang
23 - Energia oscura
24 - Universos paralelos
25 - El principio antropico
Y despues, ?que?
Glosario
Referencias bibliograficas

7
Indice onomastico

8
Introduccion

Mientras terminaba este libro, algunos cientificos


habian iniciado una campana para advertir a la
gente de una pelicula estadounidense de bajo
presupuesto sobre la vida, el Universo y todo. La
pelicula se llamaba What the Bleep Do We Know?
(?!Y tu que sabes!?, en la version espanola), y
mezclaba documental y ficcion para transmitir el
mensaje de que desconocemos mucho de
nuestro Universo.

?Algun cientifico podria discutir esto? A veces


pueden ser algo arrogantes, pero ni siquiera el
fisico mas exaltado afirmaria que posee todas las

9
claves del cosmos. Aun asi, algunos de ellos se
sintieron impulsados a publicar advertencias
publicas sobre la pelicula, calificandola de muy
diversas maneras, desde pretenciosa
(<<<atroz>>>) hasta oscuramente alarmante
(<<<Es una obra muy peligrosa>>>).

Evidentemente, era una pelicula que habia que


ver. Sin embargo, en los veinte primeros minutos
no pude hallar la razon de tanto alboroto. Varios
cientificos hacian declaraciones bastante inocuas
sobre la manera en que los nuevos
descubrimientos estaban revelando que el
Universo era mucho mas extrano de lo que se
habia supuesto.

Cuando la pelicula empezo a describir algunos de


estos descubrimientos, comence a ver a que se
debia tanto escandalo; por ejemplo,
descubrimientos como la capacidad de las
moleculas de agua de ser afectadas por el

10
pensamiento. Con anterioridad habia oido
rumores al respecto: al parecer, un investigador
japones habia demostrado que la propia forma
de una molecula de agua podia ser alterada de
manera radical simplemente con los
pensamientos de las personas que estaban a su
alrededor. Sin embargo, cuando la pelicula
describia este descubrimiento asombroso, todo lo
que daba como pruebas eran unas cuantas
imagenes de cristales de hielo que tenian un
aspecto hermoso despues de haber sido
bendecidos por un monje budista y adoptaban
una apariencia fea despues de haberlos expuesto
a una persona con mal humor.

A mucha gente este tipo de pruebas le parecian


bastante convincentes. Son inmediatas, claras y
capaces de suscitar amplias sonrisas y
exclamaciones como: <<<!Es alucinante!>>>.
Sin embargo, entre los cientificos la respuesta
tipica era: <<<!A otro perro con ese

11
hueso!>>>. Se a que se refieren. Ciertamente,
la idea de que el agua sea afectada por los
pensamientos es una afirmacion asombrosa con
enormes implicaciones. Sin una explicacion obvia,
tambien suscita la posibilidad de que nuevas
fuerzas radicales esten actuando en el cosmos.
Pero antes de entusiasmarnos, estaria bien
contar con algunas pruebas aceptables de que el
efecto es real. Y unas bonitas imagenes de
cristales, indudablemente bellos, distan mucho de
ser una prueba.

En la pelicula aparecian muchas otras


afirmaciones igual de estramboticas, junto con
pruebas debiles para respaldarlas. Pero aunque
puedo entender por que tantos cientificos se
indignaron con la pelicula, creo que en realidad no
entendieron. El problema real es que sus
afirmaciones no eran suficientemente singulares.

?Moleculas de agua afectadas por fuerzas

12
misteriosas? Olvide a los monjes budistas y
piense en esto: las moleculas de agua deben sus
propiedades a una forma de energia que aparece
literalmente de la nada, que parece estar
relacionada con una fuerza que ahora impulsa la
expansion de todo el Universo. Y las pruebas son
algo mas que unas cuantas imagenes bellas: son
el fruto de decadas de investigaciones en los
laboratorios y observatorios de todo el mundo.

La verdad es que ahora se estan haciendo


descubrimientos que prueban sin lugar a dudas
que, como afirma la pelicula, el Universo es
mucho mas extrano de lo que se haya podido
pensar. Los astronomos han encontrado que el
Universo esta constituido por un tipo de materia
desconocida, y es impulsado por una fuerza
misteriosa a la que se conoce solo como
<<<energia oscura>>>. Mientras tanto, los
fisicos han descubierto un fenomeno singular
denominado <<<entrelazamiento>>>, en el que

13
los atomos se mantienen en contacto intimo e
instantaneo con los demas, incluso aunque esten
separados por miles de millones de anos luz.
Muchos fisicos teoricos creen ahora que nuestro
vasto Universo es solo una minuscula parte de
un multiverso infinito. Algunos piensan incluso que
la presencia de universos paralelos ya se ha
detectado en el laboratorio.

Los descubrimientos a una escala mas humana


no son menos sorprendentes. Los
neurocientificos han hallado pruebas de que
nuestra percepcion consciente de los
acontecimientos tiene un retraso de medio
segundo aproximadamente respecto a la
realidad; retraso que no percibimos porque es
corregido a proposito por nuestro cerebro. Los
antropologos creen ahora que han identificado los
origenes de los seres humanos modernos, y
como —y por que— dejaron su tierra natal para
poblar el mundo. Completando el circulo cosmico,

14
algunos teoricos afirman haber encontrado
relaciones entre la existencia de los seres
humanos —y de toda la vida en la Tierra— y el
diseno fundamental del Universo.

Este libro describe todos estos descubrimientos y


muchos mas. Cada uno de los veinticinco
capitulos es independiente, y pueden leerse en
cualquier orden. Mi proposito no era solo llevar a
los lectores a los propios limites del conocimiento
cientifico. Tambien pretendia dar ciertas pistas
sobre la forma en que se esta desarrollando la
ciencia, describiendo el camino, a veces tortuoso,
que ha llevado a realizar descubrimientos clave.
Con demasiada frecuencia, el proceso cientifico
se interpreta como cierto tipo de maquina en la
que se vuelcan las observaciones objetivas y de
la que surgen verdades infalibles. Los siguientes
capitulos dejan claro que la realidad es muy
diferente. Pese a lo que algunos de sus
miembros mas distinguidos nos hayan querido

15
hacer creer, la ciencia es un esfuerzo humano,
salpicado —y esto es lo mas fascinante— de
incertidumbre y subjetividad.

De nuevo, pese a lo que nos quieren hacer


creer, la ciencia no muestra signos de llegar a su
fin. Por el contrario, parecemos estar mas lejos
que nunca de la omnisciencia. Ahora esta claro
que muchos fenomenos naturales, si no la
mayoria, nunca podran ser conocidos con la
profundidad que se considero posible. La
aparicion de los conceptos de caos y de
incertidumbre cuantica han establecido limites
ineluctables a lo que se puede conocer. Muchos
de los siguientes capitulos destacan tecnicas —
como la inferencia bayesiana y la teoria de los
valores extremos— que nos permiten sacar el
maximo partido a lo que podemos conocer sobre
el mundo.

Sin embargo, tales tecnicas tienen aplicaciones

16
que van mas alla de la busqueda del
conocimiento definitivo: la inferencia bayesiana,
por ejemplo, permite obtener pruebas
aparentemente impresionantes de alguna nueva
amenaza de cancer que hay que contextualizar,
mientras que la Teoria de los Valores Extremos
constituye la base del diseno de las defensas
maritimas que actualmente protegen a los
dieciseis millones de personas que viven en los
Paises Bajos. Uno de los capitulos de este libro
describe los esfuerzos de algunos de los
principales fisicos teoricos del mundo por crear la
denominada Teoria del Todo, que reunira todas
las fuerzas y particulas del Universo en una sola
ecuacion.

Mi objetivo con este libro es confirmar las


sospechas de todos los que creen que el
Universo se sintetiza mejor en una sola palabra:
magico.

17
NOSOTROS
Y LOS OTROS

18
1
Conciencia

En pocas palabras

La conciencia es algo que todos creemos poseer. Sin


embargo, definir exactamente lo que es ha supuesto
durante mucho tiempo un reto para los filosofos. A partir
de mediados del siglo XIX, los cientificos encontraron
formas de probar la existencia de actividad cerebral y de
relacionarla con caracteristicas que consideramos vitales
para la conciencia, como el libre albedrio y la respuesta a
los estimulos. Los estudios en este campo indican que la
conciencia constituye una parte muy pequena de la
actividad cerebral, pero una parte que se crea a partir de
la informacion sensorial solo despues de realizar un
esfuerzo colosal. Los experimentos indican que,
aproximadamente, hace falta medio segundo para que el
cerebro nos haga conscientes del estimulo externo,
aunque parece ser que el cerebro <<<elimina>>> este
retraso para que no seamos conscientes de el. El resultado
es una mente consciente con un modelo de realidad que
nos permite hacer algo mas que simplemente reaccionar a

19
los estimulos o a los envites de nuestros instintos
inconscientes, y nos convierte en seres sofisticados.

La sala esta llena de gente, aunque en un silencio


total. Estan sentados en cojines, con los ojos
cerrados y sin expresion alguna en la cara.
Parecen estar totalmente absorbidos por algo —
dentro de lo que cabe, porque estan intentando
dominar uno de los mas profundos misterios de
la ciencia: la naturaleza de la conciencia.

Como practicantes de la meditacion budista,


utilizan tecnicas de observacion de la mente
desarrolladas hace 2500 anos por el filosofo indio
Siddartha Gautama, mas conocido como Buda.
La intencion de estas tecnicas es dirigir la mente
consciente hacia si misma y observarla en
accion.

Segun los budistas, esta introspeccion puede


ayudar a comprender la naturaleza de la mente,

20
la realidad y el misterio de la conciencia.
Tradicionalmente, tales afirmaciones han tenido
poca importancia para los cientificos, que insisten
siempre en las pruebas objetivas. No obstante,
em la actualidad monjes budistas muy
adiestrados estan trabajando con cientificos para
probar la naturaleza de la conciencia. Al alcanzar
estados mentales mientras se someten a un
escaner cerebral, estan abriendo una nueva via a
lo que los investigadores de la conciencia
denominan el <<<gran problema>>>: ?de que
manera la actividad cerebral produce la
experiencia de ser consciente?

Para ser algo que la mayoria de nosotros cree


poseer, la conciencia ha demostrado ser
tremendamente dificil de definir. El filosofo del
siglo XVII Rene Descartes pensaba que habia
logrado un gran avance usando un argumento
logico para llegar a la conclusion de que la mente
consciente debe estar hecha de una sustancia

21
diferente al cerebro y al cuerpo; esta distincion se
conoce como dualismo cartesiano. Incluso en
esa epoca, criticos como Baruch de Spinoza
senalaban que tal distincion suscita importantes
problemas sobre la forma en que interactuan la
mente y el cerebro.

En 1690, el filosofo ingles John Locke propuso la


primera definicion de conciencia: <<<la
percepcion de lo que pasa en la propia mente del
hombre>>>. Aunque esto implicaba que la
conciencia no era mucho mas que el resultado de
ciertos procesos, Locke no pudo decir en que
consistian estos.

Los cientificos no estuvieron en disposicion de


enfrentarse al misterio de la conciencia hasta
finales del siglo XIX. El descubrimiento de la
anestesia habia revelado que existia una
conexion intima entre cuerpo y mente,
contradiciendo claramente las afirmaciones de

22
Descartes. Posteriormente los investigadores
intentaron resolver el <<<gran problema>>>
buscando vias para salvar la distancia entre las
experiencias subjetivas de la mente y el estudio
objetivo de la actividad cerebral.

En la decada de 1860, Wilhelm Wundt, de la


Universidad de Heidelberg, considerado el padre
de la psicologia experimental, dio los primeros
pasos vacilantes. Impresionado por el punto de
vista de Spinoza de que la mente consciente es
el fruto directo de efectos fisiologicos, Wundt
intento averiguar mas sobre estos efectos. La
tecnica que utilizo fue la introspeccion. Entreno a
los estudiantes en esta tecnica para que
observaran y describieran su respuesta
consciente a estimulos externos.

La investigacion de Wundt destacaba la


importancia de comprender los qualia, las
experiencias subjetivas del mundo que nos

23
rodea: la <<<rojez>>> del rojo o la
<<<dulzura>>> del azucar. Aunque Wundt
trabajo mucho para que su trabajo fuera
objetivo, era dificil evaluar si la experiencia de una
persona era la misma en cada momento o si se
asemejaba a la experiencia de cualquier otra
persona. Tambien carecia de medios para hacer
determinaciones objetivas fiables de la actividad
cerebral que pudiera correlacionar con la
experiencia subjetiva.

A finales del siglo XIX, la investigacion de Wundt


habia convencido a importantes figuras —como
el influyente psicologo estadounidense William
James— de que la conciencia era el resultado
directo de la actividad cerebral y, por tanto,
merecia un estudio cientifico. Sin embargo,
muchos especialistas consideraban que las
tecnicas existentes simplemente no eran
apropiadas para dicha tarea. Frustrados por la
ausencia de resultados solidos, la mayoria se

24
dedicaron a problemas mas concretos, y el
estudio de la conciencia se convirtio en un
paramo academico.

No obstante, no llego a secarse por completo y


durante los cinco decenios siguientes los
cientificos desarrollaron diversos metodos para
abordar el <<<gran problema>>>. En 1929, el
psiquiatra austriaco Hans Berger logro el primer
gran avance encontrando una forma de detectar
la actividad electrica del cerebro. La tecnica,
denominada electroencefalografia (EEG), permitio
que Berger descubriera dos tipos de actividad
electrica —las ondas alfa y las ondas beta— que
parecian estar relacionadas con aspectos clave
de la conciencia. Las ondas alfa, con una
frecuencia de unos diez ciclos por segundo,
parecian reflejar el estado de conciencia,
haciendose mas debiles durante el sueno o la
anestesia. Por otra parte, las ondas beta eran
aproximadamente tres veces mas rapidas y

25
reflejaban el grado de concentracion y las
respuestas inconscientes, como el reflejo de
sobresalto.

El descubrimiento de Berger inicio el estudio de lo


que ahora conocemos como correlatos neurales
de la conciencia: tipos de actividad cerebral
asociados a la experiencia consciente. Ahora
constituyen uno de los principales focos de la
investigacion de los cientificos, muchos de los
cuales creen que comprender la conciencia
implica saber de que manera el cerebro reune
una gran cantidad de correlatos neurales de la
conciencia en un todo unico y unificado.

Se trata de una creencia alentada por un


descubrimiento sorprendente que se hizo en la
decada de 1960: que nuestra conciencia supone
una diminuta fraccion de toda la actividad del
cerebro. Un equipo dirigido por el neurologo
estadounidense Benjamin Libet aplico estimulos

26
muy pequenos a la piel de pacientes sometidos a
neurocirugia cerebral. Los registros electroen-
cefalograficos revelaron que los cerebros habian
detectado los estimulos, aunque los pacientes
dijeran que no podian sentir nada. Lo mismo
ocurrio con estimulos mas intensos que duraron
menos de 0,5 segundos: aunque los cerebros los
detectaron, los pacientes no sintieron nada
conscientemente.

Desde entonces se han obtenido resultados


similares en los estudios de los correlatos
neurales de la conciencia, como la vision y los
qualia resultantes (como la <<<rojez>>> del
rojo). Los ojos abarcan un torrente de
informacion a una velocidad aproximada de un
megabyte por segundo, aunque la conciencia
parezca ignorar todo salvo un diminuto
porcentaje de esta informacion.

Esta enorme disparidad indica que el cerebro

27
realiza una gran cantidad de procesamiento
inconsciente de la informacion sensorial,
cribandola antes de que seamos conscientes de
ella. Se necesita suficiente tiempo para realizar
este procesamiento, lo que sugiere que debe de
haber un retraso entre el momento en que el
cerebro detecta un estimulo y el instante en que
la persona lo registra conscientemente. Los
esfuerzos por medir este retraso han conducido
al que quiza sea uno de los mas sorprendentes
descubrimientos sobre la naturaleza de la
conciencia.

En 1976, un equipo de investigadores dirigido por


el neurologo aleman Hans Kornhuber diseno un
experimento para medir el retraso entre la
actividad cerebral necesaria para mover un dedo
y la ejecucion real del movimiento. La velocidad
de los impulsos nerviosos indicaba que el retraso
seria de unos 200 milise-gundos, similar al retraso
de los actos reflejos. Sin embargo, los

28
investigadores observaron que el retraso era
mucho mayor. Esto al menos era coherente con
la idea de que cualquier cosa en la que
intervenga la mente consciente implica mucho
procesamiento. No obstante, los investigadores
encontraron algo mas: la actividad cerebral
comenzaba unos 800 milisegundos antes de que
la persona llegara realmente a mover el dedo. Se
trataba de un descubrimiento sorprendente, con
implicaciones alarmantes en lo que respecta a h
nocion de libre albedrio que se habia tenido
durante mucho tiempo. La mera magnitud del
retraso sugeria que las acciones no son
desencadenadas en absoluto por la mente
consciente, sino por la actividad inconsciente del
cerebro que se desarrolla al margen de la
percepcion.

Libet y sus colaboradores realizaron en 1979 un


descubrimiento aun mas asombroso durante los
estudios del efecto de la aplicacion de estimulos

29
directos en el cerebro1. De nuevo, el sentido
comun indicaba un breve retraso entre la
aplicacion del estimulo y la deteccion consciente,
aunque nuevamente los investigadores
encontraron un retraso sustancial de 500
milisegundos, aproximadamente. Tambien
hallaron algo mas: que el cerebro parece
<<<antedatar>>> la respuesta consciente,
creando asi la impresion de que no hay apenas
ningun retraso.

Estos dos descubrimientos no solo arrojaron


nueva luz sobre la relacion entre la actividad
cerebral y la conciencia, sino que tambien
aportaron algunos indicios sobre el proposito real
de que exista la conciencia. En primer lugar,
aunque la mente consciente no ponga en
marcha en absoluto nuestros actos, nuestra
conciencia puede al menos vetar cualquier acto
generado por la mente inconsciente que se
considere inaceptable. Por tanto, el libre albedrio

30
no consiste en elegir conscientemente actuar de
cierta forma, sino elegir conscientemente no
actuar.

En segundo lugar, los experimentos de Libet


senalan la razon por la que el cerebro hace tanto
esfuerzo en crear la conciencia: reune la
informacion sensorial del mundo exterior para
producir un modelo coherente y fiable de lo que
ocurre <<<afuera>>>.

Esta nocion de conciencia como modelo de la


realidad se ajusta bien a la sensacion que
tenemos de que nuestro cerebro crea un tipo de
<<<teatro mental>>>. En 1988, el psicologo
holandes Bernard Baars tomo esta idea para
crear la denominada Teoria del Espacio Global de
Trabajo de la conciencia. Segun esta teoria, los
procesos conscientes son los que en el momento
presente estan <<<bajo los focos>>> de la
atencion mental, mientras que otros se

31
mantienen alejados de los focos, almacenados
en la memoria para acceder a ellos de inmediato.
Mientras tanto, los procesos inconscientes actuan
tras bastidores y tambien forman el publico
mental, que responde a lo que esta actualmente
bajo los focos.

La Teoria del Espacio Global de Trabajo parece


ser mas que una simple metafora: se basa en
resultados que ahora surgen del mayor avance
que se haya hecho en el estudio objetivo de los
procesos conscientes: las tecnicas de diagnostico
por imagenes cerebrales. Tecnicas como la
resonancia magnetica nuclear funcional brindan a
los investigadores mapas detallados, en tiempo
real, de la actividad cerebral, que permiten
relacionarlos con los procesos conscientes. Esto
ha supuesto una explosion en los estudios de los
correlatos neurales de la conciencia; se han
identificado partes especificas del cerebro como
elementos clave en los procesos conscientes. Por

32
ejemplo, una region central, el talamo, parece
ser crucial para poner bajo el <<<foco>>> de la
atencion consciente la informacion sensorial,
mientras que la denominada corteza
ventromedial, situada cerca de la parte frontal del
cerebro, parece crear nuestra sensacion de que
la vida tiene un proposito.

Al mismo tiempo, los investigadores estan


comenzando a prestar de nuevo atencion a los
metodos de Wundt para abordar el aspecto
subjetivo, notoriamente dificil, de la conciencia.
Estan re-clutando gente que tiene decadas de
experiencia en el examen de sus estados
conscientes y en el relato de su experiencia: los
monjes budistas. Los resultados iniciales de los
estudios de los monjes sometidos a pruebas de
diagnostico por imagenes indican que sus anos
de meditacion intensiva les permiten crear
estados mentales estables para ordenar, dando
a los investigadores la coherencia necesaria para

33
tener una comprension fiable de la experiencia
subjetiva de la conciencia.

Esta conjuncion de tecnologia de vanguardia y


practicas espirituales antiguas puede brindar una
nueva comprension del papel de los correlatos
neurales de la conciencia y nuestra capacidad
para controlarlos. Sin embargo, aun falta abordar
algunos misterios importantes sobre la
2
conciencia. ?Por que tenemos conciencia? . ?Que
ventajas confiere? ?Son los seres humanos los
unicos seres completamente conscientes?3.

Una posible explicacion estriba en el punto de


vista de la conciencia como medio para crear un
modelo mental de realidad. Cualquier organismo
que posea tal modelo puede hacer algo mas que
reaccionar meramente a los estimulos y rezar
por que la respuesta sea suficientemente rapida
para escapar de los predadores. Puede usar el
modelo para prever las amenazas y las

34
oportunidades que existen en el <<<mundo
real>>>, liberandose asi de las limitaciones de
velocidad de los reflejos inconscientes. Es decir,
una criatura consciente no tiene que tropezar de
manera ciega, esperando que sus reflejos le
libren de los problemas. Uniendo las respuestas
inconscientes para crear incluso un modelo simple
de realidad, una criatura que posea cierto grado
de conciencia puede evitar el encontrarse en
aprietos en primer lugar, logrando una gran
ventaja evolutiva.

A su vez, esto sugiere que la cuestion de si un


organismo es consciente o no puede ser
erronea. Mas bien, la conciencia puede ser una
cuestion de grado —por ejemplo, un insecto
puede tener un modelo notablemente menos
sofisticado de realidad que un ser humano.

Como ocurre con muchos aspectos de la


conciencia, todavia falta bastante para obtener

35
respuestas definitivas. Aun asi, existe un
creciente interes por que los cientificos esten
ahora aproximandose al misterio de como 1.400
gramos del blando tejido cerebral pueden dotar al
ser humano de un inefable y unico sentido del
yo.

IMPULSOS NERVIOSOS

El cerebro esta formado por unos cien mil


millones de neuronas, cada una de las cuales
recibe impulsos electricos de muchas otras a
traves de conexiones llamadas dendritas, y
transmite su respuesta a las celulas vecinas a
traves de una sola terminacion denominada
axon. Sin embargo, las conexiones no son
perfectas; para salvar estas hendiduras, las

36
terminales nerviosas cuentan con las sinapsis.
Estas transforman las senales electricas en
moleculas, llamadas neurotransmisores, que
fluyen por la hendidura desencadenando nuevos
impulsos electricos en el otro lado.

ELECTROENCEFALOGRAMA

La invencion del electroencefalograma (EEG) por


el psiquiatra austriaco Hans Berger, en 1929, fue
un importante avance en la investigacion de la
conciencia, ya que proporciono a los cientificos
medios indoloros e incruentos para estudiar el
cerebro en accion. La actividad cerebral
consciente e inconsciente es el resultado de
senales electricas que fluyen entre las celulas
cerebrales o neuronas. Aunque las senales entre

37
una neurona y otra son muy debiles, Berger
observo que la actividad en partes especificas del
cerebro es relativamente facil de detectar usando
pares de electrodos colocados en el cuero
cabelludo. Un electroencefalograma detecta las
senales como diferencias de voltaje entre los
pares de electrodos, las amplifica y envia el
resultado a un aparato registrador, que capta la
actividad cerebral.

Cronologia

528 a. C. El filosofo Siddartha Gautama


hace del estudio y el control de la
conciencia la base de un movimiento que
ahora se conoce como budismo.

401 a. C. El filosofo y santo catolico

38
Agustin de Hipona identifica la conciencia de
si mismo como un aspecto fundamental de
la conciencia, declarando: <<<Entiendo
que entiendo>>>.

1637 El filosofo frances Rene Descartes


propone su teoria dualista de la mente y el
cuerpo, arguyendo que la mente no
consiste meramente en las acciones del
cerebro.

1690 En su Ensayo sobre el


entendimiento humano, el filosofo ingles
John Locke define la conciencia como
<<<la percepcion de lo que pasa en la
propia mente del hombre>>>.

1874 El psicologo aleman Wilhelm Wundt


saca la conciencia del campo de la
indagacion puramente filosofica y propone
su estudio a traves de la introspeccion.

39
1890 El psicologo William James, de la
Universidad de Harvard, pionero de su
disciplina, rechaza el dualismo cartesiano y
llega a la conclusion de que la conciencia no
es mas que un producto de la actividad
cerebral.

1913 El psicologo estadounidense John B.


Watson critica los intentos de estudiar la
conciencia como totalmente subjetivos,
convirtiendo este campo en un paramo
durante decadas.

1929 El psiquiatra austriaco Hans Berger


inventa la elec-troencefalografia (EEG),
demostrando que la actividad cerebral
puede medirse usando electrodos
colocados sobre el cuero cabelludo.

1979 El cientifico estadounidense


Benjamin Libet, especializado en el estudio
del cerebro, descubre un retraso * de 0,5

40
segundos entre la actividad cerebral y la
sensacion consciente de decidirse a actuar.

1988 El psicologo holandes Bernard Baars


lanza la Teoria del Espacio Global de
Trabajo, segun la cual la conciencia es el
proceso por el que procesos normalmente
inconscientes se reunen en un
<<<escenario>>> mental.

1990 hasta La aparicion de los metodos


de obtencion de imagela fecha nes
cerebrales, como la resonancia magnetica
nuclear, despierta un enorme aumento del
interes por la conciencia, revelando la
actividad cerebral con detalles sin
precedentes.

Citas

41
1

En experimentos realizados en pacientes


sometidos a cirugia a cerebro abierto,
Benjamin Libet y sus colaboradores
observaron que, a no ser que se
estimulara suficientemente al cerebro
durante al menos 500 milisegundos, no
conseguia percibir nada. En pruebas
posteriores estimularon los cerebros de
pacientes pero, esta vez, aplicaron en la
piel un estimulo 250 milisegundos despues.
Como en ambos casos se debia aplicar el
retraso de 500 milisegundos, se esperaba
que los pacientes dijeran que sintieron el
estimulo cerebral antes, seguido por el
estimulo cutaneo 250 milisegundos
despues. Libet y sus colaboradores llegaron
a la conclusion de que el cerebro
<<<suprime>>> el retraso de 500
milisegundos de la respuesta de la piel para

42
garantizar que el tiempo real del estimulo y
la percepcion del estimulo siguen
sincronizados. Eso, a su vez, garantiza que
nuestro modelo mental de la realidad —
construido a partir de la informacion de los
sentidos— no este 500 milisegundos
desfasado permanentemente.

Una de las teorias mas polemicas de la


conciencia la planteo en 1989 el profesor
Roger Penrose, academico de Oxford con
experiencia en un campo que en apariencia
no se relaciona con la mente; la mecanica
cuantica, las leyes del mundo subatomico.

En un exitoso libro, La nueva mente del


emperador, Penrose sostenia que la
capacidad de las mentes humanas de dar
saltos intuitivos hacia verdades profundas
sobre el universo es el resultado de un tipo

43
especial de computacion desencadenada
por efectos cuanticos en el cerebro.
Sugeria que estos efectos tambien podrian
ser los responsables de unir la actividad en
el cerebro para crear la sensacion de una
conciencia unica y coherente.

En colaboracion con el doctor Stuart


Hamerhoff, un anestesista
estadounidense, Penrose sostuvo mas
adelante que estos efectos cuanticos
tienen lugar en diminutos cilindros proteicos
de las celulas nerviosas conocidos como
microtubulos.

Pese a suscitar gran interes publico, la


teoria de Penrose tiene pocos partidarios
entre los investigadores de la conciencia,
que arguyen que cambia un misterio por
muchos mas, y hace caso omiso a las
pruebas experimentales. Parece que los

44
microtubulos son incapaces de soportar los
efectos cuanticos necesarios y que, en
caso de sufrir danos, estos no parecen
afectar a la conciencia.

Segun una encuesta publicada en 2001,


aproximadamente una de cada diez
personas en Gran Bretana ha tenido lo que
se denomina una experiencia
extracorporea, en la que sienten como si
su conciencia se hubiera separado del
cuerpo.

Muchos cientificos rechazan las


experiencias extracorporeas,
considerandolas un problema singular en la
funcion cerebral que crea la ilusion de
separacion. No obstante, de ser ciertas,
las experiencias extracorporeas
representarian un importante reto a las

45
ideas actuales sobre la conciencia, que se
relacionan inextricablemente con el cerebro
fisico.

Para probar la realidad de estas


experiencias, los cientificos han realizado
ensayos para descubrir si la gente que
tiene estas experiencias puede ver objetos
o numeros que esten fuera del alcance
visual de sus cuerpos fisicos. Algunos
estudios han tenido resultados sugerentes,
pero nada que haya convencido hasta la
fecha a los cientificos.

46
2
Teoria del Pequeno Mundo

En pocas palabras

En las fiestas, los asistentes descubren que tienen


relaciones sorprendentes con otros: un amigo en comun,
por ejemplo, o un colega con el que ambos han trabajado.
Muchas de estas <<<coincidencias>>> no son mas que
eso, o el resultado de personas con experiencia similar que
tienden a moverse en circulos similares. Sin embargo,
tambien hay una cantidad sorprendente de vinculos
asombrosos que hacen que la gente solo pueda asentir
con la cabeza y reflexionar diciendo: <<<!Que pequeno
es el mundo!>>>. Hasta hace no mucho tiempo, poco se
habia hecho para explicar por que en un mundo con 6.000
millones de habitantes se producen tales vinculos con
tanta frecuencia. Estudios iniciales realizados en la decada
de 1950 sugerian que los vinculos aleatorios
desempenaban una funcion fundamental, estableciendo
atajos en la que si no seria una enorme red de
comunidades locales que constituyen la sociedad. En 1998
tuvo lugar un gran avance cuando los matematicos Duncan

47
Watts y Steve Strogatz, de la Universidad de Cornell,
usaron simulaciones computarizadas para mostrar que
basta una minuscula cantidad de vinculos aleatorios de
amplio rango para hacer que incluso una red gigantesca de
gente se convierta en un <<<pequeno mundo>>>.
Ahora los investigadores han encontrado pruebas de la
existencia de una asombrosa variedad de pequenos
mundos, que tienen implicaciones en todo, desde la
diseminacion de las enfermedades hasta la globalizacion.

A todos nos ha ocurrido en algun momento:


estamos hablando con un extrano en una fiesta
y descubrimos que tenemos un amigo o un
companero en comun.

La mayoria de la gente responde con una


sonrisa, exclama: <<<!Que pequeno es el
mundo!>>>, y no piensa mas sobre el asunto.
Por supuesto, la cuestion estriba en que el
mundo no es en absoluto pequeno: es inmenso,
con 6.000 millones de habitantes. Y aunque la
mayoria de nosotros ocupamos la mayor parte
de nuestro tiempo en nuestros pequenos circulos

48
de relaciones, el <<<efecto del pequeno
mundo>>> surge con sorprendente frecuencia.

Durante anos, los cientificos tendieron a pensar


que se trataba de una coincidencia. Ya no: el
efecto es en la actualidad una de las cuestiones
mas candentes en el ambito de la ciencia, y hay
muchos investigadores en campos tan diversos
como la fisica y la economia que lo estan
considerando muy seriamente. Entender su
causa y sus consecuencias ha supuesto la
creacion de un nuevo campo de la ciencia —la
Teoria del Pequeno Mundo— cuyos origenes
ocultan sus importantes implicaciones en
cuestiones que van desde la diseminacion de las
enfermedades hasta la globali-zacion.

Su aparicion pone de relieve como es posible que


una gran idea que trasciende disciplinas pase
desapercibida durante anos. La Teoria del
Pequeno Mundo puede tener sus aplicaciones

49
mas asombrosas en las ciencias sociales
<<<blandas>>>, pero sus origenes surgen del
ambito sofisticado de las matematicas y la ciencia
computacional. Esta teoria ha podido prosperar
solo hoy en dia a medida que se han roto las
barreras entre las disciplinas academicas.

Aunque es probable que el <<<efecto del


pequeno mundo>>> se haya observado
durante siglos en las reuniones, no fue sino en la
decada de 1950 cuando los investigadores
empezaron a analizar sus raices. En la
Universidad de Chicago, Anatole Rapoport, un
matematico convertido en cientifico social,
comenzo con sus colaboradores a pensar en la
sociedad como una <<<red>>> de individuos,
cada uno con vinculos aleatorios con otros.
Algunos vinculos eran cortos, conectando a las
personas en <<<comunidades>>>
estrechamente relacionadas, mientras que otros
eran relativamente largos. Rapoport y sus

50
colegas encontraron que la naturaleza aleatoria
de los lazos suponia una gran diferencia en la
estructura de su sociedad artificial. Bastaba con
hacer que los lazos fueran algo menos aleatorios
para que la sociedad tendiera a fragmentarse en
comunidades aisladas, sin vinculos con personas
de otras partes.

Fue una temprana pista de la importancia crucial


de los vinculos aleatorios que hace que una
poblacion enorme se convierta en un
<<<pequeno mundo>>> en el que cada
individuo puede estar relacionado con otro a
traves de unos pocos vinculos. Imaginese, por
ejemplo, que una sociedad esta constituida por
un millon de personas, cada una de las cuales
tiene vinculos solo con diez personas que vivan
cerca. Si surge un rumor, haran falta cientos de
miles de pasos para que se extienda por toda la
sociedad. El rumor se extiende mucho mas
rapidamente surgiendo al azar en cualquier lugar.

51
Despues de cada ocasion en que se cuente de
nuevo el rumor, el numero de personas que lo
conocen crece, se multiplica por diez: primero
cien, luego mil y asi sucesivamente. Al cabo de
seis ocasiones en las que se haya contado de
nuevo, todo el mundo habra oido el rumor,
gracias a los vinculos aleatorios que saltan por la
red.

Todo esto es, en realidad, impresionante, salvo


por el hecho de que el mundo real no es asi.
Tenemos lazos que ni son totalmente aleatorios
ni completamente limitados, sino una mezcla de
ambos. Entonces, ?por que descubrimos con
tanta frecuencia que tambien vivimos en un
<<<pequeno mundo>>>? En 1959, dos
matematicos hungaros, Paul Erdos y Alfred
Renyi, dieron un gran paso hacia la respuesta de
esta cuestion. Presentaron una formula que
mostraba que una pequena cantidad de vinculos
suponia una gran diferencia. Por ejemplo, en un

52
grupo de cien personas se pueden crear lazos
practicamente con casi todo el mundo eligiendo
de forma aleatoria solo a una docena de
personas y presentandolas entre si. Por otra
parte, hacer esto de manera sistematica exige
concertar la asombrosa cantidad de 4.950
presentaciones: unos pocos vinculos aleatorios
consiguen el objetivo de forma mas eficaz.

Aunque la formula de Erdos y Renyi mostro el


poder de los vinculos aleatorios en lo que se
refiere a conectar a las personas, no podia
predecir hasta que punto podria ser
<<<pequeno>>> el mundo real. Un
experimento ingenioso revelo en 1967 que el
mundo real es asombrosamente pequeno.

Stanley Milgram4, un joven profesor de psicologia


social de la Universidad de Harvard, habia leido el
trabajo de dos investigadores en Estados Unidos,
Ithiel de Sola Pool y Manfred Ko-chen, que

53
sugerian que dos extranos podian conectarse
mediante cadenas cortas de conocidos. Milgram
decidio intentar calibrar el tamano tipico de
nuestras redes sociales: cuanta gente tenemos
como amigos, o amigos de amigos, y asi
sucesivamente. Para ello, envio paquetes a 296
personas de Nebraska y Boston, pidiendoles que
se lo enviaran a otra persona
<<<destinataria>>> de Massachusetts. Parece
muy simple, si no fuera porque no se les dijo a
los receptores donde vivia la persona
destinataria: solo su nombre, su empleo y unos
cuantos detalles personales mas. Milgram pidio a
los receptores del paquete que lo enviaran a
alguna persona que conocieran personalmente,
de modo que fuera mas probable que dicha
persona pudiera entregar el paquete.

El resultado fue sorprendente: en general los


paquetes llegaron al destinatario al cabo de solo
cinco reenvios. Pocos anos despues, Milgram

54
repitio el experimento, obteniendo resultados
similares: parecia que se podia llegar a cualquier
persona de Estados Unidos mediante solo cinco
reenvios. Las implicaciones eran aun mas
asombrosas. Si bastaba con cinco reenvios para
llegar a cualquier persona en un pais con mas de
200 millones de habitantes, parecia que por lo
general las personas conocian a otras cincuenta
suficientemente bien como para enviarles el
paquete. Y esto implicaba que bastaria con un
solo envio mas para llegar a cualquier persona del
planeta. Parecia que el mundo real era en
realidad un pequeno mundo.

Recientemente se han cuestionado los


descubrimientos de Milgram; algunos
investigadores han arguido que no son tan
convincentes como parecen. En 2002, la
psicologa Judith Kleinfeld, profesora de la
Universidad de Alaska, saco a la luz pruebas de
que Milgram habia seleccionado con sumo

55
cuidado los datos para apoyar sus afirmaciones.
Tanto en el estudio original como en los intentos
de repetirlo, la mayoria de los paquetes nunca
llegaron, lo que suscita dudas sobre la fiabilidad
de las conclusiones basadas en el punado que si
lo hicieron. Sin embargo, en 2003, investigadores
de la Universidad de Columbia publicaron los
resultados de una version enorme del
experimento original de Milgram que se realizo
por Internet, y encontraron que por termino
medio se necesitaban seis pasos para llegar a un
objetivo, lo que apoyaba la afirmacion original de
Milgram.

El hallazgo clave de Milgram dio nombre a una


obra de teatro: Seis grados de separacion, del
dramaturgo John Guare, en la que uno de los
personajes declara: <<<Cualquier persona de
este planeta esta separada solamente por otras
seis personas. Seis grados de separacion. Es un
pensamiento profundo […]. Como cada persona

56
es una nueva puerta que se abre a otros
mundos>>>. Era un pensamiento profundo
grabado en la mente de Duncan

Watts, un estudiante de veinticinco anos,


doctorado en la Cornell University (Nueva York).
En 1995, mientras estudiaba la matematica de
los grillos, se habia encontrado con un problema:
?como consiguen los grillos sincronizarse tan
rapidamente? ?Cada uno escucha a todos los
grillos o solo a los que tiene mas cerca? Entonces
Watts recordo lo que su padre le habia dicho
anos atras respecto a que cada persona en el
mundo esta a seis apretones de mano del
presidente de Estados Unidos. Watts se
preguntaba si el mismo fenomeno podria
relacionarse con la velocidad con la que los grillos
comienzan a cantar al unisono.

No es nada convencional usar una leyenda


urbana para resolver un misterio biologico

57
importante, y a Watts le inquietaba sugerir la
idea a su director de tesis, el matematico Steve
Stro-gatz. Lejos de reirse de el a carcajadas,
Strogatz creia que la idea era intrigante, y los dos
comenzaron a colaborar. En junio de 1998,
publicaron un articulo con sus descubrimientos en
la prestigiosa revista Nature, y en ese proceso
crearon una nueva ciencia: la Teoria del Pequeno
Mundo.

Por vez primera, Watts y Strogatz demostraron


el largamente sospechado poder de unos pocos
vinculos aleatorios para convertir un mundo en
expansion incontrolada en un pequeno mundo.
Su exito se debio en gran parte a la ubicuidad de
los ordenadores. A diferencia de los primeros
teoricos de la decada de 1950, Watts y Strogatz
podian recurrir a la potencia de los ordenadores
para crear simulaciones del mundo real, con su
mezcla de comunidades estrechamente
relacionadas y de vinculos aleatorios.

58
Crearon una <<<sociedad>>> artificial de 1.000
puntos, cada uno de los cuales estaba conectado
con un grupo de diez <<<amigos>>>. Watts y
Strogatz encontraron que si cada grupo estaba
formado unicamente por los vecinos mas
proximos, se necesitaban por lo general cientos
de pasos para ir de un punto a otro. Pero
cuando rompian solo uno de cada cien vinculos
estrechos y los hacian aleatorios, el numero de
pasos necesarios se dividia por diez, dejando a la
vez que la mayoria de los grupos se mantuvieran
bien conectados.

Watts y Strogatz revelaron al final como un


planeta de 6.000 millones de personas parece
con tanta frecuencia un pequeno mundo.
Aunque la mayoria de nuestros amigos pueden
pertenecer a nuestra pequena comunidad, las
reuniones casuales nos han proporcionado
aleatoriamente cierta propagacion mas amplia. Y
este punado de vinculos aleatorios

59
<<<establecen atajos>>> en la inmensidad de
la sociedad mundial y la transforman en un
pequeno mundo.

Watts y Strogatz revelaron que el mismo efecto


opera en otras <<<sociedades>>>. Por
ejemplo, usando una base de datos infor-
matizada de actores y sus peliculas, mostraron
que Hollywood es otro <<<pequeno
mundo>>>. Por lo general, cualquier actor
puede estar conectado con cualquier otro a
traves de peliculas que implican solo a cuatro
intermediarios. De nuevo, la razon son los
vinculos creados por actores versatiles, como
Rod Steiger, que trabajo en una enorme aunque
aleatoria variedad de peliculas. Sin darse cuenta,
los aficionados a las peliculas han explotado esto
durante anos cuando jugaban al llamado Juego
de Kevin Bacon, en el que hay que relacionar a
un actor con otro a traves del menor numero
posible de peliculas. Basta con conectar a un

60
actor con Rod Steiger y el asunto se pone mucho
mas facil.

El articulo de Watts y Strogatz suscito gran


interes por hallar otros ejemplos del efecto en la
vida real. En la actualidad se han encontrado
pequenos mundos en una asombrosa variedad
de formas, desde el sistema nervioso de los
gusanos a las redes de computadoras que
constituyen Internet.

Las implicaciones son a menudo sorprendentes.


Por ejemplo, la naturaleza de pequeno mundo de
Internet hace que siga funcionando a pesar de
que aproximadamente el 3 % de sus
ordenadores <<<router>>> cruciales dejan de
estar operativos en algun momento. Con
bastante normalidad puede encontrarse alguna
otra ruta rapida entre dos ordenadores
cualesquiera, gracias al numero relativamente
pequeno de vinculos aleatorios que hacen de

61
Internet un pequeno mundo. Pero todo esto
tiene otra cara: si uno de estos vinculos
aleatorios cruciales pasa a ser imperfecto, puede
tener un efecto drastico sobre toda la web.
Aunque las probabilidades de que esto ocurra por
casualidad son pequenas, tales vinculos
constituyen un objetivo obvio de piratas
informaticos o terroristas.

Tambien se ha observando un efecto similar en


el mundo empresarial. Se ha demostrado que
corporaciones importantes forman un
<<<pequeno mundo>>>: companias que
aparentemente no estan relacionadas se
conectan mediante un numero relativamente
reducido de vinculos. Esto puede ayudar al
mundo empresarial a afrontar las tormentas que
siempre afectan a cierta proporcion de
empresas, pero tambien puede augurar
problemas si una corporacion clave con vinculos
mas o menos aleatorios en otro lugar tropieza

62
con problemas5.

Las implicaciones mas alarmantes de la Teoria


del Pequeno Mundo atanen a la diseminacion de
enfermedades. Los cientificos se han centrado
generalmente en la capacidad infecciosa de L1na
enfermedad para predecir la diseminacion
epidemica. El electo del pequeno mundo
demuestra que la sociedad en la que se produce
el brote puede suponer una gran diferencia.
Estudios realizados por el matematico argentino
Damian Zanette indican que basta con que el
20% de la poblacion tenga vinculos aleatorios con
personas que se encuentran fuera del lugar del
brote inicial para que se convierta en una grave
epidemia. No sorprende que algunos cientificos
consideren esto como algo crucial en la aparicion
del sida en Africa. Despues del colapso del
regimen colonial, las guerras y la busqueda de
trabajo desencadenaron enormes movimientos
de poblacion, aumentando la formacion de

63
vinculos aleatorios de amplio rango que hizo que
una enfermedad virica localizada se convirtiera
hoy en dia en una pandemia.

La importancia del efecto del pequeno mundo en


cualquier ambito, desde el colapso de los
mercados bursatiles hasta la diseminacion de las
enfermedades, sigue siendo objeto de muchas
investigaciones. Pero, quiza, la conclusion mas
importante este ya clara: esa parte
aparentemente trivial del folclore urbano puede
tener implicaciones que no son en absoluto
triviales.

PEQUENOS MUNDOS, GRANDES


PROBLEMAS

El 13 de agosto de 2003, un cable electrico caido

64
toco un arbol en las afueras de Cleveland (Ohio)
y demostro de manera espectacular lo que es el
efecto del pequeno mundo. El resultado fue que
cincuenta millones de personas se quedaron sin
energia electrica en ocho estados de la Union,
ademas de parte de la provincia canadiense
oriental de Ontario. La perdida de la energia
electrica senalo la existencia de otros
<<<pequenos mundos>>> relacionados con la
red electrica, incluidas las redes aereas y de
trafico de Canada, que se vieron sumidas en el
caos. Luego llegaron las consecuencias
economicas: el producto interior bruto canadiense
cayo un 0,7% y se calcula que las empresas de
Estados Unidos perdieron aproximadamente
6.000 millones de dolares.

DETENER LA SIGUIENTE PANDEMIA

65
Es probable que la Teoria del Pequeno Mundo
desempene un papel clave en la forma en que el
mundo se vaya a enfrentar a la proxima
enfermedad pandemica. Segun esta teoria, la
mayor parte de los esfuerzos deben orientarse a
cambiar la <<<arquitectura>>> de los vinculos
entre las personas infectadas y las sanas. Esto
implica centrar los recursos en un numero
relativamente pequeno de personas muy
<<<conectadas>>> que es probable que
diseminen la infeccion mas ampliamente.

La importancia de tales individuos en la


diseminacion de la enfermedad se destaco
durante las etapas iniciales de la epidemia de
sida. Los investigadores observaron que al
menos cuarenta de los doscientos cuarenta y
ocho varones a los que primero se diagnostico la
enfermedad estaban vinculados a traves de las
relaciones sexuales de un auxiliar de vuelo
homosexual canadiense que, debido a la cantidad

66
de parejas que tenia y a su profesion, era un
eslabon extremadamente eficaz en la red de la
enfermedad.

Cronologia

1951 El matematico Anatole Rapoport y


sus colaboradores de la Universidad de
Chicago publican los primeros estudios
sobre las redes sociales y sus efectos.
1957 Ithiel de Sola Pool y Manfred
Mochen, en Estados Unidos, comienzan a
trabajar en las cadenas de relaciones.
1959 Los matematicos hungaros Paul
Erdos y Alfred Renyi prueban la eficacia de
unos pocos vinculos aleatorios en la
conexion de enormes redes.

67
1967 Stanley Milgram lleva a cabo el
primer experimento sobre el pequeno
mundo, enviando cartas para descubrir
cuantos reenvios son necesarios para llegar
a sus destinatarios.

1990 Se estrena en Estados Unidos la


obra de John Guare Seis grados de
separacion, en la que uno de los
personajes senala que cada persona esta
separada de cualquier otra por seis
relaciones.

1993 Se estrena la version


cinematografica de Seis grados de
separacion, protagonizada por Donald
Sutherland.

1996 La investigacion sobre los grillos llevo


un estudiante de Cornell University, Duncan
Watts, y a su director de tesis, Steve
Strogatz, a estudiar la Teoria del Pequeno

68
Mundo.

Estudiantes de la Universidad de Virginia


crean una version en linea del juego de
Kevin Bacon.

1998 Watts y Strogatz publican un articulo


en la revista Nature que despierta un
enorme interes por la Teoria del Pequeno
Mundo.

1999 Watts publica Small worlds, que


reune por vez primera las claves de la
Teoria del Pequeno Mundo.

2001 Watts y sus colaboradores realizan


en Internet una version del experimento
del Milgram de 1967.

Damian Zanette utiliza la Teoria del


Pequeno Mundo para estudiar la
diseminacion de las enfermedades.

69
Citas

Stanley Milgram (1933-1984) fue uno de


los cientificos mas brillantes y polemicos del
.siglo XX. Incluso antes de su investigacion
sobre el Pequeno Mundo ya habia logrado
notoriedad por su trabajo sobre la
obediencia a la autoridad. En 1961, cuando
todavia era profesor auxiliar en la
Universidad de Yale, puso un anuncio en el
New Haven Register, de Connecticut,
invitando a los lectores a participar en un
estudio cientifico sobre la memoria. Se dijo
a los participantes que se centraria en el
efecto del castigo sobre el aprendizaje, y
les dejaron en una sala para que
observaran a un hombre que tenia
colocados electrodos que —segun se
aseguro a los participantes— le daban

70
descargas electricas dolorosas. Luego se
dijo a las personas reclutadas que leyeran
una lista de asociaciones de palabras y que
dieran al alumno una descarga electrica
cuando cometiera errores, usando una
consola con interruptores que iban de 15 a
450 voltios, indicado como <<<XXX>>>.

Aunque estaban separados por una pared,


los participantes podian oir al alumno y sus
gritos de dolor cuando recibia las descargas
electricas despues de cada error. A medida
que aumentaba su agonia, muchos de los
participantes protestaron, solo para que el
cientifico encargado les dijera que debian
continuar. Y el 65 % de ellos lo hicieron
hasta llegar a <<<XXX>>>, momento en
el cual los gritos habian dado paso a un
ominoso silencio.

Solo cuando el experimento termino se dijo

71
a los participantes la verdad: que el alumno
no era mas que un actor y que no le
habian hecho dano en absoluto. Milgram
habia demostrado que se podia persuadir a
la gente corriente, desde amas de casa
hasta ingenieros, para que abusaran de un
perfecto extrano hasta llegar a matarlo, si
creian que podian pasar esta
responsabilidad a quienes tienen autoridad.
En la decada de 1960 se considero que el
experimento de Milgram aclaraba, de
manera escalofriante, las acciones de los
nazis. Como demuestra el reciente
escandalo sobre el tratamiento dado a los
prisioneros iraquies, el experimento de
Milgram no ha perdido ni un apice de su
relevancia.

La Teoria del Pequeno Mundo muestra de

72
forma intrigante la controvertida cuestion
de la globalizacion. En 1999, Bruce Kogut
(Wharton School of Business) y Gordon
Walter (Southern Methodist University,
Texas) usaron los metodos ideados por
Watts y Strogatz para analizar las redes de
propiedad de las quinientas mayores
corporaciones de Alemania. Como era
previsible, encontraron montones de
<<<camarillas>>> en la propiedad de las
firmas, resultado de diversos acuerdos y
fusiones. Pero tambien encontraron que el
efecto de cortocircuito de unas pocas
corporaciones permitia que la propiedad de
cualquier firma se relacionara con la de otra
a traves de cuatro intermediarios
solamente.

Dicho de otro modo: a pesar de su


aparente diversidad, las mayores
corporaciones de Alemania forman, en

73
realidad, un pequeno mundo intimo. Segun
Kogut y Walter, esto puede explicar por
que empresas con vinculos aparentemente
tenues con otra pueden seguir mostrando
un comportamiento empresarial similar.
Pero tambien puede tener implicaciones en
el modo en que estas empresas afrontan
la globalizacion. La teoria del pequeno
mundo muestra que puede bastar con
unos pocos vinculos aleatorios para
<<<establecer atajos>>> en una vasta
red. Por tanto, es muy probable que todo
el mundo empresarial ya se haya
convertido en un pequeno mundo.

En tal caso, segun concluyen Kogut y


Walter, tiene poco sentido preocuparse por
la globalizacion: es posible que ya haya
tenido una repercusion tan importante
sobre el mundo empresarial como nunca
tendra.

74
Pero tambien el pequeno mundo
empresarial tiene su lado oscuro. Si
cualquier parte de el se resfria, hay que
tener cuidado: el efecto de
<<<cortocircuito>>> puede conducir, a
una velocidad sorprendente, a un colapso
en sectores empresariales que en
apariencia no estan relacionados en
absoluto.

El estudio de los pequenos mundos sigue


dando sus primeros pasos, aunque ya esta
claro que su presencia en el mundo real
supone tanto beneficios como amenazas
para todos nosotros. Es probable que los
economistas y los expertos en estudios
empresariales revelen muchos mas
ejemplos de los pequenos mundos y sus
implicaciones para nosotros en los
proximos anos.

75
Y es probable tambien que parte de lo que
descubran sea inquietante. Aunque puede
ser divertido descubrir a amigos entre
autenticos extranos, tales encuentros
tambien constituyen una advertencia: que
el mundo es un lugar mas interconectado
de lo que quiza nos convenga.

76
3
Teoria del Juego

En pocas palabras

La Teoria del Juego surgio como un intento de encontrar


mejores formas de jugar a juegos como el poquer, en el
que los jugadores no pueden estar seguros de las
intenciones de sus oponentes. Durante la decada de 1920,
los matematicos intentaron resolver el problema usando la
regla de escoger la estrategia que proporcionara los
mayores beneficios en las peores circunstancias. En 1928,
el matematico hungaro John von Neumann probo que cada
juego de dos jugadores tiene una estrategia
<<<minimax>>> con tal de que las ganancias de uno de
los jugadores sean exactamente iguales a las perdidas del
otro. Muchos juegos, como el ajedrez y el poquer, tienen
esta propiedad de <<<suma nula>>>; sin embargo, no
ocurre lo mismo con muchas elecciones de la vida real. Por
ejemplo, la guerra nuclear es un juego de suma no nula, y
puede llevar a que ninguna parte gane. El matematico
norteamericano John Nash amplio el resultado de Von
Neumann para cubrir dichas situaciones; su trabajo

77
demostro que encontrar la mejor estrategia a menudo
implica factores extra —como las emociones— que la
Teoria del Juego convencional no abarca. Ahora se esta
intentando ampliar la Teoria del Juego para incluir tales
factores, con implicaciones en multitud de campos, desde
la politica mundial hasta la prevencion de los delitos.

En octubre de 1962, el mundo estuvo al borde


del Armagedon nuclear. La Union Sovietica habia
colocado misiles nucleares en Cuba, a solo 145
kilometros de Estados Unidos, y los
estadounidenses exigian su eliminacion inmediata.
Los misiles planteaban una amenaza que el
presidente Kennedy no podia ignorar, pero
tambien sabia que una respuesta equivocada
podria suponer la guerra nuclear y la muerte de
millones de personas. Algunos de sus asesores
exigian un ataque aereo masivo, para eliminar las
docenas de misiles emplazados en Cuba que ya
apuntaban a Estados Unidos. Sin embargo, con
esto se corria el riesgo de provocar a la Union
Sovietica para que lanzara un ataque en lugar de

78
arriesgarse a perder sus cabezas nucleares.
Otros esperaban un bloqueo naval para impedir
que llegaran mas misiles a la isla y exigian la
retirada, si bien algunos temian que esto fuera
ineficaz.

Durante unos pocos y fatidicos dias, las dos


superpotencias lucharon con este dilema,
conscientes de las consecuencias que tendria
tomar una decision erronea. El presidente
Kennedy opto por un bloqueo naval, aunque
tambien se preparo para un ataque masivo
contra Cuba. Pocos dias mas tarde, tras febriles
negociaciones entre bastidores, la Union Sovietica
retiro los misiles y el mundo respiro de nuevo.

La crisis de los misiles de Cuba es uno de los


momentos decisivos de la Historia. Pero tambien
es un ejemplo terrorifico de un problema con el
que todos nosotros nos encontramos en la vida
cotidiana: como tomar las decisiones optimas

79
cuando no tenemos certeza de lo que esta
pensando la otra persona. Tales dilemas surgen
una y otra vez, desde los empleados que
intentan negociar un aumento de sueldo hasta
los jugadores de cartas que se preguntan si
deben tirarse un farol o pasar.

?Puede haber alguna forma de encontrar la


mejor manera de jugar, la estrategia optima que
conduzca al mejor desenlace posible? Esta es la
cuestion que algunos matematicos clarividentes
comenzaron a plantearse hace
aproximadamente un siglo. Encontraron la
solucion, creando en este proceso una nueva
disciplina denominada <<<Teoria del Juego>>>,
que desde entonces se ha aplicado en ambitos
que van desde la planificacion militar hasta el
poquer, de la economia a la evolucion.

Pese a su impresionante alcance, los origenes de


la Teoria del Juego radican en algo tan trivial

80
como la actividad que le da nombre: el juego. Ya
en 1713, el aristocrata ingles James Walde-grave
encontro un metodo de ganar en un juego de
cartas que contiene muchos de los elementos de
la moderna Teoria del Juego. Sin embargo, no
consiguio descubrir otras posibles aplicaciones, y
esta teoria tuvo que esperar otros doscientos
anos antes de despegar finalmente.

Otro jugador de cartas, el matematico frances


Emile Borel, hizo la conexion entre los juegos y
problemas mas graves. En 1921 publico el
primero de una serie de articulos sobre los juegos
en el que el ganador necesita encontrar la mejor
estrategia cuando no conoce lo que esta
pensando el oponente. Borel ideo una manera
ingeniosa de afrontar esta carencia de
informacion: jugar de tal modo que se
minimizaran las perdidas, independientemente de
como jugara el oponente. Usando esta
estrategia, Borel pudo plantear reglas generales

81
para jugar juegos simples, como <<<piedra,
papel y tijera>>>, mostrando que combinacion
de los tres se debia utilizar para minimizar las
perdidas. A diferencia de Waldegrave, tambien
reconocio que la misma idea podia tener
aplicaciones mas serias, por ejemplo en la
estrategia militar. Sin embargo, tambien advirtio
de los peligros de llevar estas ideas demasiado
lejos, en buena medida porque creia que no
habia una forma de encontrar la mejor estrategia
para <<<juegos>>> complejos en los que los
jugadores se enfrentaran a muchas opciones.

Pero Borel estaba equivocado. Siempre que haya


dos oponentes en la batalla por la supremacia, y
la ganancia de uno de los jugadores suponga la
perdida del otro, existe una mejor estrategia que
se debe utilizar. Es lo que se denomina estrategia
<<<mi-nimax>>>, cuya existencia probo un
brillante matematico hungaro de veinticinco anos,
John von Neumann.

82
Usando metodos extremadamente sofisticados,
Von Neumann demostro que la mejor estrategia
a utilizar en tales juegos consiste en estudiar
todas las opciones disponibles, calcular su peor
resultado posible y entonces elegir el menos
malo. Si algun oponente intenta hacerlo mejor,
se arriesga a sufrir una perdida mayor, haciendo
que esta estrategia <<<minimax>>> sea la
opcion mas racional. La estrategia tambien
resuelve el problema de intentar adelantarse a
los oponentes: suponiendo que siempre actuen
racionalmente, tambien escogeran la estrategia
<<<minimax>>>.

La prueba de Von Neumann del Teorema


Minimax hizo que se convirtiera en el padre de la
Teoria del Juego. Pero considero que solo era el
principio. En 1944, junto con el economista
austriaco Oscar Morgenstern, publico Theory of
Games and Economic Behaviour; que pretendia
hacer del Teorema Minimax la base de un nuevo

83
enfoque de la economia, que frecuentemente
implica a dos o mas oponentes compitiendo para
obtener el mejor resultado posible para si
mismos.

La obra de Von Neumann y Morgenstern


demostraba el gran potencial de la aplicacion de
la Teoria del Juego a algo mas que meros
pasatiempos. A principios de la decada de 1950,
estrategas militares estadounidenses la utilizaron
para dar sentido a la estrategia de la Guerra Fria,
aunque pronto descubrieron sus limitaciones. La
mas grave era la presuposicion de que la
ganancia de un jugador siempre corresponde
exactamente a las perdidas del otro. Aunque
muchos juegos simples, como las tres en raya,
obedecen a esta regla de <<<suma nula>>>,
muchas situaciones de la vida real no lo hacen.
Por ejemplo, en dilemas como el de la crisis de
los misiles de Cuba, un ataque de una de las
partes podria desencadenar una guerra nuclear,

84
que conllevaria la aniquilacion de ambos
jugadores.

El teorema de Von Neumann no se pronunciaba


sobre estos juegos de <<<suma no nula>>>. ?
Existia una manera de encontrar la estrategia
optima para jugarlos? Es mas, ?existe tal
estrategia? Una vez mas, un brillante
matematico encontro la respuesta, que de nuevo
fue afirmativa. En 1950, John Nash, un
estudiante de veintiun anos de Princeton, logro
ampliar el Teorema Minimax original de Von
Neumann para abarcar tambien los juegos de
<<<suma no nula>>>. Nash demostro que en
cualquier juego en el que participaran cualquier
numero de jugadores, siempre existe al menos
una estrategia que garantiza que los jugadores
solo pueden jugar peor si eligen cualquier otra
cosa.

Estas estrategias, conocidas hoy como Equilibrios

85
de Nash, son el centro de la Teoria del Juego.
Tambien son motivo de una enorme polemica.
Una razon es que estas estrategias no siempre
coinciden con la mejor eleccion obvia para los
jugadores. Un ejemplo totalmente pertinente fue
la carrera armamentistica nuclear que se inicio
cuando Nash realizo su descubrimiento. Tanto
Estados Unidos como la Union Sovietica sabian
que la mejor opcion era el desarme, pero
ninguno creia al otro, de modo que am-bos
terminaron gastando enormes sumas en armas
que esperaban no tener que utilizar nunca.

Tambien quedo claro que muchas situaciones


cotidianas tenian dos o mas Equilibrios de Nash, y
distaba mucho de estar claro cual de los
jugadores debia elegir. Un ejemplo
contemporaneo vivido se mostraba en la pelicula
Rebelde sin causa, producida en Hollywood en
1955 y protagonizada por James Dean. Dean
desempena el papel de Jim, que se enfrenta al

86
maton del instituto, Buzz, en un juego en el que
conducen sus coches hacia el final de un
acantilado, perdiendo el primero que se achique.
Jim y Buzz se enfrentan, por tanto, a la eleccion
entre dar un volantazo o seguir conduciendo, de
modo que el juego del <<<gallina>>> tenia
cuatro posibles resultados, ninguno de los cuales
era ideal6. Virar con brusquedad significaba
perder, pero si ambos seguian conduciendo el
resultado seria desastroso. Obviamente, era
mejor que los dos decidieran dar un volantazo:
perderian pero tambien ambos conseguirian vivir
un dia mas. Aunque desconcertante, el trabajo
de Nash demostro que esta eleccion
<<<obvia>>> no es un Equilibrio de Nash: cada
jugador puede jugar mejor decidiendo conducir
mientras el otro vira bruscamente. Peor aun,
resulta que el juego tiene dos estrategias del
Equilibrio de

Nash: conducir mientras el otro jugador da un

87
volantazo y viceversa. ?Pero de que manera
podria verse obligado el otro conductor a
mantener la estrategia?

Los teoricos del juego lucharon con esta


cuestion, solo para encontrar mas problemas.
Parecia que era necesario algo mas. Por ejemplo,
Jim podia aparentar que estaba borracho antes
de salir, dando por tanto la impresion de que la
muerte no le asustaba y enganando a Buzz para
que fuera el primero en dar el volantazo.

En resumen, el trabajo de Nash revelo que la


claridad que el resultado original de Von Neumann
aporto a la Teoria del Juego era ilusoria. Desde
entonces, los teoricos del juego se han dividido
en dos amplios campos: unos se centran en el
uso de los juegos clasicos, como el
<<<gallina>>>, para captar la esencia de un
problema, mientras que otros pretenden ampliar
la Teoria del Juego convencional y hacerla mas

88
realista. Ambos han logrado exitos
impresionantes en campos que van desde la
economia a la sociologia. Por ejemplo, Andrew
Colman y sus colaboradores (Universidad de
Leicester) han modelado el comportamiento de
los criminales en la sociedad como un juego del
<<<gallina>>>. Tanto los criminales como la
sociedad preferirian que el otro se echara atras
primero; por otra parte, ninguno de ellos saldria
beneficiado si todos se comportaran como
criminales. Usando la Teoria del Juego, Colman y
sus colegas demostraron que esto supone una
proporcion esencialmente estable de criminales
en la sociedad que tengan el suficiente exito sin
provocar que la sociedad caiga en ofensivas
draconianas. La Teoria del Juego tambien predice
que la reduccion del crimen por debajo de este
nivel exige medidas suficientemente duras para
convencer a los criminales de que mas les vale
reformarse, prediccion confirmada por los
resultados de las politicas de tolerancia nula que

89
se han aplicado en Nueva York y otras grandes
ciudades del mundo.

Tras el trabajo innovador realizado por el


britanico John Maynard Smith, especialista en
Teoria de la Evolucion, los biologos usan similares
ideas de la Teoria del Juego para saber por que
los animales adoptan cierto tipo de
comportamiento, como la agresion o la
cooperacion. En lugar del Equilibrio de Nash, los
biologos hablan de una <<<estrategia estable
evolutiva>>>, comportamiento que permite que
la poblacion resista la invasion de otros que se
comportan de modo diferente. El Teorema
Minimax original de Von Neumann se utiliza
incluso en los ordenadores que se emplean para
jugar al ajedrez, en los que ayuda a seleccionar
entre una enorme cantidad de posibilidades un
punado de movimientos que son los mejores.
Los desarrollos mas intrigantes en la Teoria del
Juego se centran en hacer que sea mas realista.

90
Un grupo dirigido por el britanico Nigel Howard —
especialista en la Teoria del Juego que asesoro al
gobierno estadounidense en las famosas
conversaciones de limitacion de armas de la
decada de 1960— ha desarrollado lo que se
conoce como Teoria del Drama, que incluye el
papel de las emociones en la Teoria del Juego.
Los jugadores que se encuentran atrapados en
un tipo de juego a menudo lo transforman en
otro juego en virtud de su respuesta emocional;
la Teoria del Drama intenta predecir los
resultados probables7.

Uno de los mayores avances en la Teoria del


Juego se debe a un cientifico politico, Steven
Brams (Universidad de Nueva York). Ha
desarrollado una extension de la Teoria del Juego
denominada Teoria de las Jugadas, que muestra
como evolucionan los juegos a medida que cada
jugador responde a las estrategias usadas por
otros. En comparacion con la Teoria del Juego

91
convencional, parece dar informacion mas
plausible acerca de acontecimientos mundiales
clave, desde la crisis de los misiles de Cuba hasta
el Acuerdo del Viernes Santo de Irlanda del
Norte. El poder de la Teoria del Juego cada vez
es mas reconocido fuera de sus confines
originales, como refleja la reciente concesion del
Premio Nobel a algunos de sus pioneros, incluido
John Nash, en 1994.

El comportamiento de la gente que se enfrenta a


elecciones duras puede no ser tan simple como
esperaba originalmente Von Neumann, pero no
hay duda de que la Teoria del Juego ha
demostrado ser inestimable desvelando algunos
de sus misterios.

?SON LOS CRIMINALES UN PROBLEMA


PERMANENTE?

92
La Teoria del Juego sugiere que es posible que
siempre tengamos que soportar a una pequena
proporcion de criminales en la sociedad. Segun el
psicologo Andrew Colman (Universidad de
Leicester), los criminales profesionales pueden
elegir una estrategia: pueden hacer lo que
quieren o adaptarse. Al mismo tiempo, nosotros
podemos aguantar a los criminales o podemos
adoptar sus practicas. La combinacion resultante
de estrategias y resultados es entonces como el
clasico juego del <<<gallina>>>. Los criminales
y nosotros obtendriamos el mejor resultado si la
otra parte se echara atras y cooperara; por otra
parte, el peor resultado posible seria que todos
se comportaran como criminales. Usando
metodos de la Teoria del Juego, Colman
demostro que esto conduce a un estado estable
en el que los criminales a los que se saca de
circulacion son reemplazados por ciudadanos que

93
en tiempos respetaban la ley y que se han visto
atraidos por el nicho que han dejado vacio los
criminales encarcelados. El resultado es la
existencia de un grupo permanente, aunque
pequeno, de criminales en la sociedad.

HACER LOS JUEGOS MAS DINAMICOS

El cientifico politico Steven Brams desarrollo la


Teoria de las Jugadas como una ampliacion de la
Teoria del Juego que refleja los aspectos
dinamicos de los conflictos. En lugar de
considerar cada conflicto como una situacion
esencialmente estatica, la Teoria de las Jugadas
permite incluir las respuestas de los oponentes,
dando lugar a un marco mas dinamico y
posiblemente mas realista en el que analizar los

94
conflictos. Brams y sus colaboradores han
utilizado la Teoria de las Jugadas para reevaluar
muchos conflictos reales, con resultados que
contradicen a menudo las predicciones de la
Teoria del Juego. Por ejemplo, cuando estaba
claro que Israel no iba a ser vencido en la guerra
del Yom

Kippur de 1973, la Union Sovietica —que


apoyaba a Egipto y Siria— ofrecio establecer un
acuerdo. La administracion Nixon, que estaba a
favor de los israelies, respondio poniendo a todas
las fuerzas militares estadounidenses en alerta
nuclear mundial. La Teoria del Juego predice que
esto debia haber convertido la guerra en una
confrontacion entre las superpotencias, pero la
Teoria de las Jugadas demuestra que era mas
probable que condujera a la paz, que fue lo que
afortunadamente ocurrio.

95
Cronologia

1713 El aristocrata ingles James


Waldegrave encuentra el metodo de jugar
de forma optima el juego de cartas <<<le
Her>>> que contiene la estrategia
<<<minimax>>>, el concepto basico de
la Teoria del Juego.

1921 El matematico frances Emile Borel


publica articulos sobre el juego en los que
ganar implica hallar la mejor estrategia
cuando no se sabe lo que esta pensando
el oponente.

1928 El hungaro John von Neumann


prueba el <<<Teorema Minimax>>>, un
resultado clave de la Teoria del Juego para
juegos de dos personas con suma nula.

96
1944 Von Neumann y el economista
austriaco Oscar Mor-genstern publican
Theory of Games and Economic
Behaviour, proponiendo un enfoque basado
en la Teoria del Juego aplicada a la
economia.

1950 John Nash, estudiante de Princeton,


amplia el Teorema Minimax original de Von
Neumann para abarcar los juegos de suma
no nula y acuna el concepto de Equilibrio de
Nash.

1955 La pelicula Rebelde sin causa,


protagonizada por James Dean, incluye el
problema clasico de la Teoria del Juego de
jugar al <<<gallina>>>.

1973 El ingles John Maynard Smith,


teorico de la evolucion, utiliza la Teoria del
Juego para estudiar de que manera
especies competidoras pueden alcanzar un

97
equilibrio estable de sus poblaciones.

1991 Nigel Howard, experto veterano en


la Teoria del Juego, y sus colaboradores
comienzan a desarrollar la Teoria del
Drama, que incluye el papel de las
emociones en la Teoria del Juego.

1994 El profesor Steven Brams


(Universidad de Nueva York), cientifico
politico, introduce la Teoria de las Jugadas,
que analiza de que manera evolucionan los
juegos a medida que cada jugador
responde a las estrategias utilizadas por los
demas.

John Nash y otros pioneros de la Teoria del


Juego comparten el Premio Nobel de
Economia.

98
Citas

Tanto en la Teoria del Juego como en la


Teoria de las Jugadas, los conflictos se
analizan a menudo a traves de lo que se
denomina <<<matriz de resultados>>>,
que establece las diversas opciones a las
que se enfrentan los diversos oponentes, y
sus respectivos resultados. Por ejemplo,
en el juego del <<<gallina>>> descrito en
la pelicula Rebelde sin causa, la matriz de
resultados es la siguiente:

Opc io nes de
Buz z
Dar un volantazo
Seguir adelante

99
Opc io nes de J im
Dar un volantazo
(3,3)
(2,4)
Seguir adelante
(4,2)
(1,1)

Aqui los resultados se presentan de forma


<<<ordinal>>>, esto es, como
clasificaciones, siendo 4 la mejor
clasificacion y 1 la peor. La matriz refleja,
por tanto, el hecho de que dar un
volantazo puede ser muy bueno para
ambos (3,3), pero el que ambos sigan
adelante sera desastroso (1, 1). El
resultado de cualquier juego se evalua
luego considerando como responderan los
jugadores a las diversas combinaciones de
resultados y, en la Teoria de las Jugadas,
si querran pasar a otras opciones en su

100
busqueda de algo mejor.

Las criticas a la Teoria del Juego se


centran a menudo en su presuposicion de
que los <<<jugadores>>> siempre se
comportan racionalmente. Nigel Howard ha
ilustrado los peligros de la presuposicion de
la racionalidad con la historia real de dos
economistas que toman un taxi para ir a
su hotel en Jerusalen. Preocupados porque
el taxista pretendiera cobrarles de mas,
decidieron no regatear el precio hasta llegar
al hotel, momento en el que su posicion
para la negociacion seria mucho mas firme.
Pero su estrategia teorica de juego,
enteramente racional, no funciono
demasiado bien. Dandose cuenta de que
habia sido acorralado por estos dos
sabelotodos, el conductor cerro las puertas

101
del taxi, los llevo de vuelta al lugar de
donde partieron y los dejo tirados en plena
calle.

102
HACER LO IMPOSIBLE

103
4
Inteligencia Artificial

En pocas palabras

Desde la decada de 1950, los cientificos han desarrollado


metodos que permiten que los ordenadores hagan algo
mas que simples tareas de procesamiento de datos
numericos. Para dotar de <<<Inteligencia Artificial>>>
(IA) a las computadoras, tienen que ser programadas de
forma que puedan realizar tareas de tipo humano, como
razonar a partir de pruebas y reconocer modelos.
Actualmente ha surgido toda una serie de tecnicas de
Inteligencia Artificial para abordar esos retos; utilizan
lenguajes de programacion especiales que permiten que
los ordenadores adquieran una experiencia de tipo
humano para aplicarla a nuevos problemas. Estos grandes
adelantos han logrado algunos exitos impresionantes,
desde el diagnostico de enfermedades a partir de los
sintomas hasta el descubrimiento de criminales buscados
en las imagenes de las camaras de seguridad. Algunos
ordenadores de Inteligencia Artificial especializados incluso
han creado autenticas obras de arte, han realizado sus

104
propios descubrimientos cientificos y han vencido a
campeones mundiales del ajedrez y de las damas. Incluso
asi, las computadoras deben recorrer aun un largo camino
antes de hacerse autenticamente <<<inteligentes>>> y
pasar la denominada Prueba de Turing, segun la cual los
ordenadores pueden convencer a la gente de que son
realmente humanos. Uno de los mayores problemas estriba
en conseguir que los ordenadores comprendan el lenguaje
convencional, con todas sus ambiguedades.

Como todos los artistas de renombre, Aaron


tiene un estilo unico: el resultado de mas de
veinte anos dedicados a llegar a dominar el color
y la composicion. Con pinceladas energicas y
colores intensos, Aaron trabaja con rapidez,
creando imagenes que vendera por miles de
libras en todo el mundo.

No es que Aaron este pensando en el dinero. De


hecho, es discutible si realmente piensa, porque
Aaron es un ordenador. Hablando con propiedad,
Aaron ni siquiera es eso: no es mas que miles de
lineas de Lisp, un lenguaje de programacion que

105
puede dotar a un ordenador de la caracteristica
mas controvertida: la Inteligencia Artificial. Desde
principios de la decada de 1970, Harold Cohen,
artista y cientifico computacional britanico
(Universidad de San Diego, California), ha dotado
a Aaron de capacidades que le permiten crear
trabajos unicos sin ninguna ayuda humana. ?
Piensa Aaron? ?Es creativo? Estas son cuestiones
fundamentales del campo de la Inteligencia
Artificial y su busqueda por dotar a las maquinas
de la capacidad de la mente humana.

Es una busqueda cuya fortuna ha sufrido


diversos altibajos desde que comenzara hace
aproximadamente medio siglo. Hoy en dia, a
comienzos del siglo XXI, esta abriendose camino
en la vida diaria. Pero lo esta haciendo de
maneras muy diferentes a la imagineria de
ciencia ficcion —de robots humanoides y
ordenadores descontentos como HAL en 2001:
una odisea del espacio— que en tiempos evoco.

106
Tambien se ha tardado medio siglo en
deshacerse del fantasma del hombre al que
muchos consideran el padre de la Inteligencia
Artificial. En 1950, pocos anos antes de su
suicidio a la edad de cuarenta y un anos, Alan
Turing, brillante matematico, descifrador y
pionero de la computacion de Cambridge, tuvo
una vision del futuro. Profetizo que a finales de
siglo XX los ordenadores serian capaces de
mantener una conversacion de cinco minutos con
los seres humanos y harian que el 30% de ellos
creyeran que estaban conversando con otro ser
humano.

El plazo paso; sin embargo, pese a haber


gastado miles de millones de libras en
financiacion, ningun ordenador ha llegado a hacer
creer a su creador de que realmente es un ente
<<<pensante>>>. ?Han fracasado los
cientificos computacionales en su investigacion?
En absoluto: de hecho, en algunos casos, como

107
Aaron, podria decirse que han logrado dotar a las
maquinas de capacidades que pueden superar a
las de un ser humano.

Mas importante aun es que la mayoria de los


investigadores del campo de la Inteligencia
Artificial han empezado a considerar la vision de
Turing como irrelevante en comparacion con un
objetivo de mucho mayor calibre: la creacion de
maquinas que puedan librar a los seres humanos
de tareas pesadas como la deteccion de celulas
cancerosas en preparaciones histologicas o el
descubrimiento de fraudes en documentos
financieros.

Aun asi, en sus inicios, la investigacion de la


Inteligencia Artificial estaba orientada por la
creencia de que las maquinas pronto serian
capaces de lograr rasgos similares a los humanos
e incluso superarlos. Este optimismo provenia de
un descubrimiento fundamental que habian

108
hecho los investigadores sesenta anos atras: que
incluso <<<cerebros electricos>>>
rudimentarios pueden lograr hazanas
impresionantes.

En 1943, dos neurologos estadounidenses,


Warren McCu-Uoch y Walter Pitts, dejaron
anonadados a sus colegas al demostrar que era
posible comprender la accion de los nervios
usando las leyes de la logica matematica, que
sustentan los procesos basicos del razonamiento.
Tambien probaron que se puede hacer una
imitacion de los nervios usando circuitos electricos
conectados de ciertas formas, lo que abria por
tanto la posibilidad de crear cerebros artificiales
que pudieran razonar y <<<pensar>>>.

Dado que los autenticos cerebros contienen miles


de millones de celulas nerviosas, parecia probable
que cualquier imitacion de su capacidad utilizando
componentes electricos se encontraria a anos

109
luz. Sin embargo, los investigadores descubrieron
pronto que incluso <<<redes neuronales>>>
relativamente simples podian ser entrenadas
para resolver tareas sorprendentemente dificiles.

El truco consistia en conectarlas de modo que su


respuesta a entradas de datos particulares
pudiera afinarse para conseguir el resultado
correcto. En 1951, Marvin Minsky, cientifico
compu-tacional estadounidense, habia conectado
cientos de tubos de vacio de modo que pudieran
aprender a imitar la capacidad de las ratas de
moverse por un laberinto.

Parecia que estaba claro el camino a seguir:


simplemente crear redes neuronales mayores y
entrenarlas. Sin embargo, no todo el mundo
estaba convencido. El problema de dichas redes
era, y es, que nunca ha estado claro con
exactitud como o por que actuan como lo hacen.
Abrirlas para examinar sus conexiones no es en

110
absoluto algo util.

Tales cuestiones llevaron a algunos


investigadores a seguir una via diferente hacia la
Inteligencia Artificial, basada directamente en las
reglas de la logica. La idea era crear maquinas
cuyos circuitos imitaran la capacidad de
razonamiento de la mente humana. A mediados
de la decada de 1950, Herbert Simon (Carnegie
Institute of Technology, Pittsburg) y sus
colaboradores lograron aprehender las leyes de la
logica en un formato que pudieran comprender
los ordenadores. El resultado fue <<<The Logic
Theorist>>> (<<<El Teorico Logico>>>),
cuyas habilidades no eran menos asombrosas
que las de la <<<rata>>> electrica de Minsky.
El programa, pese a utilizarse en una
computadora relativamente primitiva, podia
probar docenas de teoremas sobre los
fundamentos de las matematicas, tarea que se
creia reservada a logicos humanos brillantes.

111
Ahora se considera que The Logic Theorist fue el
primer programa de Inteligencia Artificial; hizo su
debut en 1956, en la primera conferencia de
Inteligencia Artificial, celebrada en el Dartmouth
College (New Hampshire). La conferencia estuvo
rodeada de gran interes por las perspectivas que
entonces surgieron, y asistio al nacimiento del
termino <<<Inteligencia Artificial>>>. Al ano
siguiente, Herbert Simon predijo que en diez anos
surgirian ordenadores tan inteligentes que serian
capaces de hacer sus propios descubrimientos
matematicos y convertirse en campeones del
mundo de ajedrez.

A principios de la decada de 1960, las redes


neuronales iban viento en popa. En el Cornell
Aeronautical Laboratory (Nueva York), el
psicologo Frank Rosenblatt habia creado el
Perceptron, una red de sistemas electricos que
tenia la asombrosa capacidad de
<<<recordar>>> patrones de luces. Al igual que

112
un ser humano al que se pusiera frente a una
cara familiar, se podia entrenar al Perceptron
para que reconociera ciertos patrones de luces.

Se trataba de un logro impresionante que pronto


llevo a Rosenblatt a promocionar el Perceptron
como el prototipo de una autentica maquina
<<<pensante>>>. No obstante,
inevitablemente estas afirmaciones
grandilocuentes molestaron a sus rivales, en gran
medida porque amenazaban sus posibilidades de
obtener parte de los ingentes fondos que el
Departamento de Defensa de Estados Unidos
ofrecia para la investigacion en materia de
Inteligencia Artificial.

En 1969, dos rivales de Rosenblatt, Seymour


Papert y Marvin Minsky (Massachusetts Institute
of Technology), publicaron un libro en el que
afirmaban que habian probado que el futuro de la
Inteligencia Artificial no podia relacionarse con el

113
Percep-tron. Demostraron que carecia de la
capacidad para resolver un tipo de problema
logico importante en las aplicaciones de
Inteligencia Artificial, al menos en su formato
mas simple. Tambien insistieron en que no habia
forma de modificar el Perceptron para conseguir
esto. Pronto se demostro que estas afirmaciones
eran falsas, pero para entonces Papert y Minsky
habian conseguido interrumpir la concesion de
fondos no solo para el Perceptron sino para toda
la investigacion de redes neuronales.

Hasta mediados de la decada de 1980, el camino


hacia la Inteligencia Artificial estuvo dominado por
programas basados en la logica que se utilizaban
en ordenadores convencionales. La atencion se
centro en los denominados metodos de sistemas
expertos, en los que se dotaba a los
ordenadores de las capacidades de expertos
humanos en el campo del diagnostico medico o la
deteccion de fraudes, por ejemplo. Esto

114
implicaba el establecimiento de una <<<base de
conocimiento>>> de reglas basada en
entrevistas estructuradas con expertos
humanos, y la programacion de los ordenadores
para aprovechar estas reglas, aplicando la logica
para llegar a tomar decisiones, por ejemplo,
sobre la mejor manera de tratar a un paciente
con cancer.

Sin embargo, como ocurre con tanta frecuencia


en la investigacion de la Inteligencia Artificial, la
realidad distaba mucho de cumplir las
expectativas. Aprehender la experiencia humana
resulto ser mucho mas dificil de lo que muchos
pensaban, mientras que los ordenadores de
aquella epoca tenian problemas para afrontar las
exigencias de razonamiento logico. Tampoco
habia nadie dispuesto a dar la bienvenida a estos
<<<expertos>>> compu-tarizados en su area
de trabajo. Los informes de su fracaso se
acogieron con regocijo: mientras las empresas

115
que los consideraban utiles se mantuvieran en
silencio, menos rivales descubririan el secreto de
su exito.

A mediados de la decada de 1980, estaba claro


que los sistemas expertos nunca podrian llegar a
ser la panacea, tal como algunos habian
afirmado. Pero por aquella epoca comenzaba a
resurgir el interes por las redes neuronales. John
Hopfield, biologo teorico de Caltech, reavivo el
interes por las relaciones entre las redes
neuronales y las celulas vivas, mientras que otros
investigadores apuntaban soluciones al
argumento supuestamente demoledor de Papert
y Minsky contra el Perceptron. Para entonces
parecia que se habian superado mas o menos
las luchas intestinas y se disponia de una
potencia computacional barata y abundante, por
lo que el campo de la Inteligencia Artificial se
establecio para afrontar los problemas del mundo
real.

116
Su variedad es asombrosa. Las capacidades de
razonamiento logico de los sistemas expertos se
han aplicado en campos que van desde el
descubrimiento del fraude en la banca hasta la
deteccion de secuencias genicas entre los mnes
de millones de bases del ADN. Entretanto, las
redes neuronales han tenido exito en aplicaciones
que aprovechan sus puntos fuertes: la deteccion
de patrones y el aprendizaje de la experiencia.
Ahora se estan utilizando para vigilar los
automoviles sospechosos que se aproximan a
Londres, descubrir a delincuentes buscados en
las calles principales e incluso detectar signos de
posible violencia entre el gentio antes de que
estallen*.

* La mayoria de nosotros detesta el correo


basura, pero seria incluso mas irritante si no
fuera por los metodos de Inteligencia Artificial,
que han garantizado que la mayor parte del
correo basura vaya a donde debe ir. Esto ha sido

117
posible gracias al uso de la Inteligencia Artificial en
lo que se denomina <<<extraccion de
datos>>>, proceso en el que se utilizan
ordenadores para buscar patrones en la inmensa
cantidad de datos que generamos simplemente
en nuestra vida cotidiana. Utilizando fuentes
como los datos de caja de los supermercados,
las tecnicas de Inteligencia Artificial pueden
deducir quienes somos, lo que buscamos y
cuando, y pueden orientar el material publicitario
en consecuencia.

Pese a toda su utilidad, los actuales sistemas de


Inteligencia Artificial aplicados a la vida real
parecen estar lejos de las <<<maquinas
pensantes>>> que en tiempos se auguraron. ?
Que paso con la vision de Alan Turing de un
ordenador que pudiera convencer a los seres
humanos de ser uno de ellos, o con la prediccion
que hizo Herbert Simons en 1957 de que llegaria
el dia en que los ordenadores serian capaces de

118
hacer descubrimientos matematicos y de
convertirse en campeones del mundo de
ajedrez?

De hecho, todas estas predicciones se hicieron


realidad, al menos hasta cierto punto. En 1966,
Joseph Weizenbaum, del Massachusetts Institute
of Technology (MIT), dio a conocer a Eliza, un
ordenador capaz de responder a los seres
humanos usando lenguaje ordinario.
Weizenbaum esperaba que Eliza echara abajo las
barreras existentes entre los ordenadores y los
seres humanos. Para horror suyo, encontro que
eran demasiados los seres humanos que
estaban mas que deseosos de romper por si
mismos esas barreras. Eliza estaba programado
para dar respuestas como las que se esperan de
un psicoterapeuta. Afirmaciones como
<<<Tengo problemas con mi padre>>>
llevaban a Eliza a responder: <<<Hableme de
el>>>.

119
Weizenbaum descubrio que la gente abria
rapidamente su corazon a esta maquina. Estaba
muy preocupado por el hecho de que, pese a
ser evidente que Eliza no <<<piensa>>>,
demasiados seres humanos le permitirian pasar
el Test de Turing.

La prediccion de Simon de que un ordenador


haria un descubrimiento matematico se hizo
realidad en 1976, cuando un programa basado
en la logica denominado AM, desarrollado por
Douglas Lenat (Stanford University), afirmo que
cualquier numero par igual o mayor que cuatro
es la suma de dos numeros primos. El
matematico Christian Goldbach habia hecho la
misma afirmacion unos doscientos anos antes;
incluso asi, el hecho de que AM hubiera
descubierto de nuevo la <<<conjetura de
Goldbach>>> dejaba entrever el potencial de la
Inteligencia Artificial8.

120
Una demostracion aun mas impresionante llego
en 1997, cuando el ordenador Deep Blue de IBM
batio a Gary Kasparov, el mejor jugador de
ajedrez de la historia.

Estos exitos, aunque espectaculares, son el


resultado de proyectos excepcionales, que
utilizan metodos alejados de la corriente
dominante en la investigacion de la Inteligencia
Artificial. Evidentemente, arrojan poca luz sobre
como es posible que los 1.300 gramos de la
blanda sustancia gris a la que denominamos
cerebro humano pueda hacer todas estas cosas
y muchas mas.

Cincuenta anos despues de su inicio, resulta claro


que la busqueda para aprehender esa
asombrosa capacidad en un ordenador sigue
siendo tan desafiante como siempre.

121
LA TRAMPA ANTROPOMORFA

Cada ano, los investigadores de la Inteligencia


Artificial compiten por el Premio Loebner,
instaurado en 1990 por un filantropo
estadounidense y dotado con 100.000 dolares y
una medalla para los disenadores del primer
ordenador que convenza a los jueces de que es
medianamente humano. Aunque ningun
ordenador aun se haya acercado lo suficiente
para reclamar el premio, cada ano se concede la
suma de 2.000 dolares y una medalla de bronce
al mejor programa informatico, algunos de los
cuales se encuentran en linea (vease
www.tinyurl.com/9men4). La interaccion con ellos
a menudo pone de relieve un rasgo que se ha
observado desde el inicio de la investigacion de la
Inteligencia Artificial: nuestra tendencia al
antropomorfismo. En 1966, Joseph Weizenbaum

122
(Massachusetts Institute of Technology) dio a
conocer a Eliza, un programa informatico que
hacia una exacta e inquietante imitacion de un
psicoterapeuta. Su exito se debia a trucos como
llevar las conversaciones hacia el paciente
siempre que fuera posible, incitandole por tanto a
realizar todo el proceso de pensamiento.
Weizenbaum encontro que la tendencia de la
gente a abrir su corazon al ordenador era
r e a l m e n t e alarmante: <<<Exposiciones
extremadamente breves a un programa
informatico relativamente simple>>>, observo,
causan <<<un poderoso pensamiento delirante
en gente muy normal>>>.

EL EXPERTO EN SHAKESPEARE
COMPUTARIZADO

123
Como el cerebro humano, las redes neuronales
son especialmente buenas descubriendo
patrones ocultos entre detalles confusos. Esto ha
supuesto aplicaciones inusuales de este tipo de
tecnologia de Inteligencia Artificial, incluida la
estilometria, la identificacion de los autores a
partir de su estilo de escritura. A principios de la
decada de 1990, Tom Merriam, experto en
Shakespeare, y yo, desarrollamos una red
neuronal que puede reconocer el estilo de
escritura de Shakespeare y sus contemporaneos.
Funciona extrayendo de amplias muestras de
texto caracteristicas estilometricas, como las
frecuencias relativas de ciertas palabras, y
asociandolas con cada autor. Una vez
entrenada, la red neuronal se mostro muy habil
identificando a autores de textos que no habia
visto antes. Tambien brindo informacion
interesante sobre el misterio de la transformacion
de Shakespeare, actor eventual, en un genial
dramaturgo. Algunas de sus primeras obras

124
mostraban signos de ser versiones enmendadas
de libretos escritos por el gran Christopher
Marlowe, contemporaneo suyo.

Cronologia

1943 Warren McCulloch y Walter Pitts


crean <<<redes neuronales>>>
electricas.

1950 Alan Turing desarrolla la prueba que


lleva su nombre para determinar si un
ordenador es <<<pensante>>>.

1951 Marvin Minsky crea una


<<<rata>>> electronica que aprende a
escapar de un laberinto.

125
1956 Conferencia en el Dartmouth College
en la que John McCarthy acuna el termino
de <<<Inteligencia Artificial>>>. Herbert
Simon y sus colaboradores presentan el
primer programa de Inteligencia Artificial.

1960 Frank Rosenblatt (Cornell University)


muestra el Perceptron.

1969 Las criticas de Minsky y Seymour


Papert acaban con la investigacion sobre
redes neuronales.

1972 Harold Cohen comienza a trabajar


en Aaron, el artista computarizado. … 1976
Douglas Lenat (Stanford University) crea
AM, un programa que hace
descubrimientos matematicos. 1982 John
Hopfield (Caltech) reactiva la investigacion
de redes neuronales.

1997 El ordenador Deep Blue, de IBM,

126
vence al campeon mundial de ajedrez Gary
Kasparov.

1990 hasta la fecha Los metodos de


Inteligencia Artificial comienzan a
generalizarse.

Citas

Los origenes de la aparente creatividad de


AM han sido motivo de una considerable
polemica. En 1984, Keith Hanna y Graeme
Ritchie, expertos britanicos en Inteligencia
Artificial, publicaron un estudio de AM que
demostraba que puede haberse
beneficiado de las ideas creadas
inconscientemente en su codigo por Lenat
para ayudar a descubrir nuevas ideas, y

127
tambien de que Lenat identificara las ideas
prometedoras a medida que surgian de
AM. Ademas, el propio Lenat apunto que
Lisp, el lenguaje computational utilizado
para crear AM, tenia su origen en el
denominado calculo lambda, que fue
inventado especificamente para probar las
bases de las matematicas. Lenat empezo
a sospechar que los exitos matematicos de
AM eran principalmente el resultado de las
importantes correlaciones entre Lisp y las
matematicas.

128
5
Teoria de la Informacion

En pocas palabras

Desde los DVD y los discos duros hasta las comunicaciones


via satelite y los mensajes de texto, la informacion
desempena un papel fundamental practicamente en todos
los aspectos de nuestras vidas. En 1948, un ingeniero
estadounidense llamado Claude Shannon establecio las
bases de lo que ahora se conoce como Teoria de la
Informacion, que mostro los limites para conseguir
comunicaciones rapidas a la par que fiables. Llevo al
desarrollo de tecnicas, como la compresion de datos y la
correccion de errores, que permiten almacenar y transmitir
datos de la forma mas eficiente posible. Pero se ha
probado que la Teoria de la Informacion tiene tambien
importantes aplicaciones en problemas mucho mas
profundos. El codigo genetico del ADN ha resultado ser un
ejemplo elegante de almacenamiento de informacion, y los
investigadores estan utilizando la Teoria de la Informacion
para descodificar los genomas de los organismos vivos.
Entretanto, los fisicos han encontrado pruebas de que la

129
informacion constituye el centro de la clarividente Teoria
del Todo. En resumen, la Teoria de la Informacion abarca
la vida, el Universo y todo.

Nunca antes se habia intentado nada por el


estilo; ni siquiera los expertos de la NASA sabian
si realmente iba a funcionar. Pero despues de
monitorizar los datos, cabian pocas dudas: habia
que hacer algo o perderian el contacto con su
sonda espacial para siempre. El Voyager I,
lanzado en 1977, habia enviado imagenes
espectaculares de Jupiter y Saturno, y luego
habia abandonado el sistema solar en una mision
sin retorno hacia las estrellas. Pero al cabo de
veinticinco anos de exposicion a las gelidas
temperaturas del espacio infinito, la sonda
espacial habia comenzado a dar signos de su
edad. Sensores y circuitos estaban a punto de
fallar, y al encontrarse la sonda a 12,5 billones de
kilometros de la Tierra, parecia que nadie podia
hacer nada. A no ser, claro esta, que los

130
ingenieros de la NASA pudieran enviar de alguna
manera un mensaje al Voyager I con
instrucciones para que desempolvara algunos
repuestos y los utilizara en lugar de los viejos. En
abril de 2002, una de las enormes antenas
parabolicas de radio perteneciente a la red Deep
Space de la NASA envio un mensaje a los
confines del espacio. Incluso viajando a la
velocidad de la luz, tardo once horas en llegar a
su objetivo, mucho mas alla de la orbita de
Pluton. Sin embargo, por increible que parezca, la
pequena sonda espacial consiguio escuchar la
debil llamada de su planeta y logro realizar con
exito el cambio.

Se trataba del trabajo de reparacion a distancia


mas importante que se habia realizado en la
historia, todo un triunfo para los ingenieros de la
NASA. Pero tambien senalaba la asombroso
potencial de las tecnicas desarrolladas por un
ingeniero de telecomunicaciones estadounidense,

131
Claude Shannon, que habia muerto justamente el
ano anterior. En la decada de 1940, habia creado
en solitario toda una ciencia de la comunicacion
que habia encontrado desde entonces gran
cantidad de aplicaciones, desde los DVD hasta las
comunicaciones via satelite y los codigos de
barras —en resumen, en cualquier lugar donde
los datos tuvieran que transmitirse de forma
rapida y exacta.

La conocida como Teoria de la Informacion


constituye la base de muchas de las tecnologias
mas importantes en la actualidad. Pero ahora ha
comenzado a surgir un nuevo campo de
aplicaciones, con profundas implicaciones
respecto a la propia naturaleza del espacio y el
tiempo. Algunos de los principales fisicos del
mundo creen que la Teoria de la Informacion
proporciona la clave para comprender algunos de
los misterios mas profundos del cosmos, desde
la naturaleza de los agujeros negros hasta el

132
propio significado de realidad.

Todo esto parece estar a anos luz de los usos


practicos que Shannon dio originalmente a su
trabajo, que comenzo cuando tenia veintidos
anos, en 1939, y como licenciado en ingenieria
en el prestigioso Massachusetts Institute of
Technology. Empezo con un proposito
aparentemente simple: definir el significado
preciso del concepto de <<<informacion>>>.
Shannon sugeria que la forma mas basica de
informacion es si algo es verdadero o falso, algo
que puede registrarse mediante una unidad
binaria unica o <<<bit>>>, con la forma 1 o 0.
Habiendo identificado esta unidad fundamental,
Shannon empezo a definir ideas, por lo demas
vagas, sobre la informacion y la transmision de
esta de un lugar a otro. Durante este proceso
descubrio algo sorprendente: siempre es posible
garantizar que los mensajes superan
interferencias aleatorias (<<<ruido9>>>)

133
manteniendose intactos. Shannon demostro que
el truco consiste en encontrar la manera de
codificar (<<<empaquetar>>>) la informacion
para afrontar los estragos del ruido, pero
manteniendose dentro del ancho de banda (la
capacidad de transporte de informacion) del
sistema de comunicacion.

A lo largo de los anos, los cientificos han


concebido muchos de esos metodos de
codificacion que han demostrado ser cruciales en
muchas hazanas tecnologicas. La sonda espacial
Voyager trasmitia datos usando codigos que
anadian un bit extra por cada bit de informacion;
el resultado fue una tasa de error del solamente
un bit por cada diez mil e imagenes
asombrosamente claras de los planetas. Otros
codigos han pasado a formar parte de la vida
diaria, como el codigo de producto universal o
<<<codigo de barras>>>, que utiliza un simple
sistema de deteccion de errores que garantiza

134
que los laseres de chequeo de los
supermercados puedan leer el precio incluso, por
ejemplo, en una bolsa arrugada de patatas
fritas. En 1993, ingenieros de France Telecom
realizaron un gran avance descubriendo los
denominados codigos turbo, que se acercan
mucho al limite final de Shannon y ahora
desempenan un papel fundamental en la
revolucion de los videotelefonos moviles.

Shannon tambien establecio la base para


conseguir formas eficientes de almacenar la
informacion, deshaciendose de los bits
innecesarios (<<<redundantes>>>) de datos
que poco contribuyen a la informacion real. Como
demuestran mensajes de texto por telefono
movil como <<<lbso, tqm>>> a menudo es
posible eliminar un monton de datos sin perder
mucho significado. Sin embargo, como ocurre
con la correccion de errores, existe un limite mas
alla del cual los mensajes se hacen demasiado

135
ambiguos. Shannon demostro como calcular este
limite, abriendo el camino al diseno de metodos
de compresion que incluyen la mayor cantidad de
informacion en el minimo espacio.

No resulta sorprendente que la publicacion de


Shannon, en 1948, de Mathematical Theory of
Communication se reconociera rapidamente
como un momento crucial en la historia
tecnologica. Sin embargo, el propio Shannon
rehuso tomar parte en lo que consideraba un
despliegue publicitario. Ironicamente, ya habian
surgido insinuaciones de que la Teoria de la
Informacion era incluso mas importante de lo
que nunca hubieran podido pensar sus partidarios
mas entusiastas.

En esa epoca, muchos cientificos luchaban por


resolver el misterio de la informacion biologica, en
concreto la naturaleza precisa de las instrucciones
usadas por los organismos vivos para

136
reproducirse. Los investigadores hablaban
vagamente de <<<genes>>>, aunque nadie
sabia lo que eran realmente. Muchos creian que
tenian que ser proteinas, que parecian tener la
complejidad necesaria para actuar como
instrucciones para los organismos vivos. Pero en
1944, el bioquimico estadounidense Oswald Avery
y sus colaboradores sorprendieron a muchos
demostrando que la informacion genetica era
transportada en las celulas por una molecula
mucho mas simple, conocida como ADN.

Hubieron de pasar otros veinte anos para


descubrir de que manera la informacion es
transportada por las cuatro <<<bases>>>
quimicas del ADN, pero resultaba que los genes
habian evolucionado de acuerdo a los principios
de la Teoria de la Informacion. Sin embargo, en
el caso de organismos complejos como los seres
humanos, los genes constituyen solo un pequeno
porcentaje del ADN, correspondiendo el resto a

137
secuencias de bases aparentemente inutiles
denominadas ADN <<<basura>>>. En 1992,
Eugene Stanley (Universidad de Boston) utilizo
una tecnica basada en la Teoria de la
Informacion para descubrir pistas de
<<<redundancia>>> en el ADN basura, que
indicaran que existe informacion escondida en
estas regiones no geneticas. En la actualidad es
cada vez mayor el numero de investigadores que
sospechan que el exito de la medicina genomica
dependera del conocimiento de la repercusion de
la informacion existente en el ADN
<<<basura>>>.

La Teoria de la Informacion tambien esta


surgiendo como parte fundamental de la
busqueda del santo grial de la fisica teorica: la
Teoria del Todo. Abordaremos con detalle este
asunto en el capitulo 21, pero baste decir por
ahora que la Teoria del Todo pretende reunir en
un conjunto unico de ecuaciones el origen y la

138
naturaleza del cosmos y de lo que en el existe. El
mayor obstaculo ha sido la combinacion de las
dos teorias de mayor exito en la ciencia: la
Teoria Cuantica, que gobierna el mundo
subatomico, y la Teoria General de la Relatividad
de Einstein, que describe la naturaleza de la
gravedad. Estas dos teorias no podian ser mas
diferentes. Segun la Teoria Cuantica, la gravedad
se transmite de un lugar a otro mediante
<<<particulas transportadoras>>>, mientras
que la Teoria de la Relatividad considera que la
gravedad es el resultado de la curvatura del
espacio y el tiempo. Algo como una Teoria del
Todo debe unificar estos dos conceptos
radicalmente diferentes, ?pero como?

A principios de la decada de 1970 surgieron


indicios de que la Teoria de la Informacion podria
constituir la clave, tras la investigacion de los que
probablemente sean los objetos mas extranos
del Universo: los agujeros negros. Formados

139
siempre que objetos como las estrellas
supermasivas se colapsan bajo la accion de su
propia gravedad, los agujeros negros incluyen tal
cantidad de masa en un espacio tan pequeno
que sus campos gravitacionales son
increiblemente intensos; tanto que ni siquiera la
luz puede escapar de sus garras.

En 1973, un joven estudiante de la Universidad


de Princeton, Jacob Bekenstein, comenzo a
estudiar las implicaciones del prodigioso apetito de
los agujeros negros. Cada vez que un objeto
desaparece dentro de ellos, hay informacion que
va junto con el objeto, pero Bekenstein probo
que existe un limite para la cantidad informacion
que puede contener un determinado agujero
negro. La cantidad es inimaginablemente vasta:
incluso un agujero negro del tamano de un
proton puede contener tanta informacion como
billones de discos compactos. Pero lo que
intrigaba a los cientificos era la formula con la que

140
se obtuvo este limite maximo, conocida como
limite de Bekenstein. Contra lo que indica el
sentido comun, la formula demostraba que el
limite no depende del volumen del agujero negro,
sino solo de su area superficial. En segundo
lugar, la respuesta que da se expresa en
terminos de lo que se denominan areas de
Planck. Se trata de las mas pequenas superficies
de espacio concebibles, y se espera que
desempenen un papel fundamental en cualquier
Teoria del Todo.

Dicho de otro modo, la formula de Bekenstein


parecia apuntar a conexiones entre la clarividente
Teoria del Todo y la informacion. En los ultimos
anos, otros teoricos han hallado muchas mas de
estas indicaciones. Se ha encontrado que
diferentes enfoques al problema de la unificacion
de la teoria cuantica con el concepto de
gravedad de Einstein llevan a la formula de
Bekenstein, fomentando la confianza en que la

141
informacion probara ser importante en la Teoria
del Todo definitiva.

En 1999, el fisico Roy Fireden (Universidad de


Arizona) descubrio pruebas de que las propias
leyes de la fisica se refieren finalmente a la
obtencion de informacion del Universo. Durante
mucho tiempo los fisicos teoricos han estado
intrigados con el hecho de que todo, desde las
leyes del movimiento de Newton hasta las reglas
de la mecanica cuantica, pueda derivar de la
misma formula. Dicho de modo mas sencillo,
insertando la <<<clave>>> correcta en una
maquina matematica conocida como el Principio
de Minima Accion es posible derivar todas las
leyes de la fisica. Pero aunque los teoricos
estaban felices de usarla, no pudieron explicar
por que o de que manera esta maquina ejecuta
su magia.

Frieden demostro que la respuesta puede estar

142
en la informacion. Siempre que intentamos
comprender de que manera funciona el cosmos,
estamos respondiendo a la siguiente pregunta: ?
adonde ira esta particula, por ejemplo, o cuan
rapido se movera? Frieden utilizo la Teoria de la
Informacion para encontrar un modo de obtener
las respuestas <<<mas informativas>>> a
tales cuestiones —y resulta que aquellas
respuestas son lo que denominamos leyes de la
fisica.

Aunque la Teoria de la Informacion arroja luz


sobre muchas cuestiones profundas, siguen
existiendo muchos misterios, como lo que ocurre
con la informacion que cae en un agujero negro.
Parece obvio que toda esa informacion debe
desaparecer definitivamente, pero esto viola
principios fundamentales de la Teoria Cuantica.
En 1997, la denominada paradoja de la
informacion perdida en los agujeros negros llevo
a Stephen Hawking (Universidad de Cambridge) a

143
hacer una apuesta con dos colegas respecto a
que la Teoria Cuantica era erronea, y que la
informacion realmente se desvanece dentro de
los agujeros negros. Finalmente Hawking decidio
pagar la apuesta, al encontrar lo que creyo que
eran argumentos solidos de que la informacion
sobrevive dentro de un agujero negro10.

Nadie lo sabe con seguridad; de hecho, es


posible que jamas podamos resolverlo. La
importancia real de estas discusiones radica en
las pistas que dan sobre el papel de la
informacion en la creacion de la Teoria del Todo.
Y hasta la fecha las pruebas indican una
posibilidad asombrosa: que las claves del cosmos
pueden estar intimamente relacionas con los
mismos principios utilizados para disenar los
codigos de barras de los supermercados.

144
CODIGOS TURBO

En 1993, dos profesores franceses asombraron


a los expertos en comunicaciones desvelando
una forma de transmitir senales con velocidades
y tasas de error que se consideraban imposibles.
Los ingenieros habian tardado decenios en buscar
formas de <<<empaquetar>>> (codificar)
senales para llegar lo mas cerca posible del limite
definitivo para una comunicacion rapida y exacta,
establecido por el teorema de la capacidad de
informacion de Shannon, pero incluso los mejores
codigos precisaban en general una potencia de
senal aproximadamente doble a la predicha por el
teorema. Claude Berrou y Alain Glavieux (Ecole
Natio-nale Superieure des Telecommunications de
Bretagne, Brest) asombraron a los expertos
encontrando codigos que solo necesitaban un
porcentaje de potencia algo mayor que el limite

145
de Shannon. Los conocidos como codigos turbo
funcionan usando dos codificadores y descodifica-
dores separados en la misma senal, permitiendo
que cada uno compruebe el trabajo del otro.

EL PRINCIPIO DE MINIMA ACCION

Formulado por vez primera en 1744 en el campo


de la filosofia por el matematico frances Pierre
Maupertuis, el Principio de Minima Accion afirma
que la naturaleza siempre actua para minimizar la
cantidad de <<<accion>>> implicada, cantidad
que depende de las propiedades de las
particulas. Posteriormente, los fisicos
descubrieron que la eleccion correcta de la accion
permite obtener todas las leyes de la fisica de
este principio, aunque la causa de que funcione

146
sigue siendo objeto de gran polemica.
Investigaciones recientes sugieren que es posible
que se relacione con la Teoria de la Informacion.

Cronologia

1941 Claude Shannon entra en Bell


Laboratories, en Nueva Jersey, y comienza
a establecer las bases de la Teoria de la
Informacion en un articulo que se publico
en 1948. 1947 John Tukey, un estadistico
estadounidense, crea el termino
<<<bit>>>, que define el elemento mas
pequeno de informacion necesario para
describir el estado de un sistema de dos
estados (como <<<encendido>>> o
<<<apagado>>>).

147
1966 La identificacion de combinaciones
de bases de ADN como genes para formar
proteinas demuestra el uso de la Teoria de
la Informacion en organismos vivos.

1969 El acuerdo de Naciones Unidas


supone la introduccion del numero
internacional normalizado del libro (ISBN,
International Standard Book Number), una
descripcion de los libros de diez digitos
basada en los principios de la Teoria de la
Informacion.

1973 El fisico Jacob Bekenstein descubre


un vinculo fundamental entre la informacion
y los agujeros negros, demostrando que
existe un limite en su capacidad de
almacenamiento.

1974 El chicle de Wrigley es el primer


producto en tener un codigo de producto
universal (<<<codigo de barras>>>), que

148
fue inventado el ano anterior por el
estadounidense George Laurer.

1992 Eugene Stanley (Universidad de


Boston) utiliza la Teoria de la Informacion
para demostrar que el ADN
<<<basura>>> puede portar informacion
no genetica vital para organismos como los
seres humanos.

1997 Los teoricos Stephen Hawking y Kip


Thorne apostaron con John Preskill
(Caltech) a que la informacion se destruye
dentro de los agujeros negros.

1999 El fisico Roy Frieden propone que


todas las leyes de la fisica pueden ser en
ultima instancia el resultado del intercambio
de informacion entre el observador y el
Universo.

2002 Los cientificos reparan

149
satisfactoriamente la sonda espacial
Voyager I a una distancia de 12,5 billones
de kilometros usando senales correctoras
de errores.

2004 Un equipo dirigido por Samir Mathur


(Ohio State University) utiliza la
denominada Teoria de las Super-cuerdas
para predecir que la informacion sobrevive
dentro de los agujeros negros.

Citas

Se suele entender por ruido los sonidos


indeseados que interfieren con la
informacion genuina. La Teoria de la
Informacion generaliza esta idea, a traves
de teoremas que captan los efectos del

150
ruido con precision matematica. En
particular, Shannon demostro que el ruido
establece un limite en la velocidad maxima
a la que se puede transmitir informacion a
traves de canales de comunicacion sin
presentar errores. Esta velocidad depende
de la potencia relativa de la senal y del
ruido (razon de la senal respecto al ruido)
que pasa por un canal de comunicacion,
asi como de su capacidad de transportar
informacion (su <<<ancho de
banda>>>). El limite resultante, expresado
en bits por segundo, es la velocidad
maxima absoluta de comunicacion sin error
que es posible alcanzar para una potencia
de senal y un nivel de ruido dados. Los
ingenieros de telecomunicaciones se
enfrentan al reto de encontrar la manera
de <<<empaquetar>>> las senales de
modo que puedan acercarse lo mas posible
al limite de Shannon.

151
10

En 2004, el teorico Samir Mathur y sus


colaboradores (Ohio State University)
sorprendieron a los fisicos al sugerir que la
informacion sobrevive en el caos de un
agujero negro. Las pruebas procedian de la
denominada Teoria de las Supercuerdas,
segun la cual todas las particulas son
vibraciones de <<<cuerdas>>>
multidimensionales. Mathur y sus
colaboradores afirman que estas cuerdas,
aunque tremendamente enmaranadas al
estar cerca de un agujero negro,
conservan las caracteristicas de las
particulas de las que formaban parte.

152
6
Vegetales modificados
geneticamente

En pocas palabras

La creacion de vegetales modificados geneticamente es


una de las cuestiones cientificas mas polemicas del
presente. Durante milenios, los rasgos de plantas y
animales se han alterado a traves del cruce. Solo a partir
de la decada de 1940 quedo claro que esto cambia de
forma aleatoria el ADN de las celulas. La ingenieria
genetica tambien cambia el ADN, pero, en principio al
menos, de forma orientada y controlada.

Quienes estan en contra de la ingenieria genetica afirman


que la tecnologia puede conllevar un monton de
problemas, como la aparicion de <<<superhierbas>>> o
de alergias y resistencia a los antibioticos en los seres
humanos. Por el contrario, los cientificos que estan a favor
de la ingenieria genetica afirman que no hay nada de
nuevo en la ingenieria genetica, dado que los agricultores

153
han creado nuevas variedades —como el maiz a partir de
cierto tipo de pasto— durante cientos de anos.

En realidad, la ingenieria genetica es un punto de partida


radical, ya que se centra solo en unos cuantos genes
asociados a rasgos especificos, mientras que el cruce
convencional implica a un gran numero de genes, con
consecuencias desconocidas. Los cientificos afirman que es
mucho menos probable que los vegetales modificados
geneticamente den sorpresas desagradables.

Hasta la fecha, los vegetales modificados geneticamente


han beneficiado en gran medida solo a las empresas
agroquimicas y a los agricultores. Los vegetales
modificados geneticamente de segunda generacion
pueden ofrecer beneficios —como el aumento del valor
nutritivo— a los consumidores directos.

Mientras hace la compra semanal, usted coge


una lata de maiz, y le llama la atencion algo que
aparece en la lista de ingredientes:
<<<Modificado geneticamente>>>. ?Que hace
usted? Si los resultados de una encuesta
publicada recientemente por el grupo de

154
supermercados Co-op pueden servir de guia,
volvera a dejar la lata en el estante: cuatro de
cada cinco personas decian que no comprarian a
sabiendas alimentos modificados geneticamente.
Pronto se aclarara si esto es cierto, dado que los
nuevos reglamentos de la Union Europea de abril
de 2004 obligan a los fabricantes de comida
procesada a revelar si sus productos alimenticios
contienen ingredientes modificados
geneticamente.

El grupo Co-op se adelanto a la resistencia del


consumidor anunciando que los productos
alimenticios de su propia marca no contendrian
alimentos modificados geneticamente. La
compania, que es la mayor empresa agricola de
Gran Bretana, tambien declaro que no usa
alimentos para animales modificados
geneticamente ni cultiva vegetales modificados
geneticamente en sus tierras.

155
La empresa insistio en que esta decision estaba
dictada por los actuales conocimientos cientificos
y por la opinion de los consumidores. Sin
embargo, los cinicos podrian considerar esto
como un intento de no quedarse atras en una
batalla de relaciones publicas con rivales mas
importantes, como Sainsbury y Wai-trose, que
habian tomado decisiones similares anos antes.
Para muchos cientificos, la decision hace caso
omiso a todas las pruebas sobre los riesgos y
beneficios de la tecnologia de ingenieria genetica.

Era, en resumen, otro estallido de argumentos


contradictorios como los que habian perseguido a
la cuestion de la ingenieria genetica desde que
fuera noticia en todo el mundo en 1998. Una
campana de concienciacion publica llevada a cabo
por la ,, empresa agroquimica estadounidense
Monsanto suscito el escandalo entre los activistas
afirmando que la modificacion genetica de los
vegetales no era nada nuevo. En cierto sentido,

156
la empresa estaba en lo cierto: su campana de
concienciacion simplemente llamo la atencion
sobre una tecnica para crear vegetales en la que
ya se trabajaba desde hacia quince anos. Pero
cuando el publico supo como se habian creado
los vegetales modificados geneticamente, no le
gusto lo que escuchaba. Parecia que los
cientificos se estaban inmiscuyendo en la
naturaleza y pretendian colocar los resultados en
los platos de todo el mundo.

Los partidarios de la ingenieria genetica habian


argumentado durante mucho tiempo que el ser
humano habia modificado geneticamente los
vegetales durante milenios. Las pruebas
arqueologicas y del ADN indican que los
agricultores de Centroamerica consiguieron crear
una nueva forma de calabaza similar a la
calabaza actual hace aproximadamente 9.500
anos, y mas tarde cultivaron una mezcla de maiz
y maicillo. Los efectos de este cruce fueron a

157
veces espectaculares: en 1879, William James
Beal (Michigan State University) desarrollo cruces
de maiz con una produccion un 50% superior. Sin
embargo, los metodos de cultivo convencionales
son muy diferentes de los utilizados en la
ingenieria genetica. Incluso hoy en dia, los
metodos tradicionales son increiblemente
ineficientes, requiriendo un gran numero de
plantas para lograr una elevada probabilidad de
transferencia de rasgos. Peor aun es que un
gran numero de rasgos desconocidos tambien
pueden transferirse al mismo tiempo, a veces
con consecuencias graves.

Los posibles riesgos para la salud de cultivar y


comer vegetales modificados geneticamente han
sido un tema fundamental en el debate sobre la
ingenieria genetica. No obstante, los defensores
de esta tecnologia apuntan que, debido a que
solo suelen estar implicados unos pocos genes, el
riesgo de efectos secundarios inesperados es

158
mucho menor con los vegetales modificados
geneticamente que con las variedades cultivadas
de manera convencional, en las que se combinan
inmensas cantidades de genes desconocidos. De
manera ironica, algunos vegetales cultivados con
tecnicas tradicionales se han vinculado de hecho
al tipo de alarma que se asocia con tanta
frecuencia a la ingenieria genetica.

En 1964 se lanzo una variedad de patata


cultivada tradicio-nalmente, denominada Lenape,
y sus creadores afirmaban que las patatas fritas
hechas con esta variedad eran mejores. No
obstante, las pruebas revelaron que la nueva
variedad tambien contenia concentraciones
peligrosamente altas de solanina —la toxina de la
belladona— y se tuvo que abandonar su cultivo.
Los mismos problemas surgieron en 1995 con
Magnum Bonum, una variedad sueca de patata
cultivada de manera convencional. A finales de la
decada de 1980, se lanzo en Estados Unidos una

159
variedad de apio resistente a los insectos que
contenia concentraciones elevadas de
carcinogenos activados por la luz, denominados
pso-ralenos, que tambien causaban reacciones
cutaneas graves a los trabajadores que
manipulaban la cosecha una vez que habia sido
recogida.

Los cientificos lucharon contra estos


antecedentes para mejorar tanto la velocidad
como la calidad del cultivo de vegetales. Para
potenciar la gama de variedades mutantes
disponibles, los investigadores experimentaron
con rayos X y despues con sustancias quimicas
mutagenas e incluso con radiaciones nucleares
para producir nuevos vegetales
<<<naturales>>> que todavia se utilizan hoy en
dia. Incluso asi, el grado de exito seguia siendo
lamentablemente bajo.

La primera idea de una nueva estrategia surgio

160
en la decada de 1940, cuando los cientificos
desvelaron la autentica naturaleza de los genes,
los sagaces transportadores de informacion
biologica que permitian que los rasgos pasaran de
generacion en generacion. Se identifico el ADN
como la molecula clave, con genes que
resultaron ser secuencias de sustancias quimicas,
denominadas <<<bases>>>, dispuestas en una
molecula con forma helicoidal como perlas en un
collar.

Estos descubrimientos plantearon una posibilidad


nueva de cultivo. En lugar de combinar a ciegas
todos los genes de dos plantas con esperanza de
que, por ejemplo, se transfieran los genes que
controlan el rendimiento, los cientificos
consideraron la posibilidad de identificar los pocos
genes implicados en ese rasgo y transferir solo
esos genes a otra planta.

Ademas de ser menos aleatoria e ineficaz,

161
parecia menos probable que esta modificacion
genica tan orientada produjera efectos
secundarios indeseados, como toxicidad o
respuestas alergicas. El reto consistia en
encontrar una forma de introducir los genes
precisos en el genoma de la planta.

A principios de la decada de 1980, la atencion se


centro en una bacteria denominada
Agrobacterium tumefaciens, que habia
desarrollado una manera de pasar a escondidas
algunos de sus propios genes a plantas en lo que
se conoce como plasmido11. En 1983, cientificos
de la Rijksuniversiteit (Gante, Belgica) anunciaron
que habian logrado usar A. tumefaciens para
insertar un gen de la resistencia a antibioticos en
las plantas de tabaco.

Al crear la primera planta modificada


geneticamente del mundo, el equipo belga
tambien habia desarrollado una tecnica clave

162
necesaria en el caso de que en algun momento
la ingenieria genetica rivalizara con el cultivo
convencional. Anadiendo un <<<gen
marcador>>> de la resistencia los antibioticos a
los genes de rasgos como el mayor rendimiento,
los cientificos podian descubrir que plantas habian
sido modificadas de manera satisfactoria
simplemente tratandolas con antibioticos que
afectaran al crecimiento y viendo cuales seguian
creciendo.

La creacion del tabaco modificado geneticamente


desencadeno una explosion de investigaciones
que en principio se centraron en propiedades
genicas unicas y simples, como la resistencia a
los herbicidas —que permitiria que las plantas
crecieran cuando eran rociadas con sustancias
quimicas mortales para los cultivos circundantes
— y a los pesticidas —introduciendo en los
vegetales un gen que los hacia toxicos para los
insectos que intentaban comerselos, eliminando

163
por tanto la necesidad de pulverizar todo el
campo con sustancias quimicas.

Pero al mismo tiempo, los activistas ecologistas


comenzaron a preocuparse por lo que
consideraban un juego con la naturaleza
simplemente para aumentar los beneficios de las
industrias agropecuarias y agroquimicas12. Gran
parte de su preocupacion se centraba en los
intentos realizados por los cientificos para aportar
a los vegetales rasgos radicalmente nuevos
usando genes obtenidos de especies no
relacionadas en absoluto, como los peces. Este
producto, apodado <<<Frankenfood>>> por los
ecologistas, parecia llevar al cultivo mas alla de
los limites del conocimiento. Otros invocaron al
fantasma de las <<<supersemillas>>> creadas
por genes que se diseminaban a partir de
vegetales modificados geneticamente resistentes
a los herbicidas hacia otras plantas, y de una
onda de alergias y resistencias a los antibioticos

164
entre los seres humanos desencadenadas al
comer vegetales modificados geneticamente.

Como primera preocupacion publica habia


cambiado. En 1994, la empresa estadounidense
Calgene lanzo al mercado el primer alimento
fresco modificado geneticamente, el tomate
Flavr-Savr, del que se decia que se mantenia
fresco mas tiempo. Circularon informes de que el
tomate se habia creado usando un gen obtenido
de un pez; de hecho, la prolongacion de su
periodo de caducidad se debia a una version
modificada de un gen de tomate convencional.
Este primer intento de utilizar la tecnologia de
ingenieria genetica para beneficiar a los
consumidores en lugar de a los agricultores
pronto se vio agriado, dado que el tomate en
realidad ofrecia pocas mejoras reales pese a que
su coste fuera el doble.

Ironicamente, el intento realizado por una de las

165
principales empresas agroquimicas para
tranquilizar a los consumidores fue lo que hizo del
debate sobre la manipulacion genetica una
polemica airada. En junio de 1998, Monsanto
lanzo en el Reino Unido una campana publicitaria
de un millon de libras esterlinas con el fin de
<<<alentar el conocimiento positivo de la
biotecnologia alimentaria>>>. Los anuncios
implicaban que los tomates y las patatas
modificados geneticamente habian sido
aprobados y que Monsanto habia realizado
pruebas de seguridad en plantas modificadas
geneticamente durante veinte anos. Tras ello se
produjo un torrente de quejas y la empresa fue
censurada por la Autoridad Reguladora de
Normas Publicitarias (ASA) por hacer
afirmaciones enganosas. Monsanto reconocio
que habia cometido un error de relaciones
publicas e intento cambiar su imagen. Sin
embargo, por entonces el asunto de la ingenieria
genetica se habia convertido en uno de los

166
debates cientificos mas polemicos de los ultimos
tiempos, alimentado por una avalancha de
incidentes que aparentemente confirmaban los
temores de los ecologistas.

En 1999, cientificos de la Cornell University


(Nueva York) publicaron que en pruebas de
laboratorio el polen del maiz Bt —modificado
geneticamente para producir la toxina de Bacillus
thurigiensis, con el proposito de matar al
barrenador del maiz— era mortal para las larvas
de la famosa mariposa monarca. El ano
siguiente, un agricultor de Alberta (Canada)
notifico que las plantas de canola convencionales
habian adquirido resistencia a tres herbicidas de
una canola cercana modificada geneticamente y
resistente a los herbicidas, aumentando los
temores sobre las <<<superhierbas>>>. Mas
tarde, en septiembre de 2000, una forma de
maiz Bt que nunca se penso dedicar al consumo
humano se encontro en las tortitas de los tacos

167
fabricados por una importante cadena de comida
rapida estadounidense. El maiz, conocido como
StarLink, habia sido aprobado solo para su uso en
los alimentos para animales, dada la inquietud
sobre la posibilidad de que provocara reacciones
alergicas en los seres humanos13.

Comenzaron a surgir informes de reacciones


alergicas en docenas de personas, y Aventis
CropScience, que comercializaba StarLink, ceso
de inmediato su produccion y comenzo un
programa de retirada del mercado de 60 millones
de libras. Los agricultores demandaron a la
empresa por no haberles advertido
supuestamente de las restricciones.

Sin embargo, las pruebas realizadas por


cientificos del gobierno de Estados Unidos no
encontraron mas tarde indicios de que StarLink
hubiera causado las reacciones alergicas. Algo
similar ocurrio con la historia alarmista de las

168
mariposas monarca: estudios sobre el terreno
realizados posteriormente sobre el efecto del
maiz Bt no demostraron que tuviera efectos
adversos. Y el incidente de las
<<<superhierbas>>> de Alberta fue el
resultado del crecimiento de canola convencional
demasiado cerca de la variedad modificada
geneticamente, y en cualquier caso los genes se
habrian introducido solo en otras plantas de
canola, y no en autentica maleza.

No obstante, todo esto apenas supuso


diferencias: ya se habia danado la imagen de los
vegetales modificados geneticamente. Cuando el
gobierno del Reino Unido abrio el debate nacional
sobre la ingenieria genetica en 2003, la encuesta
que realizo, que incluyo a 40.000 personas,
demostro que la mayoria nunca quiso que se
cultivaran en Gran Bretana vegetales modificados
geneticamente.

169
Es posible que aun vean cumplido su deseo. En
octubre de 2003, cientificos ingleses publicaron
los resultados del mayor ensayo sobre el terreno
que se habia realizado hasta la fecha en el
mundo sobre varios vegetales modificados
geneticamente, y llegaron a la conclusion de que
el maiz modificado geneticamente resistente a los
herbicidas era mejor para el entorno que su
equivalente convencional. Como resultado, en
marzo de 2004, el gobierno aprobo la plantacion
de dicho maiz. Dias despues, sus creadores,
Bayer CropScience, se echaron atras aduciendo
que las estrictas normas impuestas habian hecho
que no fuera rentable.

Ahora parece que al menos en los proximos anos


no se plantara ningun vegetal modificado
geneticamente en el Reino Unido. Pese a esto, el
negocio de la ingenieria genetica esta
prosperando en todo el mundo, dado que surgen
pruebas de que los vegetales modificados

170
geneticamente brindan los beneficios
proclamados por sus creadores, como la
reduccion drastica del uso de insecticidas y el
mayor rendimiento. Hoy en dia se cultivan
vegetales modificados geneticamente
aproximadamente en veinte paises, y suponen
cerca del 13 % del mercado mundial de semillas.

No obstante, lo que aun falta es un unico


producto modificado geneticamente que beneficie
de forma directa a los consumidores. En principio,
la ingenieria genetica puede producir alimentos
que sepan mejor, tengan mejor contenido
nutricional o incluso combatan problemas de
salud como la diabetes. Sin embargo, en muchos
casos los cientificos aun no han encontrado los
genes responsables de las plantas, por no hablar
de la manera de modificarlos. Golden Rice, un
arroz modificado geneticamente para aumentar
su contenido en vitamina A, esta sometiendose a
pruebas en el Lejano Oriente, aunque aun tienen

171
que pasar varios anos antes de que llegue al
mercado14.

Muchos cientificos siguen estando convencidos


de que los metodos de ingenieria genetica son el
futuro. Alegan que las tecnicas de cultivo
tradicionales no solo son menos eficientes, sino
que tambien plantean mas riesgos, dado que
genes con efectos desconocidos pueden
transferirse con los genes del rasgo deseado.
Tales vegetales tambien se plantan y se
comercializan sin que se haya hecho ningun
intento real de estudiar su repercusion en el
ambiente o en los seres humanos. En resumen,
dicen que la ingenieria genetica es la forma por la
que siempre deberiamos haber cultivado nuevos
vegetales.

Sin embargo, los escepticos insisten en que


todavia no sabemos lo suficiente sobre los
efectos a largo plazo del cultivo o el consumo de

172
vegetales modificados geneticamente.

La cuestion fundamental es si el publico puede


aprender a creer en la ciencia en la que se basa
la ingenieria genetica —o en las companias que
hasta ahora han prometido tanto a los
consumidores, aunque les hayan dado tan poco.

LA EXTRANA HISTORIA DE LA CEBADA


ATOMICA

Para acelerar el desarrollo de nuevos vegetales,


en la decada de 1950 los cientificos comenzaron
a usar un metodo de ingenieria genetica que hoy
en dia haria correr rios de tinta: la radiacion
nuclear. Exponiendo las semillas a los rayos
gamma de reactores, los cientificos crearon

173
cientos de variedades mutantes de vegetales
convencionales.

El mas famoso es Golden Promise, una forma


muiante de la cebada Maythorpe, creada en el
Atomic Energy Research Establishment (Harwell,
Oxfordshire). Vendida por vez primera en 1966,
es mas corta que la cebada convencional pero
tiene buenas cualidades para la fabricacion de
malta y mayor rendimiento. Esto hizo que fuera
muy atractiva para la fabricacion de cerveza, y
sigue siendo un ingrediente fundamental de
algunos de los mejores whiskies de malta
escoceses.

SUPERHIERBAS

174
Muchos vegetales modificados geneticamente
han sido creados usando genes que los hacen
resistentes a los herbicidas. Esto ha hecho que
surja el temor de que estos genes encuentren su
camino hacia otras plantas, creando especies de
<<<superhierbas>>> imparables frente a las
que no pueden actuar los herbicidas. Los
partidarios de la tecnologia de ingenieria genetica
arguyen que las diferencias entre los vegetales
cultivables y la maleza reduce el riesgo de
transferencia genica, y anaden que la resistencia
a los herbicidas ha surgido en vegetales
cultivados de modo tradicional durante muchos
anos, sin que causara problemas importantes.
Incluso asi, los cientificos reconocen que el riesgo
no es nulo, aunque insisten en que siempre se
dispondra de algun herbicida para acabar con las
consecuencias.

175
Cronologia

7000 a. C. Agricultores centroamericanos


cultivan una variedad (aprox.) de calabaza
que se convierte en la calabaza actual;
despues desarrollaron mejores plantas de
algodon, judias y maiz.

1879 El botanico estadounidense William


James Beal (Michigan State University)
desarrolla los primeros cruces cientificos de
maiz, y aumenta su rendimiento hasta un
50%.

Decada de 1920 Los cientificos


encuentran que la exposicion de las
semillas a los rayos X supone la creacion
de mutantes y abre el <<<cultivo de
mutacion>>> para mejorar los de
vegetales como la avena y las judias.

176
1944 Oswald Avery y sus colaboradores
del Rockefeller Institute (Nueva York)
aportan las primeras pruebas solidas de
que el ADN contiene los <<<genes>>>
de la vida. 1966 Sale a la venta Golden
Promise, una cebada de <<<cultivo
convencional>>> creada usando radiacion
de un reactor en el Atomic Energy
Research Establishment del Reino Unido.

1983 Jeff Schell y sus colaboradores de la


Rijksuniversiteit (Gante, Belgica) publican
un articulo sobre la creacion de la primera
planta modificada geneticamente, una
forma de tabaco resistente a los
antibioticos. 1994 Se pone a la venta en
Estados Unidos el primer alimento fresco
modificado geneticamente: el tomate Flavr-
Savr de Calgene, que, segun afirman sus
creadores, se mantiene fresco durante
mas tiempo. Su precio es excesivo y

177
supone un fracaso comercial. 1998
Monsanto lanza una importante campana
de concien-ciacion publica en Europa que
desata las protestas de las personas
opuestas a los alimentos transgenicos y
lleva el debate al ambito publico.

1999 Cientificos de la Cornell University


demuestran que el polen del maiz
modificado geneticamente es mortal para
las mariposas monarca en pruebas de
laboratorio (los ensayos realizados sobre el
terreno con posterioridad refutaron estos
resultados).

2003 Se publican los resultados de los


ensayos sobre el terreno realizados en el
Reino Unido: demuestran que el cultivo de
un vegetal modificado geneticamente (una
forma de maiz) era mas benigno que el de
la variedad normal

178
2004 En marzo, el gobierno britanico da la
aprobacion provisional para plantar maiz
modificado geneticamente, pero sus
creadores, Bayer CropScience, deciden no
seguir adelante.

Citas

11

En la mayoria de los microorganismos, la


molecula completa de ADN esta dividida en
<<<paquetes>>> denominados
cromosomas. Las bacterias tienen otras
porciones de ADN fuera de los
cromosomas: son los plasmidos. Estos se
utilizan para transferir genes bacterianos a
otras bacterias y organismos, es decir,
para infectarlos. Los plasmidos son
<<<vectores>>> naturales de ADN que

179
pueden utilizarse para transportar genes
especificos a un organismo dado. Las
primeras cosechas de tabaco y de algodon
modificados geneticamente se crearon
utilizando plasmidos de una bacteria que
habita en el suelo, Agrobacterium
tumefaciens, que fueron modificados para
desactivar los genes responsables de las
enfermedades de las plantas y, en su
lugar, transportar a las plantas los genes
correspondientes a los rasgos deseados.
Aunque los plasmidos funcionan en algunas
plantas, no ocurre lo mismo con otras
muchas, incluidos los cereales.

12

Durante la decada de 1960, especialistas


en medio ambiente dirigidos por la biologa
estadounidense Rachel Carson, autora de
Primavera silenciosa, plantearon el

180
problema de los insecticidas que entonces
se utilizaban, como el DDT. Arguyendo que
estos compuestos industriales eran daninos
para el ecosistema, Carson pedia
alternativas mas naturales, incluida la
toxina Bt, que ahora se ha incorporado a
variedades de vegetales modificados
geneticamente. Los partidarios de la
ingenieria genetica insisten en que su
estrategia reduce la necesidad de fumigar
con insecticida amplias areas, minimizando
la repercusion sobre el entorno y sobre los
encargados de aplicar el insecticida.

13

A mediados de la decada de 1990, Plant


Genetic Systems (Belgica) creo una nueva
forma de maiz usando una variedad
especial del denominado gen Bt utilizado en
otras plantas modificadas geneticamente

181
para hacerlas resistentes a los insectos.
Este maiz, conocido como StarLink, incluia
un gen de una toxina mortal para las
plagas que intentaban excavar en el cultivo
o comerselo. En la solicitud de una licencia
de plantacion presentada a la Agencia de
Proteccion Ambiental de Estados Unidos,
sus creadores advertian que la toxina tenia
similitudes con proteinas que causaban
alergias en los seres humanos. La Agencia
de Proteccion Ambiental respondio
aprobando el cultivo, pero solo para su uso
en la alimentacion de animales. Se trataba
de una restriccion que, como se demostro,
era imposible de mantener: StarLink se
mezclo con variedades no sometidas a
ingenieria genetica en los ascensores y los
vehiculos agricolas, y termino en la comida
humana, suscitando un gran escandalo.

14

182
Resultado de una colaboracion por el bien
publico entre los cientificos y la industria de
la ingenieria genetica, Golden Rice es una
version geneticamente modificada de este
alimento basico asiatico que tiene mayor
contenido de vitamina A, cuya carencia
amenaza la salud de 400 millones de
personas en todo el mundo. Ahora se esta
sometiendo a pruebas en el International
Rice Research Institute (IRRI), en Filipinas,
pero aun faltan varios anos para su
aprobacion y su distribucion general.

183
VIDA

184
7
Out of Africa
(Nuestro origen africano)

En pocas palabras

En 1871, Charles Darwin afirmo que las similitudes entre


los simios y los seres humanos apuntaban a Africa como
cuna de los primeros seres humanos, Homo sapiens.
Durante muchos anos, esto no parecia plausible, dado que
los fosiles de criaturas semejantes a los seres humanos
solo se encontraban en Europa y Asia. Los estudios
iniciales de los grupos sanguineos tambien revelaron
similitudes entre los seres humanos y los simios africanos,
aunque la atencion no se centro en Africa hasta la decada
de 1920 y el descubrimiento del Australopithecus, un tipo
de hombre prehistorico similar a los simios. Algunos
afirmaban que el H. sapiens evoluciono en muchos lugares
diferentes del mundo a partir del H. erec-tus, que habia
dejado Africa mucho tiempo atras. Otros insistian en que el
H. sapiens habia surgido por vez primera en Africa y habia
salido del continente en fechas relativamente recientes.

185
Esta idea de nuestro origen africano15 se ha confirmado
hoy en dia mediante la comparacion del ADN en seres
humanos vivos, que indica que el H. sapiens ya existia
hace 120.000-220.000 anos en Africa. Un grupo de quiza
solo 10.000 de ellos abandonaron luego el continente,
unos 50.000-100.000 anos atras, posiblemente debido al
cambio climatico. Encontraron a los descendientes del H.
erectus, incluidos los neandertales en Asia y Europa. Tras
un breve periodo de coexistencia, el H. sapiens domino
luego el mundo.

Con sus ojos penetrantes y su potente fisico, el


hombre etiope que aparecio ante los medios de
comunicacion de todo el mundo en junio de 2004
evidentemente no era alguien con quien se
pudiera jugar. Su celebridad lo llevo a la portada
de Nature, la principal revista cientifica del
mundo. Este es un honor que se le niega incluso
a la mayoria de los ganadores del Premio Nobel.
Aun es mas raro en el caso de alguien que ha
muerto hace mas de 150.000 anos. Se trata del
hombre de Herto, cuyos restos se descubrieron
en Etiopia, en el valle de Afar, a 230 kilometros al

186
noreste de Addis Abeba. La segunda parte de su
nombre hace referencia a la ciudad de Herto,
cercana al lugar de su descubrimiento; la primera
parte de su nombre explica su celebridad. Los
cientificos creen que el hombre de Herto es el
miembro mas antiguo que se conoce de la
especie que ahora domina el planeta: los seres
humanos modernos u Homo sapiens
(<<<hombre que sabe>>>).

Se ha considerado que la gran antiguedad del


hombre de Herto, junto con el emplazamiento de
su ultima morada, constituyen las piezas clave de
un rompecabezas que empezo hace unos ciento
cincuenta anos en una cantera alemana. Sin
embargo, solo en los ultimos anos ha comenzado
a tomar forma el cuadro completo, mostrando
que la aparente gran diversidad de los seres
humanos de hoy en dia —desde los
escandinavos a los naturales de Sumatra, de los
esquimales a los indios— es mera ilusion. En

187
ultima instancia, todos descendemos de un unico
grupo de gente de una parte del mundo: Africa.

Esto no habria sorprendido a Charles Darwin, el


padre de la evolucion. Ya en 1871, afirmaba en
El origen del hombre que todas las razas de
seres humanos eran solo variedades de una
especie unica, siendo Africa —el hogar de los
grandes simios del mundo— la cuna mas
plausible de los seres humanos modernos.

En la actualidad, con frecuencia estan surgiendo


en Africa fosiles humanos espectaculares, como
el hombre de Herto, y la afirmacion de Darwin
parece ser poco interesante. Incluso en la epoca
en la que la escribio, todas las pruebas apuntaba
a una cuna mucho mas cercana: Europa. Hacia
1700 se encontro en el sur de Alemania parte de
un craneo humanoide fosilizado, aunque durante
un siglo no se reconocio su importancia. En 1856,
unos canteros que trabajaban en una cueva del

188
valle del Neander, cercano a Dusseldorf,
encontraron huesos que pertenecian a algun tipo
de ser humano antiguo, pero se deshicieron de el
pensando que no valia nada. Un maestro de la
zona encontro los huesos unas semanas mas
tarde; algunos academicos los aclamaron como
los restos de una especie extinguida de ser
humano: el Homo n ean derth alen sis (<<<el
hombre del Neander>>>).

Los huesos del H. neanderthalensis suscitaron


una enorme polemica, algo que se convertiria
casi en un ritual tras el descubrimiento de algun
fosil supuestamente humano. Algunos
anatomistas admitian que provenian de
miembros de una especie previamente
desconocida de seres humanos, aunque otros
apuntaban a la similitud del tamano del craneo
con los modernos seres humanos, insistiendo en
que los huesos simplemente provenian de un
antiguo ejemplar de H. sapiens. Al surgir mas

189
huesos en otras zonas, algunos anatomistas
intentaron afianzar el argumento destacando las
supuestas diferencias entre los neandertales y los
modernos seres humanos, como andar
apoyandose en los nudillos (en la decada de
1950 se demostro que esto era un mito, basado
en los estudios de un neandertal con artritis
grave)16.

Cuando surgio la siguiente pieza importante del


rompecabezas de los origenes de ser humano,
tampoco logro ajustarse a la teoria del origen
africano de Darwin. En 1891, el medico holandes
y buscador de fosiles Eugene Dubois encontro
fragmentos fosilizados de una criatura humanoide
en Java. El <<<hombre de Java>>>, que tenia
un craneo mucho menor, no se parecia ni a los
modernos seres humanos ni a los neandertales.
El descubrimiento de Dubois, al que mas tarde se
denomino Homo erectus (<<<hombre
erguido>>>), fue considerado como otra

190
especie genui-namente nueva de ser humano.
Ironicamente, su ultima morada, situada a miles
de kilometros de la supuesta cuna de la
humanidad darwiniana, resultaria ser una parte
fundamental de la historia africana del H. sapiens.

No fue sino mas de veinte anos despues de la


muerte de Darwin, en 1904, cuando surgieron
nuevas pruebas cientificas que apoyaban su idea
de los origenes humanos. George Nuttall, un
bacteriologo de la Universidad de Cambridge,
estaba intrigado por los grupos sanguineos de los
seres humanos, recientemente identificados, y
realizo pruebas para comparar la sangre humana
y la de otras criaturas. Para su asombro, Nuttall
encontro similitudes asombrosas entre la sangre
de los seres humanos y la de simios de Africa.
Las implicaciones de este descubrimiento no
fueron menos sorprendentes. Pese a las
apariencias —y las pruebas fosiles obtenidas
hasta entonces—, los modernos seres humanos

191
compartian ancestros comunes con criaturas de
Africa.

Aunque Nuttall no lo supiera, su descubrimiento


fue la primera indicacion de la capacidad del ADN
para probar cuestiones sobre los origenes de ser
humano. Anos despues, los cientificos refi-narian
sus metodos para dar informacion
impresionantemente detallada sobre los
acontecimientos que precedieron a los origenes
del H. sapiens. Sin embargo, varios decenios
despues de su trabajo pionero, la atencion
volveria a centrarse en las pruebas fosiles.

La posibilidad de encontrar restos humanos en


Africa habia llevado a los buscadores de fosiles a
ese continente ya en 1912; sin embargo,
contaban con pocas claves sobre donde buscar o
que buscar, y se volvieron con las manos vacias.
Extranamente, el gran avance habia tomado la
forma de un craneo fosilizado situado en la repisa

192
de la chimenea del encargado de una cantera de
Taung (Sudafrica). Lo encontro un dia de 1924
un alumno de Raymond Dart, un profesor
universitario de anatomia de la Universidad de
Witwatersrand (Johannesburgo). Identifico
rapidamente el craneo como el de un babuino
extinguido, y comenzo a preguntarse que mas
se habia encontrado en la cantera.

Poco despues, Dart recibio dos cajas de material


que habian desenterrado los trabajadores de la
cantera. La primera no contenia nada de valor,
pero en la segunda encontro fragmentos de un
fosil con forma de craneo. Su pequeno tamano
indicaba que se trataba de una criatura simiesca,
pero las mandibulas, los dientes y otros detalles
anatomicos no eran similares ni siquiera a los de
los chimpances, nuestros parientes vivos mas
cercanos. Dart recordo la antigua teoria
darwiniana del origen africano y se pregunto si se
encontraba ante los restos de la criatura a partir

193
de la cual habian evolucionado tanto los seres
humanos como los chimpances: el legendario
<<<eslabon perdido>>>.

En unos pocos meses, el descubrimiento de Dart


fue noticia en todo el mundo. Denomino a esta
criatura Australopithecus africanus (<<<simio del
Africa meridional>>>), y de inmediato se
encontro con un aluvion de criticas. Cientificos
prominentes insistian en que habia ido demasiado
lejos con las pruebas y que el craneo era
simplemente una cabeza de simio fosilizada.
Otros rechazaban la implicacion del origen
africano de los seres humanos por motivos
esencialmente racistas: para ellos, era
inconcebible que los modernos seres humanos
hubieran podido surgir de la tierra natal de los
esclavos.

La importancia del descubrimiento de Dart se


rechazo hasta la decada de 1940, epoca en la

194
que surgieron muchos mas especimenes de
Australopithecus para apoyar su idea de que eran
un ancestro distante de los seres humanos.
Africa se convirtio en el centro de la busqueda de
los origenes del ser humano. Comenzaron a
surgir aun mas especimenes de criaturas
humanoides, como el Australopithecus afarensis,
el Australopithecus hoisei y el Homo ha-bilis. Sin
embargo, la imagen incipiente de los origenes del
ser humano se estaba haciendo en todo caso
menos clara. Estallaron polemicas entre equipos
rivales de cientificos sobre la relacion entre todas
estas diferentes criaturas. ?De cuales eran
descendientes directos los seres humanos
modernos y cuales eran simplemente callejones
sin salida de la evolucion? ?Y como podrian llegar
a probarse los origenes africanos de los seres
humanos modernos?

Una parte clave del rompecabezas se aclaro en


1960. Mientras trabajaban en la garganta de

195
Olduvai (Tanzania), los buscadores de fosiles
keniatas Louis y Mary Leakey encontraron parte
de un craneo que pertenecia a un H. erectus, la
misma especie humana que Dubois habia
encontrado a miles de kilometros de distancia, en
Java. El descubrimiento establecia un vinculo
crucial entre los humanos prehistoricos de Africa
y el resto del mundo. A mediados de la decada
de 1980, los buscadores de fosiles habian
encontrado muchas mas muestras de H. erectus
en Africa, incluido el esqueleto asombrosamente
completo de un nino, el <<<nino de
Turkana>>>, descubierto por Richard Leakey (el
hijo de Louis) en 1984. Mas importante aun fue
que comenzo a surgir un patron. La datacion
radioactiva mostro que los fosiles africanos de H.
erectus tenian hasta 1,8 millones de anos de
antiguedad, mucho mas que la mayoria de los
especimenes que se encontraron en otras
partes. Esto apuntaba a que el H. erectus habia
dejado Africa hacia mas de un millon de anos,

196
dirigiendose a Asia, Oriente Medio y Europa, y
evolucionando luego presumiblemente hacia los
neandertales e incluso hacia el H. sapiens en
muchas zonas diferentes.

La denominada hipotesis <<<multirregional>>>


de la evolucion humana era dificilmente
convincente, aunque resultara atrayente por su
simplicidad. Es posible que los modernos seres
humanos realmente hubieran evolucionado a
partir del H. erectus que seguia viviendo en
Africa, dejando el continente en un segundo
exodo mucho despues del primero. Durante el
siglo posterior a la propuesta original de Darwin,
esta se convirtio en la afirmacion central de la
teoria del origen africano: que los seres humanos
modernos habian surgido primero en Africa y
dejaron el continente mucho despues del H.
erectus, sustituyendolo finalmente en todo el
planeta.

197
Sin embargo, demostrarlo era otra cuestion;
siempre existia la posibilidad de que los
buscadores de fosiles hubieran pasado por alto
algunas claves vitales. Se necesitaba alguna otra
fuente de pruebas, y durante la decada de 1960
comenzo a gestarse en el laboratorio del
bioquimico Allan Wilson y de sus colaboradores de
la Universidad de California.

Resucitaron la idea basica de los analisis de


sangre que realizo George Nuttall: que los seres
humanos de hoy en dia portan en sus celulas
claves sobre sus origenes. Como siempre, sus
primeros hallazgos provocaron una enorme
polemica. Estudiando las proteinas sanguineas de
los seres humanos y los simios, afirmaban que
ambos se habian separado hace
aproximadamente cinco millones de anos, mucho
mas recientemente de lo que las pruebas fosiles
indicaban. Pese a la avalancha de protestas, las
ultimas pruebas fosiles respaldaron la cronologia

198
de Wilson.

Animado por este exito, el equipo ideo otra


tecnica, basada en el denominado ADN
mitocondrial (ADNmt) que se encuentra en las
celulas humanas vivas. Comparando el ADNmt
de los modernos seres humanos de diferentes
partes del mundo, Wilson esperaba evaluar
desde cuando todos nosotros compartimos un
ancestro comun. El equipo encontro una
diferencia relativamente pequena entre el ADNmt
de los modernos seres humanos, lo cual
concordaba con que el H. sapiens hubiera surgido
menos de 290.000 anos atras. Tambien
observaron que las mayores diferencias se
encontraban entre los africanos, como era
previsible en caso de ser los miembros mas
antiguos de H. sapiens.

Los descubrimientos de Wilson fueron noticia en


todo el mundo, y alentaron a muchos otros a

199
realizar investigaciones basadas en el ADN. Los
resultados proporcionan un cuadro
sorprendentemente detallado del origen de los
modernos seres humanos. En primer lugar,
apuntan a Africa como cuna del H. sapiens, hace
unos 120.000-220.000 anos. En segundo lugar,
sugieren que entre 50.000 y 100.000 anos atras,
<juiza solo unos quinientos miembros de la
especie salieron de Africa para convertirse en los
ancestros de todas las razas no africanas.
Llegando primero a Asia y despues a Europa, se
encontraron con los descendientes del H. erectus
que habian dejado Africa 1,8 millones de anos
antes. Despues de un breve periodo de
coexistencia con los neandertales, unos 35.000
anos atras, el H. sapiens se convirtio en la
especie dominante que es hoy en dia.

Sin embargo, todavia existen muchas incognitas,


como las razones que llevaron al H. sapiens a
dejar Africa. Una posibilidad es el cambio

200
climatico: en la isla de Sumatra se produjo una
erupcion volcanica hace 71.000 anos
aproximadamente, justo cuando, segun las
pruebas del ADN, tuvo lugar el exodo17. Luego
esta el misterio de los neandertales; las pruebas
del ADN sugieren que no se relacionaban con los
modernos seres humanos. ?Por que murieron?

Los buscadores de fosiles siguen a la caza y


captura de respuestas. Por ahora, parece casi
seguro que las criaturas que mayor exito han
tenido en el mundo provinieron realmente de
Africa, como afirmo Darwin hace un siglo.

?REALMENTE HAY TANTAS ESPECIES DE


SERES HUMANOS?

201
Cada pocos anos, otro equipo de buscadores de
fosiles es noticia por el descubrimiento de una
nueva especie de ser humano. Desde la
identificacion de los neandertales, hace
aproximadamente 150 anos, se han encontrado
pruebas de la existencia de unas doce especies
diferentes de seres humanos. ?O tal vez no? La
mayoria de las afirmaciones se basan en el
examen de unos cuantos huesos de unos pocos
individuos. Esto deberia suscitar de inmediato la
cuestion del muestreo inadecuado: despues de
todo, los seres humanos presentan una
asombrosa diversidad de tamano, pese a
pertenecer a la misma especie. Estas sospechas
se han hecho ahora cuantitativas gracias al
trabajo de Maciej Henneberg (Universidad de
Adelaida). En 2004 publico un analisis estadistico
detallado de las mas de doscientas muestras de
fosiles humanoides, desde el Australopithecus,
con una antiguedad de cuatro millones de anos,
hasta los modernos seres humanos del Neolitico.

202
Sus resultados confirmaron que con el paso del
tiempo se produjo una evolucion sustancial tanto
en el tamano del craneo como en el peso
corporal. Pero tambien observo que no habia
pruebas de que los fosiles fueran nada aparte de
una especie unica que se habia hecho mas
grande y elegante con el paso del tiempo.

ES POSIBLE QUE LOS SERES HUMANOS


SIGUIERAN
UNA RUTA MERIDIONAL PARA SALIR DE
AFRICA

Aunque la mayoria de los cientificos aceptan hoy


en dia la teoria del origen africano, sigue
existiendo polemica respecto al camino que
tomaron los primeros seres humanos para

203
abandonar Africa. Hasta hace poco,
generalmente se aceptaba que habian ido hacia
el norte, dirigiendose hacia Oriente Medio y luego
dispersandose desde ahi. Sin embargo, el analisis
del ADN mitocondrial sugiere en la actualidad que
el exodo puede haberse realizado a traves de
una ruta mas meridional, a lo largo de la costa
africana. En el ano 2005, un equipo internacional
de investigadores anunciaron que un grupo
aislado de individuos que vivian en Malasia
parecian ser descendientes de seres humanos
que dejaron Africa unos 65.000 anos atras.
Segun los investigadores, el cambio climatico que
tuvo lugar en esa epoca habria hecho que fuera
mas facil emprender la ruta meridional, maxime
porque Europa estaba entonces asolada por una
edad de hielo. Las pruebas geneticas indican que
quiza unos pocos centenares de individuos fueron
primero hacia la India, luego al sudeste asiatico y
a Australasia. De ser esto correcto, explicaria por
que los seres humanos parecen haber llegado a

204
Australia hace 50.000 anos aproximadamente,
mientras que los restos mas antiguos que se han
encontrado en Europa —una mandibula hallada
en Rumania— solo tienen unos 35.000 anos de
antiguedad.

Cronologia

1856 Un grupo de canteros que trabajaba


cerca de Dusseldorf (Alemania) descubre
los huesos de lo que hoy se conoce como
hombre de Neandertal.

1871 Charles Darwin predice en El origen


del hombre que los origenes de los
primeros seres humanos se encontrarian
en Africa.

205
1891 El fisico holandes Eugene Dubois
encuentra en Java restos de uno de los
humanos primigenios, al que hoy se
conoce como Homo erectus.

1904 El profesor George Nuttall


(Universidad de Cambridge) utiliza los
grupos sanguineos para descubrir las
primeras pistas de la relacion entre los
seres humanos y los simios africanos.

1924 Raymond Dart identifica un fosil


humano simiesco, el Australopithecus
africanus, resucitando la teoria dar-winiana
del origen africano.

1987 Allan Wilson (Universidad de


California) y sus colaboradores utilizan la
idea de la <<<Eva mitocondrial>>> que
indica que los seres humanos salieron de
Africa hace menos de 290.000 anos.

206
1992 Investigadores de la Universidad de
California afirman que el ADN indica que los
seres humanos modernos son
descendientes de solo 10.000 individuos
que dejaron Africa hace 50.000-100.000
anos.

1994 Usando nuevos metodos de


datacion, cientificos de la Universidad de
Berkeley demuestran que el H. erectus
llego a Java hace 1,8 millones de anos
aproximadamente.

1997 Mark Stoneking (Penn State


University) y sus colaboradores analizan el
ADN de los neandertales y no encuentran
signos de un vinculo genetico con los
modernos seres humanos.

1998 El profesor Stanley Ambrose


(Universidad de Illinois) sugiere que los
seres humanos dejaron Africa para huir del

207
cambio climatico desencadenado por una
erupcion volcanica hace 71.000 anos.

2000 Ulf Gyllensten y sus colaboradores


(Universidad de Uppsala, Suecia) revelan
que las pruebas de ADN senalan que los
seres humanos se originaron en Africa
170.000 anos atras.

Citas

15

La teoria es conocida como Out of Africa


en homenaje al celebre texto
autobiografico de la escritora danesa Isak
Dinesen. (N. del E.)

16

208
La paleoantropologia ha tenido su buena
dosis de revelaciones vergonzosas a lo
largo del tiempo, sintoma de la tendencia
de algunos buscadores de fosiles a ver
demasiado en pruebas mas que escasas.
El ejemplo mas notorio es el bulo del
hombre de Piltdown, que se centro en el
craneo y la mandibula que desenterro el
geologo amateur Charles Dawson cerca de
Piltdown Common (Sussex, Reino Unido)
hacia 1912. El hallazgo fue aceptado
rapidamente como genuino porque parecia
ajustarse muy bien a las ideas
preponderantes sobre los vinculos
evolutivos entre los seres humanos y los
simios. Tuvo que llegar la decada de 1950
para que se descubriera que se habia
formado con el craneo de un ser humano
moderno y la mandibula de un orangutan
recien fallecido. El que quiza sea el ejemplo
mas atroz de la extralimitacion con las

209
pruebas data de 1922, cuando Henri
Fairfield Osborn, experto estadounidense
en fosiles, afirmo haber encontrado el
Hesperopithecus, el primer simio antropoide
de America. Osborn baso su afirmacion en
un solo diente fosilizado que, como se
demostro mas tarde, procedia en realidad
de un cerdo extinguido.

17

Se considera que el cambio climatico es


una de las mayores amenazas a las que
ahora se enfrentan los modernos seres
humanos. Sin embargo, no hace mucho
han surgido pruebas que indican que
realmente puede haber desempenado un
papel fundamental dotandonos de nuestro
atributo mas importante: el cerebro.
Curiosamente, la magnitud de nuestros
cerebros no deja de ser un rompecabezas

210
de la evolucion. Nuestro cerebro paga un
precio tremendo por la inteligencia en lo
que se refiere a la demanda de energia.
Pese a que solo pesa 1,4 kilos —apenas un
pequeno porcentaje del peso corporal total
—, el cerebro consume aproximadamente
el 20% del aporte total de energia.

Muchos otros organismos han desarrollado


maquinas pensantes tambien
derrochadoras, de modo que contar con
un cerebro de un tamano aceptable
evidentemente conlleva algun beneficio
importante en materia de evolucion. ?Pero
de que se trata? En 2005, un equipo
dirigido por el Daniel Sol (Universidad
Autonoma de Barcelona) demostro que la
respuesta podria encontrarse en el cambio
climatico. En un articulo publicado en la
revista Proceedings of the National
Academy of Sciences, demostraron que los

211
datos sobre el exito de las especies de
aves introducidas en nuevos entornos
respaldaba la existencia de una relacion
entre el tamano del cerebro y la habilidad
de desarrollar nuevas capacidades y de
sobrevivir. Las aves con cerebros mayores
era mas capaces de obtener nuevas
fuentes de alimento y explotarlas. Segun el
equipo, los datos que obtuvieron aportan
pruebas solidas que respaldan la idea de
que los cerebros mayores evolucionaron
para hacer frente al cambio ambiental.

?Explica esto por que los seres humanos


tienen unos cerebros tan grandes?
Ciertamente, somos las criaturas de este
planeta mas inteligentes que se haya visto
nunca, y hemos probado que somos muy
capaces a la hora de enfrentarnos al
perturbador cambio climatico de los ultimos
millones de anos. A algunas personas

212
puede preocuparles el hecho de si
podremos afrontar los efectos del
calentamiento global, pero la historia indica
que 1,4 kilos de la masa de materia
gelatinosa que tenemos sobre los hombros
nos mantendran a flote.

213
8
Naturaleza versus cultura

En pocas palabras

?Nos conforman principalmente nuestras experiencias y


nuestra educacion o son nuestros genes los que dictan en
que podemos convertirnos? Durante siglos, los filosofos y
los reformadores sociales intentaron resolver el dilema de
<<<la naturaleza versus la cultura>>>, pero solo en
fechas bastante recientes se ha comenzado a incluir en el
debate pruebas cientificas. Sin embargo, con mucha
frecuencia la evidencia revelaba mas sobre las creencias
de los investigadores que sobre los papeles de los genes y
el entorno. Hace un siglo se decia que la evidencia
probaba el predominio de los factores geneticos; los
eugenesicos utilizaron esto para justificar las campanas de
esterilizacion en masa de las personas geneticamente
<<<incapacitadas>>>. En la decada de 1930, la balanza
se inclino hacia el campo de la educacion, insistiendo los
conductistas en que los seres humanos no tienen
caracteristicas innatas.

214
Solo hacia la ultima decada surgio un punto de vista mas
equilibrado, por el que los seres humanos son conformados
en parte por sus genes, en parte por su entorno, y
parcialmente por pura casualidad.

Se trataba de una historia irresistible para los


periodicos sen-sacionalistas: una explicacion
cientifica de los escarceos amorosos que lleno
paginas dia tras dia. <<<?Ha nacido para
descarriarse?>>>, preguntaba el Daily Mail en el
titular de un articulo publicado en julio de 2004,
del que eran autores unos cientificos del St.
Thomas’s Hospital (Londres) y en el que
sugerian que aproximadamente una cuarta parte
de las mujeres son portadoras de un <<<gen
de la infidelidad>>> que hace que sea mas
probable que tengan aventuras amorosas.

El profesor Tim Spector y sus colaboradores


(Unidad de Investigacion de Mellizos) habian
comparado las historias de miles de mellizas de

215
su base de datos y encontraron que las mellizas
identicas —que comparten los mismos genes—
mostraban una asombrosa similitud en la tasa de
infidelidad.

La implicacion era obvia: una mujer que siga


teniendo aventuras no lo puede remediar, lo lleva
en los genes.

Esto era al menos lo que se leia en los periodicos


sensaciona-listas, que salpimentaban sus articulos
con ejemplos de celebridades conocidas por sus
aventuras amorosas. Solo hacia el final de los
relatos aparecian finalmente las salvedades de
los investigadores: los genes no dictan el
comportamiento y es probable que, en cualquier
caso, la infidelidad dependa de un monton de
factores.

Lo que la investigacion probaba, sin duda alguna,


era el interes persistente por el debate entre
naturaleza y cultura (o educacion). Era raro que

216
pasara algun mes sin que algun equipo de
investigacion anunciara una relacion entre los
genes y algun rasgo de la personalidad, desde la
tendencia a correr riesgos hasta la orientacion
sexual, de la intimidacion a la locura. Y tras los
informes de la investigacion se esconde la
implicacion desconcertante de que todos
nosotros somos esclavos de nuestros genes.

En esta creencia se basaron atrocidades como la


esterilizacion forzosa de los <<<debiles
mentales>>> que se realizo en la decada de
1930 en Estados Unidos o la limpieza etnica que
tuvo lugar en los Balcanes en la decada de 1990.
Sin embargo, la reaccion contra el determinismo
genetico ha dado lugar a sus propios excesos.
Creer que los seres humanos son una <<<tabla
rasa>>> cuyo futuro esta determinado
completamente por su entorno ha dado lugar a
teorias extranas sobre la crianza de los ninos, y a
un enorme sentimiento de culpabilidad de los

217
padres, que se maldicen por los fallos de sus
hijos18.

Ahora esta comenzando a surgir un panorama


nuevo y mas sofisticado: una relacion entre
nuestros genes y la educacion y el entorno que
es mucho mas compleja de lo que los
demagogos del debate nos hayan hecho creer.

No es que los pioneros del debate consideraran


que tenian otra cosa que no fueran las mejores
intenciones en lo que respecta a la sociedad.

Cuando John Locke, filosofo ingles del siglo XVII,


expuso el caso del punto de vista de la <<<tabla
rasa>>> respecto al comportamiento humano,
creia que estaba asestando un golpe contra
conceptos represivos como el pecado original y el
derecho divino de los reyes. Si los seres
humanos hubieran nacido todos iguales,
entonces cada uno podria y deberia tener tanto

218
derecho a la vida, la libertad y el logro de la
felicidad como cualquier otro; este punto de vista
impresiono a Thomas Jefferson, principal creador
de la Declaracion de Independencia
estadounidense. Del mismo modo, cuando los
intelectuales Victorianos Herbert Spencer y
Francis Galton relacionaron la teoria de la
evolucion de Darwin con el estudio de la sociedad
humana, creian que estaban actuando por el
bien publico. 19

Algunos de sus contemporaneos pudieron ver los


peligros que acechaban en el famosamente
sucinto resumen de la evolucion de Spencer
como la <<<supervivencia del mas apto>>> y
el concepto de eugenesia de Galton: la
<<<mejora>>> sistematica de la raza humana
a traves de una cria selectiva. Incluso asi,
muchos intelectuales simplemente pasaron por
alto tales reparos, creyendo que los hechos
hablaban por si solos. Ya en 1865, Galton habia

219
publicado un estudio sobre la eminencia de los
hijos de familias notables, y llego a la conclusion
de que su tasa exito era doscientas cuarenta
veces mayor que la de los hijos de la gente
corriente. Un decenio despues, Galton prosiguio
con el que seria el primero de los elementos
basicos del debate entre naturaleza y educacion;
una comparacion de mellizos identicos. Galton
encontro muchas similitudes entre tales mellizos a
lo largo de sus vidas, y creia que no habia lugar a
ningun tipo de polemica: evidentemente, la
naturaleza prevalecia sobre la educacion, y la
crianza selectiva era el camino a seguir por la
sociedad.

Era un punto de vista que compartian muchos de


los asistentes al Primer Congreso Internacional de
Eugenesia, celebrado en Londres en 1912, entre
ellos Leonard Darwin, hijo de Charles Darwin.
Como presidente de la Sociedad de Eugenesia,
advirtio sombriamente sobre la amenaza que

220
suponia para las generaciones futuras el hecho
de permitir que los <<<varones no aptos>>>
tuvieran hijos. Incluso en el congreso se pudieron
oir voces disconformes. En su alocucion, Arthur
Balfour, antiguo primer ministro britanico, expreso
su preocupacion por el hecho de que toda la
cuestion de la herencia fuera mucho mas
compleja de lo que creian los cientificos y advirtio
sobre la apropiacion de la eugenesia por fanaticos
deseosos de introducir sus propios puntos de
vista en la sociedad.

Las ideas de Balfour demostraron ser profeticas


en ambos casos. En Estados Unidos, el concepto
de eugenesia se disemino como reguero de
polvora: un ano despues del discurso de Darwin,
dieciseis estados contaban con leyes que
permitian la esterilizacion obligatoria de los
<<<debiles mentales>>>. Los eugenesicos
observaron la campana en Alemania, cuyas
politicas se introdujeron en los meses siguientes a

221
la llegada al poder de los nazis en 1933.
Comenzaron con la esterilizacion de miles de
personas con caracteristicas como la
esquizofrenia y terminaron con la masacre de
millones de personas en campos de
concentracion como Auschwitz.

La derrota de los nazis y la repugnancia por sus


politicas hizo que el debate sobre naturaleza y
educacion volviera a la idea de la <<<tabla
rasa>>> del comportamiento humano. Sus
defensores estaban otra vez en disposicion de
apelar a investigaciones cientificas
aparentemente solidas para respaldar sus puntos
de vista. Y, de nuevo, las conclusiones hicieron
caso omiso de la autentica complejidad de la
situacion.

Durante la decada de 1920, el psicologo


estadounidense John B. Watson habia declarado
que todo lo que se decia sobre los rasgos y los

222
instintos escapaba a la cuantificacion y por tanto
carecia de sentido. En su lugar, pedia que se
centrara la atencion en la manera en que los
seres humanos se comportan en respuesta al
mundo que los rodea. Afirmaba que esto
probaria que todos los seres humanos tienen la
capacidad de lograr cualquier cosa.

Watson y sus acolitos reunieron abundantes


pruebas para apoyar sus afirmaciones, algunas
de ellas decididamente excentricas. Winthrop
Kellogg estudio el papel del entorno en el
comportamiento criando a un mono con su hijo,
mientras que el con-ductista B. F. Skinner
(Universidad de Flarvard) coloco a su hija en una
caja especialmente construida durante varias
horas al dia, sosteniendo que eso creaba un
entorno optimo para su desarrollo. Watson
incluso <<<condiciono>>> a su propio hijo para
que tuviera un miedo irracional a los conejos20.

223
Mas singular fue aun el fracaso lamentable de los
conductis-tas en aceptar que aunque su
investigacion era ciertamente coherente con la
importancia de la naturaleza, nada hacia para
descartar el papel de otros factores, incluida la
genetica. Se demostro graficamente cuan
importantes podrian ser tales factores en
experimentos polemicos realizados a finales de la
decada de 1950 en la Universidad de Wisconsin-
Madison.

El psicologo Flarry Harlow separo a crias de


monos de sus madres y los puso en jaulas que
contenian dos madres artificiales. Una era
simplemente un modelo de alambre que tenia un
biberon con leche, mientras que el otro era mas
realista y con una textura suave, aunque no
proporcionaba leche. Segun los con-ductistas, los
monos tendrian que haber aprendido
rapidamente a ignorar la frialdad de la
<<<madre>>> de alambre para dedicarse a la

224
cuestion vital de alimentarse de su leche. Sin
embargo, Harlow encontro que los monos
pasaban la mayor parte del tiempo con la
<<<madre>>> suave pero sin leche,
dirigiendose al modelo de metal solo cuando
tenian hambre.

Harlow habia demostrado lo que la mayoria de la


gente —excepto los conductistas— considerarian
obvio: que el comportamiento no se configura
meramente por el ambiente. Los monos tenian
un instinto innato de lo que se espera de un
progenitor que crie, y lo buscaban21.

Las pruebas de Harlow de los rasgos


conductuales innatos llegaron en el momento en
que ambos polos del debate entre naturaleza y
educacion estaban teniendo profundos efectos
en padres e hijos. Los conductistas escribieron
manuales sobre la educacion de los ninos que
insistian en que los ninos se harian

225
<<<blandos>>> si se les daba el beso de
buenas noches o se les abrazaba
excesivamente. Al mismo tiempo, las pruebas de
la influencia de la genetica pesaban en la politica
educativa. Se dijo que los estudios de mellizos
identicos que habia realizado el psicopedago-go
britanico Cyril Burt demostraban que la
inteligencia es heredada en gran medida, lo que
llevo a afirmar que los recursos educativos
debian centrarse en los ninos que mostraran ser
prometedores precozmente. En el Reino Unido
esto llevo a la aprobacion de la Ley de Educacion
de 1944 y a la realizacion de un examen con
vistas a seleccionar a aquellos ninos a partir de
once anos que recibirian educacion secundaria.

Anos despues comenzaron a cuestionarse los


estudios de los mellizos en los que se basaba
esta politica, pero por entonces la afirmacion de
que los genes son el destino habia perdido en
gran medida su poder, al menos en circulos

226
extraacademicos. Los padres habian reconocido
hacia tiempo que, pese a haber hecho todos los
esfuerzos posibles, sus hijos a menudo acababan
teniendo personalidades totalmente diferentes
que apenas parecian estar
<<<determinadas>>> ya fuera por la
naturaleza o por la educacion.

No obstante, entre los academicos el debate


proseguia. En 1975, el experto en hormigas
Edward O. Wilson (Universidad de Harvard)
publico Sociobiology, obra en la que demostraba
que los genes solos pueden producir un
comportamiento notablemente complejo. Pero
tambien intento extrapolar sus argumentos al
comportamiento humano, y provoco una enorme
polemica, tambien debida a que parecia resucitar
el determinismo genetico con su trasfondo
eugenesico22. Mientras tanto, habia cientificos
que seguian reivindicando las pruebas de la
influencia genetica en cualquier ambito, desde la

227
orientacion sexual hasta la eleccion de carrera. A
mediados de la decada de 1990 parecia
finalmente que el mundo academico comenzaba
a llegar a la misma conclusion que el publico: que
el comportamiento humano es una mezcla de
naturaleza, educacion y simple casualidad. En
1998, la psi-cologa estadounidense Judith Rich
Harris publico El mito de la educacion, un exito de
ventas que daba respaldo cientifico a lo que los
padres siempre habian sospechado: que sus
habilidades en la crianza de los hijos tenian un
efecto relativamente pequeno en como llegarian
a ser sus hijos. Al mismo tiempo, los estudios del
genoma humano descubrieron genes cuyas
acciones afectan a la capacidad de interactuar
con otros, poniendo en ridiculo la dicotomia
habitual entre los factores geneticos y
ambientales.

Tras mas de un siglo de afirmaciones y


contraafirmaciones, el debate entre naturaleza y

228
educacion se ha considerado finalmente como lo
que es: una perfecta demostracion de los
peligros de considerar que solo una de las partes
de cualquier debate tiene el monopolio de la
verdad.

JOHN LOCKE: EL HOMBRE

Locke, uno de los filosofos britanicos mas


influyentes, nacio en 1632 y fue educado en
Christ Church (Oxford). Ahi desarrollo su
fascinacion por la medicina y la ciencia, animado
por su colega de la Universidad de Oxford Robert
Boyle. Sus estudios tambien abarcaron la
filosofia, asi como cuestiones sobre la naturaleza
de la mente humana y las percepciones de la
realidad. En su obra mas famosa, Essay

229
Concerning Human Understanding (Ensayo sobre
el entendimiento humano), Locke sostenia que la
mente humana comienza estando enteramente
en blanco y que solo adquiere conocimiento
sobre el mundo a traves de la experiencia. Este
punto de vista <<<empiricista>>> le llevo a la
conclusion de que existen limites tanto en la
extension como en la certeza del conocimiento,
lo que constituye un argumento
sorprendentemente moderno. Por el contrario,
sus ideas sobre la mente humana en blanco son
actualmente insostenibles.

EXPERIMENTOS DE GALTON SOBRE LA


EMINENCIA

Impulsado en parte por sus propios

230
antecedentes familiares ilustres, empezo a
obtener pruebas solidas sobre la
<<<heredabilidad>>> del talento indagando en
las biografias de personas famosas. Despues de
analizar las antecedentes familiares de cientos de
estas personas nacidas en los cuatro siglos
posteriores a 1453, Galton encontro que
aproximadamente el 8% de los hijos de personas
distinguidas tambien llegaron a ser personas
eminentes. Calculo, en comparacion, la
proporcion de la poblacion general que al menos
logro llegar a la universidad, y encontro que la
cifra era solamente de 1 por 3.000. Galton creia
que esta diferencia (240 veces) en la tasa exito
se debia principalmente a factores hereditarios,
aunque aceptaba que era posible que los
descendientes de personas eminentes disfrutaran
de ventajas vedadas al resto de la poblacion.

231
Cronologia

1690 El filosofo ingles John Locke afirmo


que todo ser humano nace como una
<<<tabla rasa>>> y adquiere
caracteristicas a traves de su experiencia
de vida.

1864 Herbert Spencer acuna el termino


<<<supervivencia del mas apto>>>, y
establece las bases para la aplicacion del
darwinismo en la sociedad (el denominado
posteriormente darwinismo social).

1875 El erudito ingles Francis Galton


publica el primer estudio sobre mellizos,
disenado para evaluar el equilibrio relativo
entre naturaleza y educacion. Mas tarde
acuna el termino de <<<eugenesia>>>.

232
1924 El psicologo estadounidense John B.
Watson presenta el
<<<conductismo>>>, que considera
todas las habilidades humanas como
resultado de la interaccion ambiental mas
que de los rasgos.

1931 El psicologo Winthrop Kellogg


(Universidad de Indiana) y su mujer crian
a un chimpance junto con su hijo para
estudiar los efectos de los genes y del
entorno en el comportamiento.

1935 La politica orientada en funcion de la


eugenesia hace que todos los estados
estadounidenses segreguen a las personas
que tienen discapacidades mentales y
treinta y cinco estados introducen la
esterilizacion obligatoria: solo en California
se esteriliza a 20.000 <<<debiles
mentales>>>.

233
1943 El psicopedagogo britanico Cyril Burt
publica pruebas de un estudio de mellizos
que demuestran que la inteligencia esta
determinada en gran medida por los
genes, lo que supone la modificacion del
sistema educativo del Reino Unido.

1958 El psicologo estadounidense Harry


Harlow desvela los resultados de sus
experimentos con monos, que demuestran
como el comportamiento determinado por
los genes puede invalidar al
comportamiento aprendido.

1975 La publicacion de Sociobiology, del


entomologo Edward O. Wilson (Universidad
de Harvard), reaviva el debate entre
naturaleza y educacion. Se acusa a Wilson
de determinismo genetico.

1998 Judith Rich Harris publica El mito de


la educacion, que echa por tierra anos de

234
afirmaciones cientificas sobre los papeles
de la naturaleza y la educacion en el
desarrollo infantil.

2001 El estudio del genoma humano


revela la existencia de solo unos 30.000
genes, lo que sugiere que las influencias
exteriores desempenan un papel
fundamental en la activacion de los genes.

Citas

18

La <<<tabla rasa>>>, una traduccion literal


del latin tabula rasa, capta la idea de que
los humanos nacen sin rasgos innatos y
de que su comportamiento y su
personalidad son enteramente el resultado
de la interaccion con su entorno. Cuando

235
John Locke establecio por primera vez
este concepto, utilizo la metafora de la
mente como <<<un papel en blanco
carente de cualquier caracter, sin idea
alguna>>>.

19

Francis Galton, uno de los pensadores


Victorianos mas originales, nacio en 1822 y
rapidamente demostro sus tendencias
eruditas, aprendiendo medicina y
matematicas en las universidades de
Londres y de Cambridge. Al heredar una
fortuna de su padre, abandono sus
estudios y se hizo explorador, haciendo
importantes contribuciones al conocimiento
geografico de Africa. A su vuelta, desarrollo
investigaciones pioneras en multitud de
campos, desde las huellas digitales hasta la
estadistica, pero su trabajo mas famoso

236
siguio a la publicacion de El origen de las
especies de su primo, Charles Darwin. El
concepto de evolucion llevo a Galton a
abogar por la eugenesia, en la que la cria
selectiva <<<mejoraria>>> la raza
humana. Ironicamente, Galton no tuvo
hijos. Murio en 1911.

20

Como fundador del conductismo, Watson


creia que incluso se pueden conformar
(<<<condicionar>>>) las relaciones
emocionales de los seres humanos
mediante la experiencia. Para probarlo, en
1921 realizo un experimento con el que
consiguio hacer que un nino de once
meses tuviera panico de un conejo blanco
golpeando violentamente un martillo contra
una barra de acero cuando aparecia el
conejo.

237
21

Harlow nacio en 1905. Su carrera de


investigador comenzo con estudios
psicologicos bastante convencionales de los
seres humanos, ideando pruebas para
medir su inteligencia, pero se quedo
intrigado por el comportamiento emocional
de los monos. A finales de la decada de
1950, comenzo los experimentos que le
dieron fama. Ironicamente, pese a
hacerse famoso por demostrar la
importancia del carino, Harlow fue un adicto
al trabajo que ignoro a sus hijos.

22

Es su obra Sociobiology (1975), Wilson


intento demostrar como la influencia
genetica sobre el comportamiento era un
hilo conductor que conectaba a criaturas
sociales como las hormigas, los peces y los

238
pajaros con los seres humanos. Por
ejemplo, las luchas por el territorio se
explicaban en terminos del concepto
genetico de la seleccion familiar, segun la
cual las criaturas se sacrifican a si mismas
para salvar mas copias de sus genes de
parentesco.

239
9
El gen egoista

En pocas palabras

Segun la Teoria del Gen Egoista, la Teoria de la Evolucion


de Darwin se concibe mejor no como una lucha por la
supervivencia de una especie, ni siquiera de un individuo,
sino como una lucha entre genes. Aunque los genes no
son mas que cadenas de compuestos quimicos que pueden
copiarse y transmitirse a los descendientes, Richard
Dawkins, zoologo de la Universidad de Oxford, les adjudico
la propiedad metaforica del <<<egoismo>>>. Entonces
demostro como su determinacion implacable por
transmitirse puede explicar el comportamiento altruista,
aparentemente sin sentido, cuyos origenes
desconcertaron incluso a Darwin. No todos los expertos en
materia de evolucion aceptan esta vision de la evolucion
<<<centrada en los genes>>>, y la metafora del gen
egoista ha sido motivo de gran confusion y polemica. En
particular, mucha gente piensa que implica que estamos
completamente bajo el control de genes egoistas, lo que
mina nuestra moralidad y nuestro libre albedrio. Sin

240
embargo, como intento aclarar el propio Dawkins, los seres
humanos modernos nos encontramos en la situacion unica
de ser capaces de superar los objetivos de los genes,
porque tenemos una mente. La mente nos permite
trascender nuestras limitaciones fisicas y tambien nos
permite ir mas alla de la fria moralidad darwiniana de los
genes.

En 1976, un joven profesor de la Universidad de


Oxford revelo a la prensa una afirmacion
inquietante sobre la autentica naturaleza de los
seres humanos. <<<Somos maquinas
supervivientes —declaro—, vehiculos roboticos
programados de forma ciega para preservar las
moleculas egoistas conocidas como genes>>>.

Esta declaracion escalofriante aparece en el


prefacio de uno de los mas famosos libros
cientificos de los ultimos cien anos, que dio a su
autor fama internacional. Se trata de Richard
Daw-kins, que en la actualidad es profesor en
Oxford y quiza sea el partidario mas influyente

241
de la teoria de la evolucion de Darwin.

El libro en el que presento su polemica afirmacion


es El gen egoista, cuyo atrayente titulo llevo
aparejadas importantes ventas y errores incluso
mayores. Muchos creen que se debe al
descubrimiento de Dawkins de que todas las
criaturas vivas, incluidos los seres humanos,
estan bajo el control de genes egoistas que solo
se ocupan de su propia supervivencia y haran
todo lo posible para asegurar su transmision,
incluso sacrificando los <<<vehiculos>>> en los
que se encuentran —concretamente nosotros—
si esto sirve para conseguir su proposito.

La verdad es muy diferente. El gen egoista es en


realidad un intento de demostrar que la evolucion
se comprende mejor pensando en genes e
imaginando que son <<<egoistas>>>. Dawkins
no afirma que los genes sean realmente
egoistas, ni que sepan de algun modo lo que

242
estan haciendo. Tampoco asegura haber
descubierto las pruebas que apoyan esta vision
de la evolucion. Menos aun afirma que nosotros,
los seres humanos, seamos incapaces de resistir
a las exigencias de nuestros propios genes
<<<egoistas>>>, sino todo lo contrario.
Dawkins solo pretendia dar esta vision de la
evolucion ante un publico mas amplio y al hacerlo
acuno una de las metaforas mas potentes, pero
potencialmente erroneas, de toda la ciencia.

El gen egoista es una idea que tiene su origen en


el intento de resolver un misterio que durante
mucho tiempo habia desconcertado a los
evolucionistas, incluido el propio Darwin. En su
trabajo mas famoso, El origen de las especies,
Darwin habia demostrado como la lucha por la
existencia actua como un <<<filtro>>> por el
que solo pasan algunas criaturas, concretamente
las que estan mas capacitadas para sobrevivir.
Luego dejarian descendencia, que heredaria esos

243
atributos, impulsando el avance de la evolucion.

Pero Darwin sabia que algunas criaturas parecian


desafiar esta logica implacable. Tenian rasgos,
como la valentia, que claramente reducian su
posibilidad de sobrevivir lo suficiente para tener
descendencia. Entonces, ?por que perduraban
estos rasgos? ?Por que, por ejemplo, los pajaros
envian sonidos de aviso a otros pese al riesgo de
ser atacados, o las abejas pican para defender
sus colmenas, en lo que constituye un
comportamiento suicida?

En El origen del hombre, publicado en 1871,


Darwin indicaba que quiza el proceso de evolucion
a veces no actua al nivel de los individuos sino de
grupos completos. De ese modo, aunque la
valentia pudiera no ser beneficiosa para el
individuo si podria beneficiar al grupo entero.

La idea de Darwin de la <<<seleccion de


grupos>>> se hizo muy popular entre los

244
biologos en los anos siguientes. Incluso en la
decada de 1960, el ecologo escoces Vero
Wynne-Edwards habia afirmado que la seleccion
de grupos podria explicar por que, por ejemplo,
los grajos dejan de criar cuando su poblacion
crece demasiado. Aunque tal comportamiento no
tiene un sentido genetico para un grajo concreto,
si lo tiene para la supervivencia del grupo.

Sin embargo, no todos estaban convencidos: los


criticos de la seleccion de grupos apuntaban que
quiza los grajos eran simplemente incapaces de
poner un monton de huevos cuando escasea la
comida. A mediados de la decada de 1960, la
seleccion de grupos era atacada por una nueva
generacion de biologos que insistian en que tal
comportamiento, y la evolucion general, debia
entenderse en terminos de la unidad mas basica
que tiene la vida: los genes.

En la epoca en que Darwin desarrollo su teoria,

245
no existian pruebas solidas de los genes (aunque
el sabia que tenia que haber algun
<<<transportador>>> de los atributos
heredados). La primera prueba surgio en 1866,
en experimentos realizados en plantas por un
monje austriaco llamado Gregor Mendel.

Pese a su crucial importancia para la Teoria de la


Evolucion de Darwin, el trabajo de Mendel fue
ignorado hasta mucho despues de su muerte.
Pero a principios de la decada de 1980 se habia
descubierto la estructura del ADN, y los genes
eran el centro de atencion de la biologia. Entre los
cientificos intrigados por su papel en la evolucion
habia un pequeno grupo de etologos —cientificos
que estudian el comportamiento animal— que
consideraban los genes como la respuesta a un
antiguo misterio: ?en que, exactamente, actuaba
la <<<seleccion natural>>>? La respuesta
parecia depender de las circunstancias: a veces
en los individuos, a veces en grupos de animales

246
y a veces en especies enteras. Sin embargo,
como habian demostrado los criticos de Wynne-
Edwards, las pruebas raramente eran
convincentes.

Todo era muy complicado; cuanto mas claro


seria si existiera solo una respuesta. Los genes
eran candidatos obvios para ser los agentes
ultimos de la evolucion, pero existia un gran
problema, el mismo que habia desconcertado a
Darwin: el comportamiento altruista. Si los genes
eran el autentico centro de la seleccion natural,
parecia imposible explicar un comportamiento que
impidiera que los genes responsables se
transmitieran a las generaciones futuras. .

En 1964 se produjo un gran avance, con un


articulo del brillante teorico de Oxford William
Hamilton. Cuando era estudiante, Hamilton habia
leido un articulo del distinguido genetista J. B. S.
Haldane, en el que bromeaba diciendo que daria

247
su vida por dos hermanos u ocho primos. Esta
broma escondia un hecho genetico: que todos
los hermanos portan copias de los genes de sus
padres. De modo que si una persona se sacrifica
a si misma para salvar la vida de sus dos
hermanos, solo se perderia un conjunto de
genes y se habian salvado dos, lo que, desde el
punto de vista de los genes, es mucho mejor
que el que se pierdan los tres. Un argumento
similar se aplica a los primos, excepto que se
tienen que salvar mas vidas, dado que son
parientes mas lejanos.

De repente, la idea de los genes heredados del


comportamiento altruista ya no parecia tan
paradojica. Podia tener sentido si la muerte de un
individuo permitiera que mas conjuntos de los
mismos genes sobrevivieran. En lugar de basarse
en los ejemplos extraidos del reino animal,
Hamilton trabajo con las consecuencias de la idea
con detalle matematico. Incluso pudo probar un

248
teorema sobre como pueden existir los genes del
altruismo 23. Esto demostraba que tales genes
pueden hacerse realmente mas frecuentes a
traves del propio sacrificio, dependiendo del
numero de vidas salvadas, del grado de relacion
y del coste del sacrificio.

Hamilton habia demostrado que el altruismo


puede explicarse geneticamente a traves de la
<<<seleccion por parentesco>>>, en la que las
criaturas se sacrifican a si mismas para salvar
mas copias de sus genes de parentesco.
Resolvio el rompecabezas de Darwin y
posteriormente fue aclamado como el mayor
avance en la teoria de la evolucion desde El
origen de las especies 24.

Sin embargo, en esa epoca la seleccion de


grupos todavia tenia influencia y Galton tuvo
problemas para que se aceptaran sus ideas. Un
momento crucial llego en 1966, con la publicacion

249
de Adaptation and natural selection, del biologo
estadounidense George C. Williams, especialista
en evolucion. Esta obra hacia hincapie en las
pruebas poco solidas de la seleccion de grupos,
demostrando que, como mucho, solo tiene un
efecto menor en la evolucion. Williams decia que,
en lugar de esto, la mejor forma de pensar en la
evolucion es en terminos de la seleccion en el
nivel mas bajo posible: los genes.

Entre los autores que fueron influidos por el


trabajo de Hamilton y de Williams se encontraba
Richard Dawkins. Convencido por la elegancia y la
potencia de la idea del nivel genetico, creia que
tenia que llevar esta noticia a una audiencia
mucho mas amplia. Para ello, debia encontrar
formas de llevar los ejemplos esotericos y las
matematicas a la vida. Necesitaba una metafora,
y se le ocurrio la idea del <<<gen egoista>>>.

Como recurso literario era brillante. Convertia a

250
genes abstractos en agentes secretos que
merodeaban en nuestro organismo, empenados
en garantizar su propia supervivencia, incluso a
nuestras expensas. En su libro, Dawkins utilizaba
la metafora para demostrar de que manera
explicaba una gama asombrosa de
comportamientos en los seres vivos, desde la
tendencia de los peces a formar bancos hasta la
valentia de los babuinos. Dawkins sostenia que
existia una especie que no vivia solamente
siguiendo los dictados del gen egoista: la especie
humana. Tras miles de millones de anos de
evolucion, los genes egoistas habian conformado
una criatura con una mente consciente capaz de
desafiarlos.

Dawkins dijo que los intentos por explicar el


comportamiento humano exclusivamente a
traves de los genes estaban condenados al
fracaso. Se necesitaba algo mas, y sostenia que
era la cultura: el conjunto de creencias, practicas

251
y moral que moldean las sociedades humanas. A
este respecto, Dawkins estaba influido por el
trabajo de diversos autores, entre otros el
genetista italiano Luigi Cavalli-Sforza y su colega
Marc Feldman, que a principios de la decada de
1970 desarrollaron la llamada <<<coevolucion de
genes y cultura>>>. Segun esto, un cambio
cultural —como la aparicion de las granjas
lecheras en ciertas partes del mundo— afectaba
a la prevalencia de genes, como los necesarios
para digerir la lactosa de la leche.

En el capitulo final de El gen egoista, Dawkins


sugeria un paralelismo intrigante entre la genetica
y la cultura: que la cultura tambien puede ser
<<<heredada>>> a traves de los denominados
<<<me-mes>>>, <<<genes>>> culturales
que pasan de padres e hijos por imitacion. Sin
embargo, es muy importante el hecho de que no
todos los memes apoyen los objetivos de los
genes egoistas. Desde las personas que dejan

252
propinas en cafeterias a las que nunca volveran,
hasta los hijos que dedican sus vidas a sus
padres enfermos, gran parte del comportamiento
humano desafia los dictados del gen egoista.
Como Dawkins dijo en la ultima frase de su
libro25: <<<Nosotros, solo nosotros en la Tierra,
podemos rebelarnos contra la tirania de los
replicadores egoistas>>>.

Pese a ello, Dawkins siempre habia temido que


su mensaje se malinterpretara, y sus temores
pronto se hicieron realidad. Para muchos
lectores, su vivida descripcion de los seres
humanos como <<<vehiculos roboticos>>> que
habian sido <<<programados a ciegas>>> por
genes egoistas implicaba que no tenemos ningun
modo de desafiar sus dictados, lo que es
justamente lo opuesto a lo que el queria decir.
Como senalo un critico: <<<Es uno de los
puntos de vista mas frios, inhumanos y
desorientadores sobre los seres humanos que

253
haya oido nunca>>>.

Con el paso de los anos, El gen egoista ha sido


atacado tanto en el ambito cientifico como en el
moral. Los companeros dar-winianos de Dawkins
criticaban su aparente insistencia en que la
evolucion siempre se considera mejor en
terminos de genes, mientras que un eminente
filosofo le condenaba por propagar un punto de
vista <<<monstruosamente irresponsable>>>
de la moralidad.

Aunque la critica cientifica tiene cierta justificacion,


la mayoria de los ataques tenian su origen en
conceptos erroneos sobre los genes y los seres
humanos, y en la incapacidad de Dawkins para
cambiarlos. La idea de que los seres humanos
deben comportarse como dictan sus genes
egoistas no tiene mayor sentido que decir que
debemos caminar por todas partes porque
tenemos genes para las piernas. Nuestra mente

254
nos brinda la capacidad de considerar otras
formas de desplazarnos y de comportaros.

Dawkins ha invertido los ultimos veinticinco anos


en intentar que se entendiera el mensaje real del
gen egoista. Hoy en dia, muchos expertos en
evolucion, si no la mayoria, estan convencidos de
que la gran teoria de Darwin se comprende
mejor al nivel de los genes. Tambien crece el
numero de los que investigan las implicaciones del
fascinante concepto de Dawkins del meme, por
el que los seres humanos <<<heredan>>>
todo, desde las fobias hasta las creencias
religiosas. Acunando la metafora del gen egoista,
el propio Dawkins desencadeno un potente
meme sobre el mundo. Ironicamente, parece
existir un meme destinado a causar la frustracion
infinita de su creador.

255
EXTRANO CASO DE LAS ABEJAS SUICIDAS

Un ejemplo muy familiar de altruismo genetico es


el aparente entusiasmo de las abejas por clavar
su aguijon a sus posibles atacantes, incluso
aunque esto suela implicar su propia muerte. ?
Por que la evolucion no ha <<<ensenado>>> a
las abejas que esta no es una buena manera de
transmitir sus genes? De hecho, en la mayoria
de casos lo es: de las miles de especies de
abejas, menos de diez tienen aguijones con puas
que les producen la evisceracion suicida. Estas
<<<abejas obreras>>> tambien comparten
otro rasgo crucial para su comportamiento
extrano: son miembros esteriles de una forma
de vida muy social. Por tanto, el suicidio no
afecta a su probabilidad de transmitir sus genes,
ya que dicha probabilidad es nula. Pero la
defensa suicida de su colmena ciertamente

256
ayuda a que sus parientes fertiles tengan mayor
probabilidad de aportar su granito de arena y
transmitir sus genes.

EL GEN EGOISTA Y EL ESCANDALO DE


ENRON

El colapso de la corporacion energetica


estadounidense Enron en diciembre de 2001
desencadeno un gran debate sobre la cultura
corporativa que prevalecia en la compania. El
director ejecutivo de Enron, Jeffrey Skilling, era
un notable partidario de la gestion
<<<darwiniana>>>, con constantes
evaluaciones del personal y el despido automatico
de aquellos que tenian menor rendimiento.
Posteriormente se descubrio que su obra favorita

257
era El gen egoista y que Skilling creia que
demostraba que los chicos buenos terminan los
ultimos. Sin embargo, como les ocurrio a muchos
otros antes que a el, la metafora de Dawkins
llevo a error a Skilling, que creyo que esos genes
egoistas dictaban el comportamiento de todos los
organismos vivos, incluidos los seres humanos.
Seguramente fue la accion <<<suicida>>> de
un delator de las practicas ilegales de la empresa,
Sherron Watkins, la que hizo que la empresa
<<<darwiniana>>> de Skilling se fuera a pique.

Cronologia

1859 Charles Darwin publica El origen de


las especies, obra en la que demostro
como el proceso de <<<seleccion
natural>>> supone la aparicion de

258
especies que se adaptan mejor a su
ambiente.

1866 Gregor Mendel publica el resultado


de sus experimentos, que apuntan a la
existencia de los genes; dichos resultados
se ignoran y olvidan.

1871 Darwin publica El origen del hombre,


que incluye su intento de resolver el
problema del comportamiento altruista a
traves del beneficio de un grupo de
personas y no del beneficio individual.

1909 Tras el redescubrimiento del trabajo


de Mendel, el genetico danes Wilhelm
Johannsen acuna el termino <<<gen>>>
para el transportador de los rasgos
heredados.

1953 Francis Crick y James Watson


(Universidad de Cambridge) revelan la

259
estructura del ADN y afirman que este
encierra la clave para identificar los genes.

1962 Vero Wynne-Edwards publica Animal


Dispersion in Relation to Social Behaviour,
que apoya la idea de Darwin de la seleccion
de grupos como causa del altruismo.

1964 El biologo teorico britanico William


Hamilton publica The Genetical Theory of
Social Behaviour, que explica los rasgos
altruistas a traves de la <<<seleccion por
parentesco>>>.

1966 El biologo estadounidense George C.


Williams, especialista en evolucion, ataca
las ideas de la seleccion de grupos.

1973 Luigi Cavalli-Sforza y Marc Feldman


publican el primer articulo sobre la teoria de
los genes y la cultura, que sostiene que el
comportamiento humano puede afectar a

260
los rasgos geneticos.

1976 Richard Dawkins publica El gen


egoista, en el que afirma que la evolucion
opera en el nivel de los genes y que su
determinacion <<<egoista>>> debe
transmitirse.

1999 La obra de Susan Blackmore La


maquina de los memes dispara la
popularidad del concepto de memes:
<<<genes>>> culturales que adquirimos
por imitacion.

Citas

23

Al igual que muchos conocimientos


profundos de la ciencia, la cristalizacion

261
matematica de Hamilton del concepto del
gen egoista es notablemente simple. Su
teorema, al que se conoce con frecuencia
como Regla de Hamilton, establece que el
comportamiento altruista tiene sentido
genetico si el grado de parentesco (r) de
las criaturas implicadas supera la razon del
coste (C) respecto al beneficio (B)
(matematicamente, r > C/B). Por ejemplo,
imaginemos a dos hermanos llamados
Adam y Bill. Si r = 0,5 en el caso de los
hermanos, la decision de Adam de
sacrificar su vida por Bill —esto es, de
incurrir en un costo C=1— solo tiene
sentido genetico si el beneficio resultante
(B) para Bill al menos se duplica.

24

Aunque famoso con razon por su trabajo


pionero, Hamilton no fue el unico en

262
considerar las matematicas del altruismo
genetico. En la decada de 1960, un teorico
autodidacta, George Price, ideo ecuaciones
mas elegantes y poderosas para explicar
como el altruismo puede prosperar en un
mundo aparentemente dominado por
genes <<<egoistas>>>. Hamilton
colaboro con el excentrico estadounidense
en dos importantes articulos de
investigacion. Aunque las ideas que
contenian ayudaron a propulsar a Hamilton
a la cima de la profesion academica, sus
implicaciones tuvieron un profundo efecto
en Price, que se convirtio en un fervoroso
cristiano y comenzo a donar todas sus
posesiones. En 1974 sucumbio finalmente
a una depresion cronica y se suicido en un
edificio abandonado cercano a la estacion
londinense de Euston.

25

263
Se refiere a la edicion de 1976. En una
edicion posterior, Dawkins anadiria profusas
notas y dos capitulos mas. (N. del E.)

264
10
Catastrofismo

En pocas palabras

Durante milenios han circulado leyendas sobre cataclismos,


como el diluvio universal, que azotaban la Tierra, pero los
intentos por comprenderlos tuvieron problemas tanto con
la Iglesia —que los consideraba una prueba de la
intervencion divina— como con la comunidad cientifica,
para la cual no eran mas que mitos. A principios del siglo
XIX, prominentes geologos de la epoca, como James
Hutton y Charles Lyell, rechazaron estas ideas
<<<catastrofistas>>> de la historia de la Tierra. En su
lugar, afirmaban que nuestro planeta habia sido
conformado por fuerzas estables, lentas y visibles hoy en
dia, como la erosion. La idea <<<uniformita-ria>>> de la
historia de la Tierra domino en los siguientes 150 anos.
Luego surgieron pruebas convincentes de que la Tierra
sufrio catastrofes raras, pero globalmente devastadoras,
que exterminaron a un porcentaje considerable de seres
vivos. El origen no se encuentra en un dios vengador, sino
en el cosmos, en forma de impactos de asteroides y

265
cometas. Actualmente se cree que hace unos 65 millones
de anos uno de esos impactos contribuyo a llevar a los
dinosaurios a la extincion.

Hoy en dia, los cientificos reconocen que una combinacion


de uni-formitarismo y catastrofismo constituye la clave del
pasado, el presente y el futuro de la Tierra y las formas de
vida que en ella se encuentran.

Desde los antiguos manuscritos babilonios a las


cronicas medievales y las profecias de la New
Age: todo se refiere a catastrofes que azotan la
Tierra en el momento mas inesperado, con
consecuencias devastadoras para la vida en el
planeta. Muchos relatos describen inundaciones a
escala mundial: diluvios que sepultan continentes,
exterminando generaciones enteras de la faz del
planeta. Otros describen lluvias de fuego
cayendo del cielo.

La epopeya de Gilgamesh, escrita hace unos


4.000 anos, describe como <<<los siete jueces

266
del infierno>>> alzaron sus antorchas,
iluminando con llamas la Tierra, y luego enviaron
una tormenta que convirtio el dia en noche. Dos
mil anos despues, el clerigo britanico Gildas
describio <<<un fuego que cayo del cielo>>>
aproximadamente en el ano 441, que ennegrecio
los cielos y causo emigraciones de Inglaterra,
continuando la tierra en ruinas un siglo despues.
Pero estos relatos de catastrofes tienen algo
mas en comun: hasta hace poco se
consideraban historias del castigo divino utilizadas
por los lideres religiosos para mantener en cintura
a sus seguidores. Pocos cientificos las tomaban
en serio, considerandolas como vestigios de una
epoca supersticiosa. Hoy en dia, estos relatos
antiguos se consideran pruebas potencialmente
valiosas de acontecimientos que desempenaron
una funcion clave en la historia de nuestro
planeta, desde su formacion hace 4.500 millones
de anos. Estos acontecimientos son realmente
tan catastroficos como afirmaban las leyendas:

267
impactos cosmicos que en el pasado propinaron
en muchas ocasiones graves golpes a la vida y
que volveran a hacerlo.

Es posible que la idea dramatica de la historia de


la Tierra que ahora surge apenas sea mas
diferente de la que tenian muchos cientificos
incluso en la decada de 1980. Durante unos 200
anos, la Iglesia —para la cual las catastrofes
eran ejemplos de la intervencion divina— tildo de
heretica la idea de los acontecimientos cosmicos
que afectaban a la vida sobre la Tierra, y la clase
cientifica la rechazo por considerarla un mito.
Quienes fueron suficientemente valientes para
proponer pruebas de tales catastrofes tuvieron
problemas con ambos. Sin embargo, al final, el
contundente peso de la evidencia barrio cualquier
duda sobre la realidad de las catastrofes
mundiales.

Los intentos de dar sentido cientifico a muchas

268
de las leyendas sobre catastrofes se remontan a
los albores de la ciencia moderna, en el siglo XIX.
Tras la publicacion de las leyes de Newton del
movimiento y la gravitacion universal en 1687,
Edmond Halley, matematico de la Universidad de
Oxford, decidio aplicarlas al misterio de los
cometas. Estudiando los registros de la aparicion
de estos moradores aparentemente caprichosos
del sistema solar, Halley sugeria que los cometas
brillantes de 1456, 1531, 1607 y 1682 eran de
hecho un cometa que seguia una amplia orbita
eliptica alrededor del Sol, de acuerdo con las
leyes de Newton. Pero Halley tambien observo
algo mas: un cometa que cruzara la orbita de la
Tierra podria colisionar algun dia con ella, lo cual
tendria consecuencias devastadoras.

En diciembre de 1694, Halley dio una conferencia


en la prestigiosa Royal Society de Londres en la
que afirmaba que el impacto de un cometa
podria haber causado el diluvio universal biblico.

269
Incluso sugeria que grandes accidentes
geograficos, como el mar Caspio, podrian
haberse formado como resultado de tales
cataclismos. En unos dias se retracto de su
afirmacion, aparentemente por presiones
eclesiasticas. La Iglesia consideraba que
catastrofes como el diluvio universal eran prueba
del formidable poder de Dios, y no alentaba los
intentos de explicarlas usando la ciencia. Incluso
asi, la conferencia de Halley constituyo un
momento crucial, destacando por vez primera la
vulnerabilidad de la Tierra ante las fuerzas
cosmicas.

Durante el siglo siguiente, otros autores tambien


intentarian aplicar bases cientificas a las historias
biblicas sobre catastrofes. William Whiston,
matematico de Cambridge, afirmaba que un
analisis de las orbitas de los cometas demostraba
que el diluvio universal tuvo lugar en el ano 2349
a. C.

270
A principios del siglo XIX, el eminente zoologo
frances Georges Cuvier parecia haber encontrado
pruebas solidas del diluvio universal. Estudiando
los estratos geologicos de los alrededores de
Paris, Cuvier habia encontrado que sobre los
fosiles de las criaturas marinas de una antigua
capa de caliza se encontraban fosiles de criaturas
terrestres. Luego, abruptamente, aparecia sobre
esta una capa que contenia de nuevo criaturas
marinas, mostrando la capa superior signos de
una vasta y rapida inundacion alrededor del Paris
de hoy en dia. Cuvier tomo estos cambios
subitos de los registros fosiles como pruebas de
catastrofes repentinas que devastaron la vida en
la Tierra, siendo el diluvio universal el ejemplo
mas reciente.

Los descubrimientos de Cuvier, publicados en


1812, obtuvieron el apoyo de algunos cientificos
eminentes, como el distinguido geologo sir James
Hall, y asi nacio el movimiento <<<catastrofis-

271
ta>>>. Sin embargo, otros autores eran
profundamente escepticos, y apuntaban que las
pruebas de un diluvio a escala mundial distaban
mucho de ser concluyentes. Los mas escepticos
de todos eran los seguidores del geologo escoces
James Hutton, fundador de la llamada idea
<<<uniformitaria>>> de la historia de la Tierra.
En 1795, publico un gran texto que se basaba en
la idea de que procesos lentos y estables que
conforman actualmente nuestro planeta, como la
erosion, tambien tuvieron una importancia crucial
en un pasado distante.

El uniformitarismo era una idea importante que


permitia que los geologos hicieran extrapolaciones
a partir de lo que podian ver en el momento
presente con el fin de probar cuestiones sobre la
historia de la Tierra. Su partidario mas influyente
fue Charles Lyell, geologo escoces que
consideraba el catastrofismo como un intento de
los fanaticos religiosos por que sus creencias

272
ganaran credibilidad cientifica. Lyell demostro que
las <<<pruebas>>> de Cuvier del diluvio
universal podian explicarse por los cambios
graduales del nivel del mar, y ataco a los
catastrofistas porque opinaba que les gustaban
demasiado las explicaciones sobrenaturales.

En la decada de 1830, la obra de Lyell Principios


de geologia, basada en el uniformitarismo,
consiguio que las afirmaciones de una catastrofe
mundial se asociaran de inmediato a la
supersticion desbocada. Sin embargo, aunque
Lyell habia demostrado que las pruebas de las
catastrofes pasadas no eran concluyentes, no
habia probado que dichas catastrofes fueran
imposibles. Lo que hizo fue asegurar que
cualquier desafio al uniformitarismo se enfrentara
a un arduo camino por delante en los 150 anos
siguientes.

Surgieron indicios de donde podria proceder ese

273
desafio incluso cuando Lyell establecia sus
argumentos contra el catastrofismo. Durante
siglos se habian registrado casos de
<<<piedras>>> que caian del cielo, pero se
habia considerado que eran historias populares…
hasta el 26 de abril de 1803, dia en el que miles
de meteoritos llovieron sobre el pueblo normando
de L’Aigle. Una investigacion realizada por el
astronomo frances Jean Biot demostro que de
hecho las piedras procedian de algun lugar mas
alla de la Tierra.

Los cientificos tardaron mucho mas en aceptar


que meteoros mucho mayores hubieran podido
impactar tambien en la Tierra, pese a que las
pruebas no podian ser mas imponentes. A finales
de la decada de 1890, Grove Gilbert, director de
geologia del Instituto de Cartografia de Estados
Unidos, decidio investigar los informes de gran
numero de meteoritos que salieron a la luz
alrededor de un gran crater de 1,2 kilometros de

274
diametro en el desierto de Arizona. Gilbert, que
no consiguio encontrar ningun meteoro gigante
enterrado en el crater, apuntaba que este debia
de haberse formado por una burbuja de vapor
en una roca en tiempos fundida, pasando por
alto la posibilidad de que el meteoro hubiera
podido evaporarse al impactar. En 1906, Daniel
Barringer, un ingeniero de minas estadounidense,
publico pruebas que relacionaban el crater de
Arizona con un impacto, pero no logro convencer
a la clase cientifica (en buena medida porque en
su articulo, en el que describia su afirmacion,
ridiculizaba las conclusiones de Gilbert). No fue
hasta la decada de 1950 cuando una nueva
generacion de geologos reconoce los origenes
cosmicos de lo que ahora se denomina el
<<<crater meteorico>>>.

Otra clave que apuntaba a un origen cosmico de


las catastrofes mundiales surgio en la decada de
1930 con el descubrimiento de los primeros

275
asteroides en orbitas que cruzaban la orbita
terrestre. Esto llevo al astronomo estadounidense
Harvey Nininger a apuntar que tales asteroides
podian impactar ocasionalmente en la Tierra, con
resultados catastroficos. En 1942 sugirio que
tales impactos podrian explicar las lagunas, de
otro modo desconcertantes, de los registros
fosiles, que apuntaban a extinciones masivas de
la vida ocurridas en varias ocasiones en los
ultimos cientos de millones de anos.

A mediados de la decada de 1950, algunos


cientificos sugirieron que un impacto meteorico
ocurrido hace 65 millones de anos podria haber
acabado con el reinado de 100 millones de anos
de las criaturas que mas exito tuvieron en la
tarea de mantenerse vivas sobre la Tierra: los
dinosaurios. Sin embargo, la idea, aunque
intrigante, seguia siendo especulativa y las
pruebas no eran concluyentes.

276
Este panorama cambio en 1980, cuando un
equipo de cientificos de la Universidad de
California en Berkeley desvelaron pruebas
suficientemente convincentes para acabar con
los 150 anos de reinado del uniformitarismo. El
equipo, dirigido por el fisico estadounidense Luis
Alvarez, ganador del Premio Nobel, habia
estudiado los registros fosiles de la extincion de
los dinosaurios. Encontraron que las muestras de
arcilla de epocas cercanas al momento del
acontecimiento contenian concentraciones muy
elevadas de iridio, un elemento relativamente
comun en los meteoros.

Las implicaciones de tales concentraciones altas


de iridio eran espectaculares; apuntaban al
impacto de un enorme meteoro de unos 5-10
kilometros de diametro. Tal acontecimiento
habria desencadenado una conflagracion mundial,
con humo y detritos ocultando la luz del sol
durante meses, causando el colapso de las

277
cadenas troficas. ?Podia explicar esto la
desaparicion de los dinosaurios26?

La mera sugerencia de una vuelta al


catastrofismo provoco una respuesta muy agria
por parte de muchos cientificos. Un eminente
cientifico de Berkeley especializado en la Tierra
ridiculizo las pruebas tachandolas de
<<<paparruchas>>>. Los criticos arguian que el
iridio podria haber procedido de inmensas
erupciones volcanicas que se sabia que habian
tenido lugar mas o menos en la misma epoca, y
apuntaban que los dinosaurios ya habian muerto
antes del supuesto <<<impacto>>>. Aun asi,
comenzaron a surgir otras pruebas que
apuntaban a una catastrofe natural ocurrida
hacia 65 millones de anos. En 1988, un equipo
internacional de cientificos revelo la existencia de
una capa de hollin justo encima de la capa de
iridio en muchos lugares del mundo,
aparentemente causada por un incendio. Otros

278
cientificos encontraron pruebas de un enorme
tsunami que se origino en el golfo de Mexico
hace unos 65 millones de anos.

El factor decisivo surgio en 1990, cuando


geofisicos estadounidenses revelaron la existencia
de una vasta estructura circular que estaba
enterrada en la costa de Mexico. El crater
Chicxulub, de 180 kilometros de diametro, tenia
el tamano adecuado y se encontraba en el lugar
adecuado para explicar todas las demas
anomalias, y tambien tenia 65 millones de anos.

Hoy en dia, frente a estas pruebas convincentes,


la mayoria de los cientificos aceptan que un
enorme meteoro impacto en la Tierra hace 65
millones de anos, desencadenando una
catastrofe mundial, y que esto podria ocurrir de
nuevo27. Aunque indudablemente los procesos
que dan uniformidad, como la erosion,
desempenan el principal papel en el modelado de

279
nuestro planeta, los acontecimientos
catastroficos tambien han tenido,
evidentemente, un efecto dramatico. Los
registros fosiles muestran pruebas de que se han
producido al menos cinco extinciones masivas de
la vida; la mayor tuvo lugar hace 250 millones de
anos, y en ella sucumbieron el 70% de los
animales terrestres y el 95% de la vida marina.

La reaparicion del catastrofismo como un


concepto cientificamente creible se subrayo de
forma espectacular en julio de 1994. El cometa
Shoemaker-Levy 9 impacto en Jupiter con mayor
violencia que la detonacion de todo el arsenal
nuclear mundial.

Muchos cientificos esperaban que este


acontecimiento alertaria a los gobiernos ante la
necesidad de tomar medidas para impedir que
los seres humanos sufran la misma suerte que
los dinosaurios. Sin embargo, hasta la fecha los

280
intentos de lidiar con la amenaza del
catastrofismo cosmico se han silenciado. Hasta
ahora, los proyectos como el Spaceguard Survey
de la NASA han identificado apenas la mitad de
los mil cien objetos de tipo NEO (<<<Near-Earth
Objects>>>, objetos cercanos a la Tierra) cuyo
impacto desencadenaria una catastrofe mundial.
Los planes para tomar medidas para lidiar con los
objetos que se encuentran en curso de colision
estan incluso menos establecidos.

Aproximadamente un cuarto de siglo despues de


que la comunidad cientifica se librara de la ilusion
reconfortante del uniformitarismo, parece que los
gobiernos aun tienen que darse cuenta de las
terribles implicaciones.

EL IMPACTO DE TUNGUSKA EN 1908

281
En la manana del 30 de junio de 1908, los
habitantes de una remota zona del noreste de
Siberia fueron testigos de primera linea del
terrorifico poder del catastrofismo. Un enorme
bolido detono, oyendose la explosion en un radio
de 800 kilometros. Los sismometros detectaron
reverberaciones que rodearon todo el planeta.

No fue hasta 1927 cuando los cientificos llegaron


finalmente al epicentro del suceso, al norte del rio
Tunguska. Encontraron una zona totalmente
devastada que abarcaba cientos de kilometros
cuadrados, con restos carbonizados de arboles
caidos como cerillas, todos apuntando hacia el
exterior desde el centro de la explosion.

Ahora se cree que la causa fue la desintegracion


en la atmosfera de un gran meteoro de 50
metros de diametro. Pese a su pequeno
tamano, la velocidad de entrada del meteoro, de

282
unos 100.000 kilometros por hora, garantizaba
que cuando se desintegrara la onda expansiva
resultante tendria la energia de una bomba de
hidrogeno de 15 megatones.

EN EL CATASTROFISMO NO TODO SON


MALAS NOTICIAS

Pese a su imagen apocaliptica, el catastrofismo


tiene indudablemente otra cara. De hecho, es
posible que debamos nuestra existencia al
desastre que azoto al planeta hace 65 millones
de anos y que supuso la muerte de los
dinosaurios. Su exterminio dio a los mamiferos —
que habian surgido aproximadamente en la
misma epoca que los dinosaurios— la
oportunidad de desarrollarse. En diez millones de

283
anos fueron la forma de vida dominante en el
planeta.

Investigaciones recientes sugieren que incluso los


dinosaurios tienen razones para estar
agradecidos al catastrofismo. En 2002, un equipo
internacional de cientificos publico pruebas que
indicaban que un cometa impacto en la Tierra
hace unos 200 millones de anos, exterminando a
mas del 50% de todas las especies terrestres.
Pero entre los supervivientes habia animales
semejantes a cocodrilos que aprovecharon la
oportunidad y evolucionaron para dar lugar a los
primeros dinosaurios.

Cronologia

1694 El astronomo sir Edmond Halley

284
advierte del efecto catastrofico de un
impacto de cometa, que desencadenaria
un diluvio de proporciones biblicas.

1795 El geologo escoces James Hutton


publica dos obras que establecieron las
bases del uniformitarismo, que hacia
hincapie en los cambios graduales y
sostenidos en geologia.

1812 El zoologo frances Georges Cuvier


presento argumentos a favor de la
existencia de varias extinciones
devastadoras de la vida en la historia de la
Tierra.

1830 La influyente obra Principios de


geologia, de Charles Lyell, inspirada en las
ideas uniformitaristas de Hutton, aleja la
corriente de pensamiento del
catastrofismo.

285
1906 El ingeniero de minas Daniel
Barringer publica pruebas de que el famoso
Meteor Crater de Arizona realmente se
creo tras el impacto de un meteoro y no
por la actividad volcanica.

1942 Harvey Nininger advierte del peligro


de los asteroides que impactan en la
Tierra, y afirma que pueden ser los
causantes de las extranas
<<<fracturas>>> en los estratos
geologicos.

1956 M. W. Laubenfels (Universidad del


Estado de Oregon) sugiere que un impacto
cosmico podria haber desencadenado la
extincion de los dinosaurios.

1980 Luis Alvarez y sus colaboradores


presentan pruebas que relacionan la
extincion de los dinosaurios, hace 65
millones de anos, con un impacto cosmico.

286
1990 Se identifica el crater Chicxulub, de
180 kilometros de diametro, situado en la
peninsula de Yucatan (Mexico), como el
punto mas probable del impacto que llevo
a los dinosaurios a la extincion.

1994 Los astronomos observan el cometa


Shoemaker-Levy 9 chocar con Jupiter con
terrible violencia.

2003 El catalogo del Spaceguard Survey


de la NASA incluye seiscientos cincuenta de
los mil cien objetos cercanos a la Tierra
mayores de un kilometro de diametro.

Citas

26

La idea de un unico impacto cosmico que

287
exterminara a los dinosaurios es
atractivamente simple, pero tambien casi
con seguridad simplista. En la epoca en la
que se extinguieron, hace unos 65 millones
de anos, ya llevaban en la copa del arbol
evolutivo 135 millones de anos, periodo
durante el cual es probable que hubieran
sufrido varias catastrofes mundiales,
como un cambio climatico, erupciones
volcanicas masivas e impactos cosmicos.
Por tanto, es posible que hubieran
necesitado un <<<golpe multiple>>> antes
de sucumbir. Existen pruebas de que en el
momento del impacto de Chicxulub estaba
teniendo lugar actividad volcanica
catastrofica, quiza como resultado de una
<<<pluma del manto>>> que se fundio a
traves de la corteza terrestre bajo lo que
es hoy en dia la India. Algunos expertos en
dinosaurios tambien han afirmado que
incluso diez millones de anos antes del

288
impacto los dinosaurios mostraban signos
de una perdida de la diversidad, lo que
sugiere que, en cualquier caso, estaban
muriendo de manera gradual. Sin
embargo, actualmente parece que esto se
ha basado en la interpretacion exagerada
de pruebas limitadas. Un analisis basado
en datos mundiales que publico en 2005
David Fastovsky (Universidad de Khode
Island) demostraba que, en el momento de
su extincion, la diversidad de los
dinosaurios era mayor que nunca.

27

Aunque la mayoria de los cientificos


aceptan que un impacto meteorico
contribuyo a la extincion de los
dinosaurios, sigue habiendo controversia
en torno al significado del crater Chicxulub.

289
En 2004, Gerta Keller, geocientifica de la
Universidad de Princeton, afirmaba que
habia encontrado pruebas de que el crater
se formo unos 300.000 anos antes de la
desaparicion de los dinosaurios, y que es
dificil conciliar sus caracteristicas
geologicas con la situacion de impacto
convencional. Segun Keller, las pruebas
reafirman la idea de que los impactos
solos no pueden haber destronado a los
dinosaurios de su privilegiada
posicion evolutiva.

290
11
Tectonica de placas

En pocas palabras

Durante siglos la gente ha observado que Suramerica


parecia encajar con Africa como dos piezas de un
rompecabezas. Pocos estaban dispuestos a ver esto como
algo mas que una coincidencia, hasta que el meteorologo
aleman Alfred Wegener mostro que las pruebas fosiles y
geologicas apuntaban a la misma conclusion: que en
tiempos todos los continentes formaron parte de un
inmenso <<<supercontinente>>>, al que denomino
Pangea, que se disgrego hace unos 200 millones de anos.
Por desgracia para Wegener, todas sus pruebas pueden
explicarse segun otras teorias aparentemente mas
plausibles. Peor aun fue que sus intentos de explicar las
fuerzas que impulsaban a los continentes eran claramente
incorrectos. En la decada de 1950, casi treinta anos
despues de su muerte, se obtuvieron en estudios de las
profundidades marinas pruebas que apoyaban la idea de la
deriva continental. Entre ellos habia estudios geologicos de
la dorsal mesoatlantica, situada bajo el centro del

291
Atlantico, que sugerian que la nueva roca emergio desde
las profundidades de la Tierra y separo a America y
Europa. Esto llevo al concepto de la tectonica de placas,
que explica las caracteristicas de la superficie terrestre a
traves de acontecimientos que tienen lugar en los limites
de gigantescas <<<placas>>> que flotan sobre el interior
fundido de la Tierra. Hoy en dia, los datos obtenidos
mediante satelite han demostrado que los continentes se
mueven realmente hasta 15 centimetros al ano, lo que
proporciona las pruebas definitivas que constantemente
eludieron a Wegener.

<<<Terra firma>>>: es proverbial nuestra


creencia en la naturaleza inalterable de la Tierra
sobre la que nos encontramos. Tambien es una
ilusion, como cada ano descubren miles de
personas cuando, para su horror, la Tierra se
levanta bajo sus plantas en medio de un
terremoto. Los que sobreviven hablan a menudo
del miedo primigenio que sienten al darse cuenta
de que la Tierra se mueve bajo sus pies.

Pese a toda nuestra sofisticacion, seguimos

292
teniendo una gran necesidad de creer que
vivimos en un planeta estable. Quiza esto explica
por que tantas personas se encontraron con
pruebas que apuntaban al movimiento de
continentes enteros a lo largo de la Tierra,
aunque se negaron a tomarlas en serio. En
1912, un profesor universitario aleman, Alfred
Wegener, decidio no ignorar mas aquellas claves
y presento pruebas claras de que los continentes
de la Tierra se mueven a lo largo de nuestro
planeta como plataformas de roca gigantescas.

Segun Wegener, todas ellas formaban parte de


un supercon-tinente gigante que se disgrego
hace cientos de millones de anos, y que han
estado en continuo movimiento desde entonces,
creando, al colisionar, vastas cadenas
montanosas. Hablando claro: las afirmaciones de
Wegener parecian fruto de la fantasia de algun
maniatico alocado. Sin embargo, las pruebas que
tenia para apoyar sus ideas eran impresionantes,

293
y resolvieron muchas cuestiones que hasta
entonces eran un misterio. Hoy en dia,
constituye la base de la tectonica de placas, una
de las joyas de la corona de la ciencia moderna
que abarca desde la formacion de los volcanes y
las causas de los terremotos hasta el origen de
las montanas. Sin embargo, en aquella epoca la
comunidad cientifica desecho de plano las
afirmaciones de Wegener. Resulta tentador
atribuir las luchas de Wegener a las actitudes de
estrechas miras de los academicos, molestos por
que se desafiara su autoridad. Las razones
reales son mas complejas y mas interesantes,
ya que destacan el hecho de que en ciencia no
siempre basta con estar en lo cierto.

Sin duda, las afirmaciones de Wegener no eran


nuevas. Ya en 1596, el cartografo flamenco
Abraham Ortelius apunto que Suramerica parecia
encajar con Africa como dos piezas de un
rompecabezas y sugirio que America habia sido

294
<<<arrancada de Europa y Africa […] por
terremotos y diluvios>>>. Otros, incluido el
erudito isabelino Francis Bacon, tambien lo
observaron, pero si tuvieron alguna idea sobre
sus origenes se la guardaron. Solo a mediados
del siglo XIX alguien tuvo el valor de tomarse en
serio la coincidencia. En 1858, el geografo
frances Antonio Snider-Pellegrini apunto otra
<<<coincidencia>>>: fosiles de las mismas
plantas aparecian a ambos lados del Atlantico; asi
lo hacian formaciones geologicas como los
depositos de carbon. Snider-Pellegrini llego a la
conclusion de que en tiempos America, Africa y
Europa habian estado unidas en un vasto
continente, y afirmo que la ruptura de este
continente podia explicar el diluvio biblico. En una
epoca en la cual los geologos se estaban
volviendo en contra de tales relatos
<<<catastroficos>>> de la historia de la Tierra,
esto era una afirmacion atrevida, y
practicamente estaba garantizado que se

295
extinguiria de inmediato.

Sin embargo, la idea basica de la deriva de los


continentes se negaba a morir. En 1908, el
geologo estadounidense Frank Taylor apunto que
las colisiones entre los continentes a la deriva
podian explicar el origen de los cinturones
montanosos como el Himalaya y los Alpes. Sin
embargo, para la mayoria de los geologos esta
era una respuesta a un problema ya resuelto por
la idea entonces popular de que la Tierra se
estaba reduciendo. Segun esto, la Tierra antes
fundida sigue enfriandose y su tamano continua
reduciendose. Como resultado, la superficie de la
Tierra se esta comprimiendo, arrugandose y
formando lo que constituyen cadenas
montanosas.

Alfred Wegener, profesor de meteorologia de


treinta y dos anos de la Universidad de Marburgo
(Alemania), se enfrento a esta teoria retomando

296
la idea de la deriva continental. Primero habia
observado en 1903, cuando aun era estudiante,
que los continentes encajaban como en un
rompecabezas, pero lo desestimo al considerar
que se trataba de una coincidencia. La situacion
cambio en 1911, cuando Wegener leyo acerca
de fosiles curiosamente similares hallados al otro
lado del Atlantico que habian intrigado a Snider-
Pellegrini.

La explicacion convencional era que se trataba


del resultado de vastos <<<puentes de
tierra>>> que habian salvado el oceano hace
millones de anos, al igual que en la actualidad
Centroamerica une Norteamerica y Suramerica.
Sin embargo, las similitudes en los registros
fosiles y geologicos se extendian mas alla de
Africa y America. Por ejemplo, un helecho fosil
llamado Glossopteris se habia encontrado en
ambos continentes, asi como en la India y
Australia. Ademas estaba la evidencia de que se

297
produjeron edades de hielo simultaneas en todas
estas regiones aproximadamente hace 290
millones de anos; de nuevo, era dificil entender
esto a no ser que todos ellos hubieran estado
unidos anteriormente. Wegener penso que la
explicacion mas simple era que todos los
continentes habian formado alguna vez parte de
un superconti-nente, al que denomino Pangea
(en griego, <<<toda la Tierra>>>), que se
dividio hace unos 200 millones de anos.

En enero de 1912, Wegener dio su primera


conferencia sobre esta teoria de la deriva
continental; al igual que sus predecesores,
suscito poco interes. En 1915 publico una
pequena obra titulada El origen de los continentes
y los oceanos, con la que esperaba atraer el
interes de los especialistas en las ciencias de la
Tierra. Fue publicado en aleman, y tampoco
consiguio suscitar mucho interes. Para los
geologos profesionales, Wegener era un arribista

298
que afirmaba resolver problemas que ellos ya
habian solucionado, pero usando una idea que
planteaba igualmente muchas cuestiones
nuevas. ?Como pueden los continentes
simplemente ir a la deriva alrededor del mundo? ?
Como se impulsan?

Wegener era consciente de los problemas a los


que se enfrentaba su teoria, y durante el
siguiente decenio publico versiones revisadas que
los trataban. El principal problema era la
necesidad de explicar las fuerzas propulsoras de
la deriva continental. Wegener sostenia que los
continentes eran amplias zonas de sial —un
material similar al granito— que flotaban sobre un
material mas denso pero mas blando, el sima,
que constituia el fondo oceanico.

Para explicar las fuerzas impulsoras de la deriva


continental, Wegener recurrio a sus
conocimientos meteorologicos y sugirio que se

299
deberian a la rotacion de la Tierra: una fuerza
conductora clave de los sistemas meteorologicos.
Se sabia que la llamada fuerza Eotvos era capaz
de conducir el aire hacia el oeste y hacia el lado
opuesto a los polos. Wegener afirmaba que la
misma fuerza que <<<huye de los polos>>>
podria propulsar a los continentes, junto con un
tipo de efecto de marea similar al que afectaba a
los oceanos.

Sin embargo, lejos de impresionar a la comunidad


de geofisicos, sus intentos de explicar la deriva
continental simplemente les dio objetivos mas
claros a los que apuntar. Los estudios del fondo
oceanico probaron que no era ni remotamente
tan blando como el sima, mientras que calculos
detallados demostraron que las fuerzas
propuestas eran demasiado debiles para impulsar
los continentes. Por el contrario, la teoria de la
Tierra menguante no tenia ningun problema para
generar suficiente fuerza para la creacion de las

300
montanas.

En 1929, cuando termino la cuarta edicion de su


libro, Wegener reconocio que aun no habia
logrado un argumento solido. Seria su ultima
declaracion sobre el asunto. Al ano siguiente,
partio de expedicion a Groenlandia y nunca
regreso. En la epoca de su muerte, la deriva
continental estaba lejos de ser aceptada como
antano, ya que los academicos la desechaban,
calificandola de <<<muy peligrosa>>> o una
<<<autentica paparrucha>>>. Sin embargo, la
obra de Wegener tenia algunos partidarios,
incluido el distinguido geologo britanico Arthur
Holmes, que en diciembre de 1927 establecio el
germen de lo que llegaria a ser la autentica
explicacion de la deriva continental. Holmes era
un experto en radioactividad, que luego surgio
como un fenomeno clave en geofisica. Los
cientificos habian observado que el uranio y otros
elementos atrapados en la Tierra mantenian su

301
interior caliente. Esta era una mala noticia para la
teoria de la Tierra menguante, ya que implicaba
que la Tierra ni se estaba enfriando ni estaba
menguando. Por el contrario, posiblemente era
una buena noticia para la deriva continental, ya
que el calor podria generar amplias corrientes de
roca fundida dentro de la Tierra, capaces de
mover continentes enteros.

Sin embargo, era algo que seguia superando a la


mayoria de los geologos, y con la muerte de
Wegener su teoria cayo de nuevo en la
oscuridad academica. Su triunfante
restablecimiento se produjo tras los
descubrimientos que se hicieron sobre la unica
parte de la Tierra que ni Wegener ni ninguno de
sus contemporaneos realmente comprendieron:
el fondo oceanico.

Durante la decada de 1950, los estudios de la


dorsal meso-atlantica —la vasta cadena de

302
montanas sumergidas que se encuentran bajo el
centro del oceano— revelaron estructuras en
forma de V que se asemejaban de modo
sospechoso a una hendidura entre dos grandes
placas28. Los estudios del lecho marino tambien
revelaron que era mucho mas joven que lo que
se podria pensar: solo unos 200 millones de
anos, curiosamente una antiguedad similar a la
fecha en la que tal vez se habria dividido el
<<<supercontinente>>> de Wegener.

En 1960, el geologo estadounidense Harry Hess


(Universidad de Princeton) conecto estas pistas
con la antigua idea de Holmes sobre la
conveccion dentro de la Tierra. El resultado fue la
teoria de la <<<expansion del fondo
marino>>>, segun la cual surgio una nueva
corteza en la dorsal mesoatlantica a partir de
corrientes de roca fundida y, hundiendose luego
de nuevo en las hendiduras. A diferencia de la
idea de Wegener del deslizamiento de los

303
continentes sobre el fondo oceanico, la teoria de
Hess sostenia que el nuevo material que estaba
siendo arrojado en las dorsales oceanicas era lo
que las empujaba separandolas.

Pronto surgieron datos que apoyaron la idea de


Hess. Las determinaciones del campo magnetico
del fondo del Pacifico revelaron un extrano patron
de franjas alternas de material magnetizado de
forma normal e inversa. Los geologos ya sabian
que los polos magneticos de la Tierra a veces se
invertian y que la roca caliente conserva un
registro del campo magnetico de la Tierra a
medida que se enfria. En 1963, Drummond
Matthews y su alumno Fred Vine (Universidad de
Cambridge) apuntaron que el patron listado era
coherente con la presencia de rocas calientes
nuevas que surgieron continuamente desde el
interior de la

Tierra durante 200 millones de anos; justo lo que

304
exigia la teoria de Hess.

A finales de la decada de 1960 se hacia dificil


rechazar las pruebas de la deriva continental. Los
geologos comenzaron a tomar en serio las
implicaciones de la <<<tectonica de placas>>>,
los procesos que tienen lugar en las zonas donde
se encuentran dos placas. Encontraron que la
teoria les permitia dar sentido a muchas
caracteristicas de nuestro planeta. Una colision
titanica entre India y la placa asiatica hace unos
45 millones de anos explicaba el origen del
Himalaya, mientras que la pletora de volcanes
alrededor de la costa del Pacifico —el
denominado <<<anillo de fuego>>>— daba fe
de las fuerzas destructivas que actuan en el
borde de la placa del Pacifico. Las zonas con gran
riesgo de sufrir terremotos, como la falla de San
Andres (California), demostraron ser regiones en
las que dos placas se deslizan una contra otra.

305
Hoy en dia, las pruebas de la deriva de los
continentes estan fuera de toda duda. Se sabe
que la superficie de la Tierra comprende diez
placas principales y catorce placas mas
pequenas, cuyo espesor oscila entre 50
kilometros bajo los oceanos y 250 kilometros
debajo de los continentes. Enviando rayos laser
desde los satelites orbitales hacia la Tierra, los
cientificos tambien han comprobado que las
placas se mueven hasta 15 centimetros al ano;
Norteamerica y Europa actualmente se separan
unos dos centimetros por ano29. Sin embargo,
incluso hoy en dia siguen existiendo algunos
misterios. ?Que creo el patron de placas que en
la actualidad cubre la Tierra? ?Que desencadeno
la ruptura de Pangea? Ni siquiera esta
suficientemente clara la naturaleza de las fuerzas
que impulsan las placas —el problema que frustro
a Wegener—. Las ideas actuales sugieren que el
hundimiento de las viejas placas es la principal
fuerza propulsora, aunque esto es todavia

306
motivo de deliberacion.

Lo que esta claro es que los criticos de Wegener


no eran simplemente intransigentes
reaccionarios. Sus criticas eran en gran medida
perfectamente razonables, y las respuestas de
Wegener con frecuencia no eran satisfactorias.
En ultima instancia, su mayor fallo radicaba en
algo respecto a lo que no podia hacer nada:
simplemente se habia adelantado demasiado a
su epoca.

EL REACTOR NUCLEAR QUE Y ACE BAJO


NOSOTROS

Desde hace mucho tiempo los mineros saben


que la temperatura aumenta cuanto mas

307
profundo se excava en la Tierra; sin embargo, la
fuente de ese calor —la radioactividad— se
identifico hace apenas un siglo. Los isotopos
naturales de uranio, torio y potasio atrapados en
el interior de la Tierra durante su formacion han
convertido a nuestro planeta en una suerte de
hirviente reactor nuclear. La corteza actua como
un <<<vaso de contencion>>>, aunque
bastante ineficaz: cada ano decenas de miles de
personas mueren por la <<<contaminacion>>>
radioactiva que se filtra y sale de la Tierra en
forma del cancerigeno gas radon.

EL MISTERIO DE LAS INVERSIONES


MAGNETICAS DE LA TIERRA

Pese a su valor en el debate sobre la tectonica

308
de placas, las inversiones del campo magnetico
de la Tierra siguen siendo un misterio, en buena
medida debido a su cronologia erratica. La ultima
inversion tuvo lugar aproximadamente hace
775.000 anos, pero los intervalos entre las
inversiones pueden ir desde 40.000 hasta un
millon de anos. Usando su-percomputadoras
para realizar simulaciones de las condiciones del
interior de la Tierra, los geofisicos han encontrado
pruebas de que las inversiones son el resultado
de interacciones complejas entre los campos
magneticos del nucleo externo liquido y el nucleo
interno solido. Este ultimo actua como
estabilizador, pero de vez en cuando se
desvanece, permitiendo que el campo del nucleo
externo se invierta.

Cronologia

309
1596 El cartografo holandes Abraham
Ortelius observa que las costas de Africa y
America encajan.

1620 Sir Francis Bacon senala de nuevo la


curiosa concordancia entre los continentes.

1858 El geografo frances Antonio Snider-


Pellegrini hace un mapa del
<<<supercontinente>>> formado por
America y Africa cuando estaban unidas.

1908 El geologo estadounidense Frank


Taylor sugiere que las grandes cadenas
montanosas, como los Alpes, son el
resultado de colisiones continentales.

1912 El meteorologo aleman Alfred


Wegener da las primeras conferencias
sobre su teoria de la deriva continental.

1915 Wegener publica El origen de los

310
continentes y los oceanos, obra en la que
expone su teoria a grandes rasgos; la
edicion inglesa (1922) suscita criticas
adversas.

1927 El geologo britanico Arthur Holmes


da una conferencia en la que apunta al
calentamiento radioactivo como fuerza
propulsora de la deriva continental.

1930 Wegener muere, a la edad de


cincuenta anos, en una expedicion a
Groenlandia.

Decada de los 50 Los estudios del fondo


oceanico atlantico revelan caracteristicas
que sugieren que se ha producido una
expansion del fondo marino.

1960 Harry Hess (Universidad de


Princeton) presenta el concepto de la
expansion del fondo marino.

311
1963 Drummond Matthews y sus
colaboradores publican pruebas de la
expansion del fondo marino.

Decada de 1990 La telemetria laser y el


GPS prueban que los continentes se
mueven a una velocidad de 15 centimetros
por ano.

Citas

28

Hoy en dia todavia es motivo de polemica


entre los geofisicos el momento en que
comenzo exactamente la tectonica de
placas en la Tierra. Se ha calculado que el
material del antiguo fondo marino que
contenia los signos del procesamiento
tectonico tiene unos 1.900 millones de

312
anos de antiguedad. En el ano 2000,
Timothy Kusky (Universidad de St. Louis)
identifico rocas cerca de la gran muralla
china que parecian tener mas de 500
millones de anos de antiguedad. De ser
asi, esto colocaria los origenes de la
tectonica de placas, como mucho, 2.000
millones de anos despues de la formacion
de la Tierra.

29

La tectonica de placas aun esta


modificando la apariencia de nuestro
planeta. Los calculos realizados por el
profesor Christopher Scotese y sus
colaboradores de la Universidad de Texas
indican que dentro de unos 50 millones de
anos el mar Mediterraneo habra
desaparecido, Africa habra aplastado la
masa continental de Europa y habra

313
cerrado el estrecho que las separa. Unos
250 millones de anos a partir de entonces,
America y Eurasia habran completado un
movimiento de tenazas que atrapara a
Africa entre ellas, formando un enorme
<<<supercontinente>>> al que Scotese
ha denominado Pangea Ultima (vease
www.scotese.com).

314
MATEMATICAS
QUE CUENTAN

315
12
El Teorema de Bayes

En pocas palabras

Si queremos probar una creencia o una teoria,


necesitamos evidencias, aunque no todas sean igualmente
convincentes. Por ejemplo, si un farmaco cura al 80% de
los pacientes esto constituye una prueba mucho mas
contundente que si solo curara al 60%; pero ?cuanto mas
convincente? La respuesta procede de un metodo
matematico concebido hace mas de 200 anos por Thomas
Bayes, clerigo y matematico ingles. Conocido como el
Teorema de Bayes, muestra como actualizar nuestras
creencias en funcion de nuevas pruebas. Incluso en
ausencia de cualquier investigacion anterior, esta
<<<creencia previa>>> puede ser algo mas que una
suposicion. Esto hizo que el Teorema de Bayes fuera
tachado de ser completamente subjetivo y acientifico y,
hasta la decada de 1980, los cientificos practicamente lo
habian abandonado. Desde entonces los estadisticos han
encontrado la forma de resolver los problemas de las
pruebas previas, y en la actualidad el Teorema de Bayes

316
se considera cada vez con mayor frecuencia como la forma
mas fiable de obtener informacion de un cumulo de datos
complejos.

Los investigadores medicos anuncian un gran


avance en el tratamiento de los infartos de
miocardio, afirmando que reduce a la mitad las
tasas de mortalidad. Un cientifico forense dice
ante un jurado que las pruebas del ADN apuntan
a la culpabilidad del acusado con una probabilidad
de varios millones contra uno. El parte
meteorologico indica que hara un buen fin de
semana.

Todos los dias nos bombardean con afirmaciones


y contraafirmaciones, todas ellas basadas,
aparentemente, en las ultimas pruebas
cientificas. Es evidente que muchas de ellas son
erroneas; pero ?cuales? Unas parecen muy
plausibles mientras que otras hacen caso omiso
de la experiencia pasada. Es raro que los nuevos

317
tratamientos medicos reduzcan a la mitad las
tasas de mortalidad, de modo que hay que
considerar cualquiera de tales afirmaciones con
recelo. Por otro lado, los partes meteorologicos
se han hecho mas fiables, de modo que quiza
podemos planificar el fin de semana.

?Como podemos tener en cuenta algo tan vago


como la plau-sibilidad a la hora de tomar
decisiones? De hecho, ?debemos hacerlo? ?
Hemos de permitir que influya en nuestras
decisiones? En una sociedad que cada vez se ve
mas forzada a hacer juicios basandose en las
pruebas cientificas, nunca han sido mas
importantes tales cuestiones.

De manera sorprendente, la clave para


responder a estas preguntas se conocia desde
hace mas de 200 anos, pero durante decenios
habia estado rodeada de polemica. Algunos aun
la consideran como heretica desde el punto de

318
vista cientifico, incluso como peligrosa. Sin
embargo, sobre el papel parece suficientemente
inocua: una receta matematica para convertir las
pruebas en conocimiento. Se conoce como
Teorema de Bayes y, tras anos de marginacion
cientifica, ahora se considera que es la forma
mas fiable de entender las pruebas. Desde los
cientificos a los miembros de un jurado, desde
los descifradores de codigos a los consumidores,
todo el mundo saca provecho de su potencia.

Sus origenes no dejan traslucir su extraordinario


potencial. En 1763, la prestigiosa Royal Society
publico un articulo de cuarenta y nueve paginas
titulado <<<Ensayo sobre la resolucion de un
problema en la doctrina del azar>>>. Su autor
era Thomas Bayes, un clerigo ingles que habia
muerto dos anos antes. El articulo establecia un
intento de resolver una cuestion fundamental en
el campo de la ciencia: entender la repercusion
de las nuevas pruebas sobre la probabilidad de

319
que una teoria sea correcta.

Por ejemplo, imaginese que sospecha que un


arbitro de futbol esta usando una moneda que
tiende a caer de cara. Para descubrirlo, echa la
moneda al aire cien veces y noventa y cinco de
ellas sale cara. Si la moneda estuviera
equilibrada, seria de esperar que
aproximadamente cincuenta veces saliera cara,
de modo que resulta evidente que existen ciertas
pruebas que apoyan su teoria; la cuestion es
hasta que punto son contundentes los
resultados. En la epoca de Bayes, los
matematicos solo podian responder a una
cuestion menos interesante: ?cual es la
probabilidad de obtener tantas veces cara,
suponiendo que la moneda este perfectamente
equilibrada? Pero esa no es la cuestion:
queremos saber si el hecho de que salga
noventa y cinco veces cara implica que la
moneda esta realmente equilibrada.

320
Bayes demostro que era posible responder tales
cuestiones usando una tecnica que ahora se
conoce como Teorema de Bayes. Sencillamente,
demuestra que la probabilidad de que una teoria
sea verdadera, en funcion de las pruebas,
depende de dos factores. El primero mide la
<<<solidez>>> de la prueba y compara la
probabilidad relativa de obtener tal prueba si la
teoria fuera verdadera y si fuera falsa. Como es
previsible, cuanto mayor es la denominada razon
de verosimilitudes, mas contundente es la solidez
de la prueba. Sin embargo, existe un segundo
factor, que hizo que el Teorema de Bayes fuera
muy polemico. Se trata de la denominada
probabilidad previa, esto es, la probabilidad de
que la teoria sea verdadera, antes de obtener los
datos. Aparentemente, esto parece extrano:
dado que el unico proposito de obtener datos es
saber si la teoria es cierta, ?en que pruebas debe
basarse esta probabilidad <<<previa>>>? El
propio Bayes intento abordar este problema

321
arguyendo que, de no existir ninguna prueba, la
probabilidad previa puede ser cualquiera entre
cero y uno. Sin embargo, no pudo resolver los
calculos resultantes, lo cual puede explicar por
que sus resultados no se publicaron hasta
despues de su muerte, en 1761.

Una decada despues, el gran matematico


frances Pierre-Simon Laplace retomo el problema,
lo resolvio y formulo el Teorema de Bayes en su
forma moderna. Luego lo aplico a problemas
reales, como la afirmacion de que en Paris nacian
mas ninos que ninas. Laplace utilizo las
estadisticas de los nacimientos y el Teorema de
Bayes para confirmar estas sospechas.
Respaldado por la autoridad de Laplace, el
Teorema de Bayes se convirtio en la forma
habitual de evaluar las pruebas cientificas hasta
principios del siglo XX, cuando algunos
estadisticos destacados comenzaron a cuestionar
los <<<metodos bayesianos>>>. Sus dudas se

322
centraban en la antigua cuestion de establecer
las probabilidades previas, lo que parecia permitir
que cualquiera llegara a cualquier conclusion a
partir de los mismos datos. Por ejemplo, los
escepticos respecto a un nuevo tratamiento
medico obtendrian una probabilidad previa de
exito muy inferior a la que alcanzarian los
partidarios de dicho tratamiento, haciendo
instantaneamente que pruebas en apariencia
convincentes resultaran meramente indicativas.

Esto olia a anarquia cientifica y, en la decada de


1920, algunos estadisticos intentaron desarrollar
maneras enteramente objetivas de probar las
teorias que eliminaban la necesidad de las
probabilidades previas. En realidad, estas tecnicas
lo unico que hacian era enmascarar la cuestion,
creando una ilusion de objetividad. Sin embargo,
pese a los intentos de algunos estadisticos
importantes de senalar esto, los nuevos metodos
<<<frecuentistas>>> pronto se convirtieron en

323
la forma habitual de evaluar las pruebas
cientificas.

Desde la decada de 1930 en adelante, los


metodos bayesianos cayeron en desuso, y
fueron tachados de totalmente subjetivos y
acientificos. Sin embargo, unos cuantos
defensores acerrimos mantuvieron viva la llama.
Entre ellos se encontraba Alan Turing, el brillante
matematico de Cambridge que dirigio el trabajo
de desciframiento de los codigos del enigma nazi.
En Bletchley Park30. Turing y su colega Jack
Good utilizaron metodos bayesianos para
descubrir el texto aleman mas probable
correspondiente al codigo interceptado. El
Teorema de Bayes ayudo secretamente a ganar
la guerra, aunque se critico a los cientificos por
usarlo en su investigacion.

El auge de la investigacion cientifica de posguerra


vio como los metodos frecuentistas se convertian

324
en algo casi obligado. Otros cientificos solo
tomaban en serio las afirmaciones de las nuevas
teorias si las pruebas llegaban a tener
<<<significacion estadistica>>>. Para ello, los
datos tenian que someterse a formulas fre-
cuentistas y debian comprobarse para ver si el
denominado valor P estaba entre 1 y 20.

Muchos cientificos creian que este valor P era la


probabilidad de que sus resultados no fueran
nada mas que mera casualidad, de modo que
cuanto menor fuera el valor P mayor
contundencia tenia la prueba. Lo que no sabian
era que los estadisticos frecuentistas,
desesperados para evitar el uso del Teorema de
Bayes, habian intentado encontrar una forma
objetiva de probar teorias, pero habian fracasado
en el intento. En su lugar, plantearon la idea del
valor P, que no era mejor que las viejas formulas
para calcular la probabilidad de obtener los datos,
en la presuncion de que realmente no son mas

325
que mera casualidad. Por el contrario, los
cientificos pensaban que mediante el valor P se
podia probar objetivamente si una teoria era
correcta o no.

No era asi, y desde la decada de 1960 en


adelante los principales estadisticos intentaron
advertir a los cientificos de los peligros de
malinterpretar los valores P, aunque no lo
lograron. Para la mayoria de los cientificos, los
valores P parecian ser objetivos y faciles de
utilizar y, lo que es mas importante, las
principales revistas exigian los valores P como
prueba de que merecia la pena publicar los
resultados31.

Durante anos, los metodos bayesianos fueron


practicamente ignorados por los cientificos. Pero
en la decada de 1980 se produjeron avances
que reavivaron su uso. En primer lugar, la
creciente disponibilidad de ordenadores implicaba

326
que cualquiera podia llevar a cabo los antano
complejos calculos necesarios para utilizar los
metodos de Bayes. En segundo lugar, todos,
desde los cientificos hasta los gerentes de
supermercados, se encontraban cada vez mas
inundados por datos, y necesitaban contar con
medios para transformarlos en conocimientos,
por ejemplo, sobre las razones de que funcionen
los farmacos o de que se venda un producto. El
Teorema de Bayes brindo la capacidad de
convertir meros presentimientos en conclusiones
solidas, y permitio actualizarlas constantemente a
medida que se obtenian nuevas pruebas, cosa
que a duras penas lograban los metodos
frecuentistas.

Por ejemplo, en 1992, investigadores medicos de


Escocia fueron noticia por un tratamiento basado
en un farmaco trombo-litico que reducia
alrededor un 50% las muertes de los pacientes
que sufrian un infarto del miocardio. Al menos,

327
eso era lo que parecian demostrar los metodos
frecuentistas. Muchos expertos eran escepticos
respecto a una tasa de exito tan impresionante.
Hacia caso omiso de experiencias mucho mas
amargas, pero parecia que no habia manera de
tener en cuenta esta carencia de plausibilidad.

Poco despues de que se publicara la


investigacion, dos estadisticos medicos, David
Spiegelhalter (Medical Research Council) y Stuart
Pocock (London School of Hygiene) utilizaron el
Teorema de Bayes para combinar los datos de
los medicos escoceses con pruebas previas
basadas en investigaciones anteriores. Llegaron a
la conclusion de que era probable que el efecto
real fuera solo la mitad de lo que se afirmaba. ?
Quien estaba en lo cierto? Ocho anos mas tarde,
en el ano 2000, un equipo de investigadores
estadounidenses revisaron todas las pruebas de
muchos mas estudios del mismo tratamiento
trombolitico, y llegaron a la conclusion de que, de

328
hecho, era la mitad de eficaz de lo que se habia
afirmado en el primer estudio. La idea
supuestamente <<<peligrosa>>> de utilizar las
pruebas previas habia permitido que el Teorema
de Bayes alertara a los medicos del hecho de
que el tratamiento no era la cura milagrosa que
parecia ser32.

En la decada de 1990, el Teorema de Bayes


comenzo a ser noticia en otro campo: el
Derecho. Dado su poder para combinar
diferentes fuentes de pruebas, tenia usos obvios
en los juicios ante un jurado, y los abogados
comenzaron a usar a expertos en el Teorema de
Bayes como testigos de la defensa. La mayoria
de los casos se centraron en las pruebas de
ADN: los sospechosos eran acusados de
crimenes graves basandose en las similitudes
entre su ADN y las trazas encontradas en la
escena del crimen. A finales de la decada de
1980, los jurados escuchaban sistematicamente

329
que la probabilidad en contra de obtener tal ADN
similar de alguien escogido al azar era de millones
frente a uno. Pero algunos cientificos forenses
fueron mas lejos, diciendo a los jurados que esta
minima probabilidad tambien era la probabilidad
de que el acusado fuera inocente. El Teorema de
Bayes muestra que esto no es cierto: solo se
puede calcular la probabilidad en contra de la
inocencia cuando se han tenido en cuenta el
resto de pruebas, y los abogados defensores
demostraron que existiendo alguna otra prueba,
ni siquiera las concordancias de ADN son
suficientemente convincentes para condenar a
alguien. Desde mediados de la decada de 1990,
el Teorema de Bayes ha desempenado una
funcion fundamental en varias apelaciones contra
condenas, con resultados favorables.

Hoy en dia hay signos claros de que el Teorema


de Bayes esta alcanzando una posicion
prominente en el campo de la ciencia. En el

330
ultimo decenio, el numero de articulos cientificos
en los que se utilizaron metodos bayesianos se
ha decuplicado, y los investigadores lo utilizan
para probar teorias en campos diversos, desde la
fisica a la farmacologia.

Sin embargo, el valor del Teorema de Bayes se


esta reconociendo mas alla del campo
academico. Importantes corporaciones se basan
actualmente en este teorema para obtener
informacion de sus propios datos de ventas y
marketing, lo que les permite, por ejemplo,
orientar los envios postales de forma mucho mas
precisa y reduciendo en gran medida el correo
basura. Muchas multinacionales usan un
programa informatico de gestion de datos de
inspiracion bayesiana creado por Autonomy, una
de las empresas de alta tecnologia mas exitosas
del final de la decada de 1990, cuyo fundador,
Michael Lynch, fue la primera persona con una
fortuna que rondaba los mil millones de dolares.

331
Tras decenios de capa caida, parece que por fin
se reconoce el poder de la revelacion matematica
de Bayes.

LA FORMULA MAGICA DEL REVERENDO


BAY ES

El Teorema de Bayes puede formularse de


varias maneras, pero la mas simple es la
denominada <<<razon de posibilidades>>>, en
la que el grado de creencia en una teoria
particular se obtiene mediante la probabilidad de
que sea cierta. En este caso, el Teorema de
Bayes establece que cuando surge una nueva
prueba (E), las posibilidades originales
(<<<previas>>>) de que la teoria sea correcta
—posibilidad (T)— se transforman en un nuevo

332
valor de posibilidad (T dado E), segun la formula

Posibilidad (T dado E) = Posibilidad (T) X LR

donde LR es la denominada razon de


verosimilitudes, dada por la probabilidad de que
surja E si T es verdadera, dividida por la
probabilidad de que surja E si T no es verdadera.
Por ejemplo, si la prueba E es tan probable que
surja tanto cuando T es verdadera como cuando
es falsa, la LR es 1, y esta nueva prueba de
hecho no supone ninguna diferencia en lo que
respecta a la solidez del argumento de la teoria
T.

LA ILUSION DE OBJETIVIDAD

Los metodos bayesianos son criticados

333
sistematicamente por introducir un elemento
<<<subjetivo>>> en el proceso de obtencion
de informacion de las pruebas. Los criticos
arguyen que si no existe ninguna investigacion
anterior, la denominada <<<probabilidad
previa>>> exigida por el Teorema de Bayes
puede acabar basandose en poco mas que la
intuicion y en conjeturas con cierta base. Sin
embargo, los partidarios de los metodos
bayesianos apuntan que esto es precisamente lo
que ocurre en la vida real en cualquier caso; el
Teorema de Bayes solo hace que este proceso,
de otra forma vago, sea explicito y cuantitativo.
Ademas, aunque es posible que a muchos
cientificos no les agrade la presencia de
subjetividad en lo que hacen, eso no altera el
hecho de que es realmente ineludible. En 1926, el
matematico Frank Ramsey (Universidad de
Cambridge) publico el denominado teorema del
libro de apuestas holandes, que demuestra que
la evaluacion racional de las pruebas

334
inevitablemente implica el uso del Teorema de
Bayes y las creencias previas, que a menudo
pueden ser totalmente subjetivas.

Cronologia

1763 Primera aparicion del Teorema de


Bayes, en un articulo publicado dos anos
despues de la muerte de su autor,
Thomas Bayes.

1774 El matematico frances Pierre-Simon


Laplace dio al Teorema de Bayes su forma
moderna.

1922 El matematico britanico Ronald


Fisher presenta metodos supuestamente
objetivos para probar teorias cientificas,

335
conocidos como <<<pruebas de
significacion>>>.

1926 El matematico Frank Ramsey


(Universidad de Cambridge) publica el
teorema del libro de apuestas holandes,
que demuestra que las creencias racionales
siguen las leyes de la probabilidad.

1928 Los estadisticos Jerzy Neyman


(Rumania) y Egon Pearson (Reino Unido)
presentan metodos <<<frecuentistas>>>
para el analisis de hipotesis.

1939 Los destacados estadisticos Harold


Jeffreys (Universidad de Cambridge) y
Carrodo Gini (Italia) critican los metodos de
Fisher-Neyman-Pearson.

1940 En Bletchley Park, Alan Turing usa


metodos bayesianos para descifrar los
codigos de la maquina nazi Enigma.

336
Decada de 1950 Los metodos
bayesianos pierden popularidad entre los
cientificos, ya que los editores de revistas
exigen el uso de pruebas de hipotesis y
pruebas de significacion objetivas.

Decada de 1960 Advertencias sobre los


peligros del resurgimiento de los metodos
frecuentistas.

Decada de 1980 La creciente potencia de


los ordenadores comienza a reactivar los
metodos bayesianos; empiezan a
escucharse criticas de los metodos
frecuentistas.

1992 Los temores respecto a la


interpretacion de las pruebas de ADN llevan
a utilizar el Teorema de Bayes en los
juicios ante un jurado.

1990 Gran resurgimiento de los metodos

337
bayesianos, que hasta la ahora se utilizan
ampliamente en ambitos que van fecha
desde la investigacion medica hasta el
analisis de ventas.

Citas

30

Bletchley Park es el nombre de la


instalacion militar localizada en Inglaterra
en la que se descifraron los codigos
alemanes durante la Segunda Guerra
Mundial. Su nombre lo debe a la mansion
victoriana donde se encontraba. Alli fue
disenada y construida la primera
computadora Colossus que permitio
descifrar los codigos de Enigma, la
maquina encriptadora nazi. (N. del E.)

31
338
31

Los valores P tambien han ayudado a que


muchos autenticos disparates hayan
calado en las publicaciones cientificas, a
traves de su tendencia a exagerar la
<<<significacion>>> de resultados
casuales sin sentido. El uso de los valores P
ha demostrado ser especialmente valioso
para aquellos que buscan el apoyo
cientifico de ideas excentricas como la
existencia de biorritmos y la eficacia de
desear que haga buen tiempo. Uno de los
ejemplos mas singulares se centra en un
estudio publicado en 2001 por Leonard
Leibovici (Rabin Medical Centre, Israel),
que pretendia demostrar la eficacia de la
<<<oracion retroactiva>>>. Algunas
investigaciones anteriores habian insinuado
que se podia beneficiar a los pacientes
rezando por ellos. Segun el estudio del
profesor Leibovici, publicado en el British

339
Medical Journal, las oraciones incluso
ayudaron a los pacientes que ya se habian
recuperado. Los resultados, cuya supuesta
significacion se demostro utilizando valores
P, suscito la peticion de una revision
completa de las nociones del espacio y el
tiempo. Sin embargo, para los estadisticos
los resultados eran solo otra prueba de los
peligros de malinterpretar los valores P.
Existe una creciente preocupacion sobre el
uso de los valores P para respaldar
afirmaciones inadmisibles. En 2004, un
equipo del National Cancer Institute
estadounidense (Bethesda, Maryland)
advertia: <<<Demasiados articulos sobre
la asociacion entre las variantes geneticas
y los sitios comunes con cancer y otras
enfermedades complejas son falsamente
positivos>>>. Anadia que <<<una razon
importante de esta desafortunada situacion
es la estrategia de declarar la significacion

340
estadistica basandose solo en el valor
P>>>. Mas tarde, en el mismo ano, los
editores de la revista Nature Medicine y sus
publicaciones hermanas —las revistas
cientificas mas prestigiosas del mundo—
anunciaron medidas energicas contra las
tecnicas estadisticas descuidadas. Sin
embargo, hasta ahora no hay signos de
que sean capaces de abandonar su
adiccion a los valores P.

32

Es raro que pase una semana sin que


algun nuevo estudio medico sea noticia al
indicar alguna supuesta relacion entre la
salud y, por ejemplo, el uso de los
telefonos moviles o el consumo de cafe.
Merece la pena tomarse en serio algunas
de estas afirmaciones, pero muchas otras
no; por supuesto, el problema es

341
distinguirlas. El Teorema de Bayes puede
utilizarse para evaluar la credibilidad
inherente de una afirmacion medica,
teniendo en cuenta tanto la solidez de los
nuevos descubrimientos como los
conocimientos previos sobre tal relacion.
Dicho <<<analisis de la credibilidad>>>
puede ayudar a identificar cuales estudios
merece la pena tomar en serio y cuales
son probablemente ilusorios. Se puede
encontrar una calculadora en linea para
evaluar los resultados de estudios medicos
en http://tinyurl.com/6ubfo

342
13
Caos

En pocas palabras

El mundo que nos rodea parece mostrar dos tipos de


fenomenos: los regulares y los aleatorios. Sin embargo,
desde la decada de 1960, los cientificos fueron
conscientes de un tercer tipo, extremadamente
importante: los fenomenos caoticos, cuyo
comportamiento, en apariencia aleatorio, es en realidad
muy complejo y puede predecirse, al menos en cierto
grado.

El ejemplo clasico es el tiempo, que no es ni aleatorio ni


regular y cuyas caracteristicas futuras pueden predecirse
hasta cierto momento del futuro. El grado de caos que
este presente en la atmosfera influye en la antelacion con
que puede predecirse el tiempo. Las estimaciones basadas
en modelos informaticos de factores complejos implicados
en la configuracion del tiempo sugieren que las previsiones
nunca seran fiables si se realizan con mas de veinte dias
de antelacion.

343
La razon es el denominado efecto mariposa, un distintivo
del caos en el que solo un minusculo cambio puede tener
importantes consecuencias. En el caso de las predicciones
del tiempo, los datos meteorologicos nunca son totalmente
precisos, y el efecto mariposa amplifica estos errores a lo
largo del tiempo hasta que invalidan totalmente la
prediccion.

El caos, que a menudo aparece en situaciones en las que


interactuan muchos factores diferentes, se ha encontrado
en muchos fenomenos naturales, desde las orbitas de los
planetas a la actividad electrica del cerebro. Los cientificos
han observado que a veces pueden activar o desactivar el
caos, pero lamentablemente nadie tiene idea de como
hacer esto en el caso del tiempo.

Esta a punto de salir para el aeropuerto cuando


suena el telefono: es un amigo que se dejo el
reloj en su casa la pasada noche. No consigue
encontrarlo y sale pitando, con cinco minutos de
retraso. Los semaforos no le ayudan en absoluto
y llega a la estacion de ferrocarril justo a tiempo
de ver como sale su tren, y el siguiente no pasa
hasta dentro de media hora. Cuando llega al

344
aeropuerto ya es demasiado tarde: el avion ha
despegado y no puede coger otro hasta el dia
siguiente. Esos cinco minutos de retraso para
salir de casa se han convertido en todo un dia
perdido.

Se trata de un ejemplo cotidiano de un


fenomeno que ha desencadenado toda una
revolucion en el campo de la ciencia: el caos.

Desde el estado del tiempo a la astronomia,


pasando por la medicina, se ha encontrado el
caos merodeando en campos que antes se
consideraban bien conocidos. Echando por tierra
la idea de que los efectos pequenos solo pueden
tener pequenas consecuencias, ahora se
reconoce que el caos es uno de los fenomenos
mas importantes de la ciencia. Establece limites
fundamentales sobre lo que se puede saber y
hace que nuestros intentos de predecir el futuro
sean ridiculos.

345
Dada su ubicuidad, lo extrano es que nadie haya
notado la existencia del caos antes. No fue sino
hasta la decada de 1960 cuando los cientificos
comenzaron a descubrir como es en realidad el
comportamiento caotico comun. Esta
comprension se produjo tras el creciente uso por
parte de los cientificos de los ordenadores, los
cuales tienen la potencia necesaria para probar
los tipos de fenomenos en los que el caos asoma
las orejas. A veces esto puede ser bastante
simple: por ejemplo, un pendulo que se mueva
desde el final de otro pendulo puede mostrar un
comportamiento caotico; un minusculo cambio en
la posicion de salida produce un comportamiento
radicalmente diferente. Sin embargo, es
caracteristico que el caos surja cuando existen
tres o mas factores que interactuan entre si de
forma compleja.

Esto hace que el estudio convencional de su


comportamiento sea imposible; pero cuando se

346
estudia mediante un ordenador, a menudo
surgen grandes sorpresas, como la que tuvo el
meteorologo estadounidense Ed Lorenz en 1961,
despues de tomar el cafe mas importante de la
historia cientifica. En aquella epoca, Lorenz era
investigador en el Massachusetts Institute of
Technology y estudiaba simples modelos de la
atmosfera de la Tierra. Durante decenios, los
meteorologos habian sonado con predecir el
tiempo, pero estaban estancados por la
complejidad de las ecuaciones que rigen la
atmosfera. En estas intervienen magnitudes,
como la temperatura y la velocidad del viento,
que se relacionan entre si de forma compleja.
Dado que no existe una simple relacion lineal
entre las cantidades implicadas, los matematicos
las denominan ecuaciones no lineales: por
ejemplo, un aumento de la temperatura del 10%
no cambia la velocidad del viento necesariamente
en la misma medida.

347
Durante el invierno de 1961, Lorenz utilizo un
ordenador para afrontar la cuestion de la
prediccion del tiempo. Aunque el ordenador no
podia encontrar una solucion general a las
ecuaciones no lineales, al menos permitio que
Lorenz observara como se comportan en casos
especificos.

Lorenz estaba especialmente interesado en la


conveccion33 atmosferica, un fenomeno
meteorologico fundamental. Tras programar las
ecuaciones que describen la conveccion, dejo
que su ordenador imprimiese un grafico de lo que
pasaba a lo largo del tiempo. Como solo podia
realizar sesenta multiplicaciones por segundo,
Lorenz decidio acelerar el proceso, con
consecuencias revolucionarias. En lugar de
comenzar cada nueva <<<ejecucion>>> desde
cero, introdujo en el ordenador cifras obtenidas
en la mitad de la ejecucion previa y lo apago.
Luego salio a tomar un cafe. Cuando volvio, le

348
aguardaba una gran sorpresa. Lorenz esperaba
simplemente que el ordenador totalizara la
segunda mitad de la ejecucion previa antes de
continuar con la siguiente. Para su asombro, el
ordenador se nego a repetir lo que habia hecho
antes. Comenzaba igual, pero luego se desviaba.

El primer impulso de Lorenz fue achacarlo a un


mal funcionamiento. Pero luego se dio cuenta de
que no habia arrancado el ordenador usando los
mismos valores que habia encontrado en la
ejecucion previa: los habia redondeado
ligeramente. Nunca penso que un cambio tan
pequeno supusiera una diferencia real, hasta que
el ordenador comenzo a dar resultados del todo
diferentes.

Lorenz habia hecho un descubrimiento


importante por casualidad: en el caso de los
fenomenos no lineales, como el estado del
tiempo, cambios minusculos pueden tener

349
enormes consecuencias. Las implicaciones de
esto eran asombrosas. En primer lugar,
significaba que, al menos en principio, el aleteo
de una mariposa en Brasil podia desencadenar
un tornado en Texas, efecto que Lorenz
inmortalizo mas tarde con el termino de efecto
mariposa. En segundo lugar, planteaba dudas
sobre la posibilidad de hacer predicciones del
tiempo a largo plazo: los datos meteorologicos
nunca son perfectos, y el efecto mariposa implica
que incluso errores minusculos pueden crecer con
el tiempo hasta invalidar una prediccion.

Actualmente los cientificos saben que esto mismo


se aplica a muchos fenomenos en los que se
producen efectos no lineales. Se ha observado
que tambien sufren el efecto mariposa incluso las
posiciones de los planetas, que durante mucho
tiempo se consideraron el ejemplo clasico de la
predictibilidad. Todos ellos son exquisitamente
sensibles a ligeros cambios o pequenos errores, y

350
al final son impredecibles y su comportamiento se
hace en apariencia del todo aleatorio. Sin
embargo, no es una aleatoriedad autentica: se
trata solo de que las leyes que gobiernan tales
fenomenos producen una complejidad increible
que puede parecer aleatoria. El resultado fue lo
que en 1975 el matematico estadounidense
James Yorke denomino caos: una especie de
<<<termino medio>>> entre la regularidad
completa y la aleatoriedad absoluta.

Evidentemente es crucial decidir cuando la


aleatoriedad es realmente caos; por ello, los
matematicos han desarrollado la manera de
revelar la presencia del caos y de determinar su
intensidad: es la clave para descubrir hasta que
momento del futuro se pueden hacer
predicciones. En un fenomeno autenticamente
aleatorio —como la eleccion de las bolas de la
loteria— no existe una conexion entre cada
acontecimiento: por ejemplo, si en cinco tiradas

351
consecutivas aparece el <<<17>>> no es ni
mas ni menos probable que salga en la siguiente.
Sin relacion entre el pasado y el futuro, no hay
forma de predecir lo que pasara despues. En el
otro extremo estan los sistemas regulares, como
un reloj de cristal de cuarzo, cuyo
comportamiento en un futuro lejano se puede
predecir.

Pero en el caso de los fenomenos caoticos como


el estado del tiempo, existe una relacion, no muy
intensa, entre pasado y futuro. En consecuencia,
conocer el tiempo que hace hoy ayuda a predecir
el tiempo de manana, pero carece de utilidad
para predecir lo que ocurrira el mes proximo.
Esto se debe a que el efecto mariposa amplia los
mas minimos errores en los datos hasta que
echan por tierra cualquier pronostico.

La forma mas comun de determinar la intensidad


del caos es calcular la denominada escala

352
temporal de Lyapunov, que capta la velocidad
con la que crecen los errores a lo largo del
tiempo. Los modelos informaticos meteorologicos
indican una escala temporal de Lyapunov de
unos veinte dias: esto es, incluso con los mejores
datos y los ordenadores mas rapidos, nunca sera
posible hacer previsiones fiables a mas de tres
semanas vista34.

Los estudios del movimiento en apariencia regular


de los planetas alrededor del Sol han revelado
que tambien se comportan caoticamente, debido
a que sus campos gravitacionales los atraen y los
rechazan de manera compleja. Los modelos
informaticos sugieren para la Tierra una escala
temporal de Lyapunov de unos 100 millones de
anos, tras los cuales su posicion se hace del todo
impredecible.

Aunque los astronomos pueden lamentar que


haya muerto su sueno de predecir el futuro,

353
estas vastas escalas temporales tienen poca
importancia practica. Mucho mas significativo es
el descubrimiento del caos en los asteroides —
trozos de rocas que trazan una orbita alrededor
de un planeta— sobre todo de Marte y de
Jupiter. Algunos de estos asteroides siguen
orbitas que hacen que se aproximen de modo
preocupante a la Tierra, suscitando inquietud por
la posibilidad de un futuro impacto, con
consecuencias potencialmente desastrosas.
Identificar estos asteroides y calcular con
exactitud cuando podrian colisionar es una de las
tareas mas urgentes a las que ahora se
enfrentan los astronomos. Sin embargo, el
constante empuje causado por la gravedad de la
Tierra y de otros planetas ha hecho que algunos
de estos asteroides tengan orbitas muy caoticas,
con escalas temporales de Lyapunov muy
reducidas, de unas cuantas decadas, lo que
anula cualquier esperanza de predecir su
localizacion exacta dentro de un siglo35. Es

354
evidente que los astronomos no tienen mas
eleccion que vigilar estrechamente estos
asteroides caoticos para asegurarse de que no
entran de repente en una trayectoria de colision.

No obstante, el caos no siempre supone una


mala noticia. Si puede encontrarse acechando en
algo que parece ser totalmente aleatorio,
entonces puede que sea posible predecir el
comportamiento futuro, incluso solo por un breve
periodo. No es sorprendente, dada la posibilidad
de hacer fortuna, que gran parte de los
esfuerzos realizados se hayan centrado en
encontrar pruebas del caos en datos economicos
y financieros aparentemente aleatorios. Y, en
principio, su dependencia de un monton de
diferentes factores debe significar que el
comportamiento aleatorio de, por ejemplo, el
producto interior bruto o las tasas de cambio de
moneda es realmente caotico y, por tanto,
potencial-mente predecible.

355
Sin embargo, hasta la fecha las pruebas han sido
menos que convincentes. Los estudios realizados
por Paul Ormerod, de la consultora Volterra, con
sede en Londres, han demostrado que los datos
parecen ser mas aleatorios que caoticos, lo que
al menos explicaria la notable falta de fiabilidad de
las predicciones economicas. Se ha llegado a
conclusiones igual de sombrias sobre datos
financieros como las tasas de cambio de divisas.
Aun asi, algunas instituciones de la capital inglesa
son conocidas por recurrir a matematicos para
descubrir rafagas de predictibilidad en los
mercados financieros —y si estan teniendo exito
utilizando la Teoria del Caos se lo callan, por
miedo a alertar a sus rivales.

Aunque puede que el caos no sea un camino


seguro hacia la riqueza, parece ser importante
para la salud. Investigadores medicos han
demostrado que un corazon sano no late con
regularidad completa, sino que es ligeramente

356
caotico. Sin embargo, si el grado de caos se
hace demasiado grande, la arritmia resultante
puede ser peligrosa. De igual modo, la actividad
electrica del cerebro que causa convulsiones
epilepticas se produce en rafagas que carecen de
una cantidad saludable de caos.

Esto ha desencadenado el surgimiento de un


nuevo tema en la investigacion del caos:
encontrar formas de controlarlo. La idea es
estudiar, por ejemplo, el comportamiento de un
corazon que late y aplicar un estimulo, como
senales electricas, justo en el momento preciso
para controlar el grado de caos. El profesor

William Ditto y sus colaboradores del Georgia


Institute of Technology (Estados Unidos) han
desarrollado metodos innovadores para controlar
el caos de esta forma. A menudo la tarea
consiste en convertir el comportamiento caotico
en algo mas regular. No obstante, en el caso de

357
la epilepsia, el equipo ha utilizado lo que
denominan metodos <<<anticontrol>>> para
introducir una pequena cantidad de caos en la
actividad celular cerebral con el fin de diluir las
rafagas concentradas de actividad que se
asocian a las convulsiones.

La ciencia del caos ha recorrido un largo camino


en los cuarenta anos posteriores a los estudios
pioneros de Ed Lorenz. Lo mismo ha ocurrido con
la actitud de los cientificos hacia ella. Hasta finales
de la decada de 1980 se tendia a desestimar el
caos al considerarlo solo otra palabra en boga,
una tendencia muy moderna que se aprovecha
para explicar todo, desde las poco fiables
predicciones meteorologicas hasta el cancer.
Ciertamente, no todas las grandilocuentes
afirmaciones que se han hecho respecto al caos
han pasado la prueba del tiempo. Aun asi, ahora
se reconoce que el caos es la caracteristica clave
de nuestro mundo y que nos afecta a todos,

358
incluso cuando corremos para llegar a tiempo al
trabajo.

HIPERION: LA PATATA CAOTICA

Durante mucho tiempo se penso que Hiperion,


que completa su orbita alrededor del planeta
Saturno cada veintiun dias, era un satelite
absolutamente ordinario, hasta que fue
fotografiado por la sonda Voyager 2 en 1981. Las
imagenes revelaron que Hiperion era un objeto
con forma de patata que parecia estar rotando
de una forma curiosa. En 1984, un equipo dirigido
por el teorico Jack Wisdom (California Institute of
Technology) sugirio que la causa estribaba en la
forma extrana de Hiperion y en la atraccion
gravitacional del satelite vecino, Titan: juntos

359
hacian que diera vueltas de un modo caotico. Los
estudios del cambio del brillo de Hiperion han
convencido desde entonces a la mayoria de los
astronomos de que el caos lo controla.

SEGURIDAD EN CIFRAS: PREDICCION DEL


TIEMPO POR CONJUNTOS

Aunque el caos puede haber anulado el sueno de


hacer predicciones precisas del tiempo a largo
plazo, los meteorologos han encontrado una
manera de calibrar la repercusion del caos en una
prediccion especifica y de determinar, por tanto,
hasta que punto es probable que sea fiable. Se
trata de la conocida como prediccion por
conjuntos, que implica hacer una serie de
predicciones, cada una de las cuales comienza en

360
unas condiciones iniciales ligeramente diferentes.
Si la atmosfera esta en un estado en el que el
efecto mariposa es intenso, entonces las
predicciones divergiran con rapidez, advirtiendo a
los meteorologos de que no tengan demasiada
fe en ellas. La tecnica por conjuntos ha
demostrado que las predicciones tienden a ser
relativamente poco fidedignas en invierno, en
especial alrededor de las Islas Britanicas.

Cronologia

1961 Ed Lorenz (Massachusetts Institute


of Technology) descubre las primeras
pruebas del caos en su modelo informatico
de conveccion atmosferica.

1972 Lorenz idea el termino efecto

361
mariposa para expresar que los pequenos
fenomenos pueden tener enormes
consecuencias.

1975 El matematico estadounidense


James Yorke acuna el termino
<<<caos>>> para el comportamiento
que causa el efecto mariposa.

1976 El fisico australiano Robert May


publica en la revista Nature un articulo
innovador en el que alerta a los cientificos
de que el caos acecha incluso en las
ecuaciones simples.

1984 Jack Wisdom, experto


estadounidense en el caos, y sus
colaboradores predicen el movimiento
caotico de Hiperion, una luna de Saturno.

1987 Las observaciones de Hiperion lo


confirman como el primer ejemplo de un

362
objeto que da vueltas caoticamente en el
Sistema Solar.

1987 Chaos: Making a New Science, del


periodista estadounidense James Gleick, se
convierte en un exito de ventas y llama la
atencion publica sobre el caos.

1989 Jacques Laskar (Bureau des


Longitudes, Paris) demuestra que la orbita
de la Tierra alrededor del Sol es caotica, y
que es imposible predecir cual sera su
posicion dentro de mas de 100 millones de
anos.

1990 William Ditto y sus colaboradores del


Georgia Institute of Technology inician
estudios innovadores sobre el control del
caos.

1990 hasta la fecha Economistas y


analistas financieros investigan la forma de

363
detectar el caos en los datos para
conseguir mejores predicciones.

1995 hasta la fecha Investigadores


medicos encuentran signos de caos en el
comportamiento de los tejidos y organos
sanos, incluidos el corazon y el cerebro.

Citas

33

La conveccion consiste en el transporte de


calor o energia por movimiento de fluidos;
ocurre en gases, liquidos o material
semirrigido, como el manto terrestre. (N.
del E.)

34

364
Es posible que se haya exagerado el papel
d e l efecto mariposa en la limitacion del
poder de prediccion, al menos en el caso
de los pronosticos meteorologicos. Una
investigacion realizada por David Orrell
(University College, Londres) ha
demostrado que los errores en la
prediccion del tiempo simplemente no
siguen el patron previsto por el efecto
mariposa. Si lo hicieran, los errores
crecerian de modo exponencial,
empezarian siendo relativamente pequenos
pero cada pocos dias duplicarian su
tamano hasta echar por tierra la precision
del pronostico. Los errores de prediccion de
los modelos informaticos reales se
comportan de una forma muy diferente,
aumentando de forma rapida en los
primeros dias antes de estabilizarse
(hablando en terminos matematicos,
aumentan con la raiz cuadrada del

365
tiempo). Orrell ha probado que esto es
precisamente lo que cabria esperar si la
principal fuente de error no fuera el efecto
mariposa de la Naturaleza sino simples
deficiencias del modelo informatico. Esto
plantea la posibilidad de mejorar de manera
espectacular los pronosticos del tiempo
porque, a diferencia del efecto mariposa, el
error del modelo informatico puede
solucionarse. Para ello, los meteorologos
necesitan encontrar mejores formas de
captar las sutilezas de la atmosfera y, por
tanto, de eliminar los errores del modelo
que, segun Orrell, son los principales
responsables de los fallos de prediccion en
los primeros dias. No solo los pronosticos
del tiempo pueden beneficiarse de esta
informacion. Practicamente cualquier
sistema complejo, desde las colonias de
celulas hasta la economia mundial, tienen
caracteristicas no lineales que pueden

366
conducir al efecto mariposa. Asi, el
descubrimiento de Orrell puede tener
implicaciones en gran cantidad de
fenomenos cuyo comportamiento parece
desafiar la prediccion a largo plazo.

35

En 1995, Arthur Whipple (McDonald


Observatory, Universidad de Texas,
Austin) publico los resultados de su intento
de realizar el seguimiento, durante miles de
anos en el futuro, de ciento setenta y
cinco asteroides que cruzan la orbita de la
Tierra. Sus resultados, publicados en la
revista Icarus, demostraron que en
muchos casos el paradero de estos
asteroides se hace impredecible en escalas
temporales tan breves como una decada.
Suponiendo que la posicion inicial de tales
asteroides se conozca con una precision

367
aproximada de 100 kilometros —lo cual es
muy optimista—, el efecto mariposa
aumentara ese nivel de incertidumbre
hasta alrededor del diametro de la Tierra
en menos de un siglo. Dicho de otro modo:
es imposible asegurar si un asteroide
chocara con la Tierra o no dentro de 50 o
100 anos.

368
14
Automatas celulares

En pocas palabras

?Que se necesita para crear vida capaz de reproducirse a


si misma? Aunque podria parecer una pregunta para
biologos, la cuestion ha atraido durante mucho tiempo a
los matematicos, que han intentado precisar el numero
minimo absoluto de ingredientes necesarios para
conseguirlo. En la decada de 1940, el brillante matematico
hungaro-estadounidense John von Neuman propuso la
idea de un robot autorreplicante —un <<<automata>>>
— que tenia estas caracteristicas.

Sin embargo, la idea era demasiado teorica para suscitar


mucho interes y solo progreso realmente cuando los
matematicos polacos Stanislaw Ulam y Stanislaw Mazur
presentaron una idea mucho mas sencilla, basada en
patrones reticulares de celulas cuyo comportamiento
estaba gobernado por reglas simples. Los ahora
denominados automatas celulares permitieron que los
cientificos simularan un comportamiento parecido a la vida

369
usando ordenadores. Ahora se conoce a los automatas
celulares por tener dos habilidades cruciales: pueden
actuar como ordenadores universales y tambien pueden
auto replicarse. Esto ha llevado algunos investigadores a
afirmar que han utilizado automatas celulares para hacer
importantes avances en el conocimiento de los procesos
que tienen lugar en los seres vivos como tambien del
funcionamiento del propio Universo. El partidario mas
acerrimo del poder de los automatas celulares es el
matematico britanico Stephen Wolfram, cuyo reciente libro
A New Kind of Science presenta una vision deslumbrante
de los automatas celulares como una nueva herramienta
para sondear los misterios del Universo. Sin embargo,
hasta la fecha los automatas celulares no han conseguido
tener una gran repercusion en la ciencia, y pocos
cientificos creen que lleguen a tenerla.

En mayo de 2002, los medios de comunicacion


de todo el mundo proclamaron la llegada de una
nueva era, una revolucion cientifica que
transformaria nuestro conocimiento de la vida, el
Universo y de todo en general. Mas asombroso
era aun que se trataba de una revolucion que,
segun se decia, habia suscitado la labor de un

370
genio solitario que trabajo de forma obsesiva
durante mas de un decenio. <<<?Este hombre
es mas importante que Newton y Darwin?>>>,
se preguntaba un periodico del Reino Unido.

El hombre en cuestion era Stephen Wolfram —


fisico britanico y millonario gracias a los
programas informaticos—, cuya brillantez le habia
dado un estatus legendario cuando todavia era
adolescente. Publico su primer articulo de
investigacion cuando todavia iba a la universidad
y abandono Oxford un ano despues, a finales de
la decada de 1970, menospreciando la carrera de
fisica por considerarla inutil. Fue al California
Institute of Technology, hizo un doctorado y
gano una beca de investigacion especial para
nuevos genios.

Al comienzo de su tercera decada de vida, se


pronosticaba que Wolfram haria grandes avances
desentranando los misterios del cosmos. Pero

371
cuando revelo su gran idea, no era exactamente
lo que mucha gente esperaba. Segun Wolfram,
la clave del cosmos estaba en los patrones
reticulares en una pantalla de ordenador. Tales
creencias suelen ser sintoma de que se ha
perdido el contacto con la realidad. Sin embargo,
viniendo de Wolfram no era una afirmacion que
se pudiera despreciar a la ligera, y algunos
cientificos de renombre pensaban que podria
tener razon, aunque exigieron muchas mas
pruebas. En 2002 llegaron en forma de una
enorme obra con un gran titulo: A New Kind of
Science.

La obra era la apuesta de Wolfram para ser


acogido como el descubridor del poder de esos
patrones simples para descubrir los misterios de
la Naturaleza. Sin embargo, dista mucho de
haber sido el primero en descubrir vestigios de
algo inmenso en esos extranos patrones
reticulares que plagaban su inmensa obra.

372
Conocidos como automatas celulares, atrajeron
la atencion de algunas de las mas brillantes
mentes del siglo XX mucho antes de que
Wolfram naciera.

Sin embargo, pese a los grandes esfuerzos que


se hicieron por desvelar el potencial de los
automatas celulares, persiste una controversia
encarnizada sobre su trascendencia real. ?Los
automatas celulares son en realidad la clave del
cosmos, o son solo patrones cuya belleza ha
extraviado a mentes brillantes?

Sus origenes radican en conversaciones de cafe


que tuvieron lugar en la ciudad polaca de Lvov
(ahora en Ucrania) en 1929. Stanislaw Ulam y
Stanislaw Mazur eran estudiantes de
matematicas en la escuela politecnica, y con
regularidad quedaban para conversar sobre sus
ideas. En una de estas ocasiones, Mazur se
planteo que haria falta para tener una maquina

373
que pudiera realizar automaticamente copias de
si misma. Ambos reflexionaron sobre esta idea
del <<<automata>>> durante un tiempo, antes
de pasar a otras cosas. Cuando volvieron a
tratar el asunto, mas de veinte anos despues,
sus especulaciones de estudiantes llevarian al
nacimiento de la investigacion de los automatas
celulares.

En esa epoca, uno de los mas grandes


matematicos de todos los tiempos habia
comenzado a reflexionar sobre la misma
cuestion. John von Neumann, nacido en Hungria
en 1903, ya era famoso por su trabajo en
campos que iban desde la economia a la ciencia
computacional. En la decada de 1940 probo que
los ordenadores necesitan un procesador central,
una memoria, y un dispositivo de entrada y
salida; esta <<<arquitectura de Von
Neumann>>> domina el diseno de los
ordenadores hasta nuestros dias.

374
A finales de la decada de 1940 esperaba hacer lo
mismo en lo que atane a la propia vida,
identificando los componentes y las instrucciones
fundamentales que se necesitan para que
tengan lugar todos los procesos vitales, incluida la
reproduccion. El resultado seria el
<<<automata>>> con el que Mazur y Ulam
habian sonado anos antes.

Al igual que con los ordenadores, Von Neumann


identifico los diversos componentes que se
necesitan para crear un automata: un
controlador central, un dispositivo de copia, un
dispositivo de fabricacion y un conjunto de
instrucciones. Hoy en dia los biologos reconocen
esto como la lista de comprobacion de
componentes que se encuentra practicamente
en todas las formas de vida;
sorprendentemente, Von Neumann habia
probado su importancia anos antes de que se
hubieran identificado los genes. Sin embargo, le

375
inquietaba la ausencia de detalles practicos sobre
estos componentes. ?Como construir uno de
estos automatas?

Von Neumann menciono esto a un viejo amigo,


el matematico Stanislaw Ulam. Recordando sus
conversaciones de hacia mas de veinte anos,
Ulam sugirio que comenzaran con algo mas
simple que construir un autentico automata
replicante. <<<?Por que no comenzar con
patrones de simples cuadrados coloreados en
papel grafico, cada uno de los cuales siguiera un
conjunto de reglas, y ver si estos patrones
podian hacer copias de si mismos?

Von Neumann tuvo en cuenta la sugerencia de


Ulam y se dedico a crear una <<<criatura
virtual>>> en forma de un patron reticular de
<<<celulas>>>, cada una de las cuales podia
adoptar alguno de los veinte estados posibles,
segun un conjunto de instrucciones. La criatura,

376
formada por cientos de miles de tales celulas o
celdas, fue disenada para hacer copias de si
misma cambiando el estado de las celulas que la
rodeaban para formar los componentes que Von
Neumann habia demostrado como necesarios
para la vida. Como resultado haria una copia de
si misma, imitando el proceso fundamental de la
vida: la reproduccion.

Era una idea atrevida, pero la enorme


complejidad de las reglas y los estados vencio a
Von Neumann: nunca consiguio construir su
criatura virtual. Despues de su muerte, en 1957,
Arthur Burks (Universidad de Michigan), antiguo
colaborador suyo, plasmo por escrito su intento
innovador de crear vida artificial. Buscando un
nombre para lo que habia intentado crear Von
Neumann, a Burks se le ocurrio el termino de
<<<automata celular>>>, que en la actualidad
es la denominacion convencional de este patron
reticular de celulas.

377
Sin embargo, aunque el campo ahora tenia un
nombre, Von Neumann no habia conseguido
construir un automata celular, ni mucho menos
estudiar sus propiedades, y este campo se
mantuvo latente durante muchos anos. Volveria
a surgir en 1970, en circunstancias inusuales: un
articulo de una revista cientifica estadounidense
en el que se describia un juego extrano
inventado por un matematico britanico. Se
denominaba <<<Vida>>> y habia sido
concebido en la Universidad de Cambridge por
John Conway, que barajaba la idea de que la
criatura virtual de Von Neumann podria
construirse usando una cantidad mucho menor
de celulas y estados. Conway comenzo con
celulas que solo tenian dos formas —negro y
blanco— mas un conjunto de reglas que dictaban
el estado de cada celula de acuerdo con el
estado de sus vecinas.

Tras un enorme esfuerzo, encontro un conjunto

378
de reglas que producian una variedad asombrosa
de comportamientos. Aunque algunos automatas
celulares <<<morian>>> rapidamente, otros
cambiaban entre dos o mas estados diferentes,
mientras que algunos patrones parecian moverse
por la reticula como insectos. Pronto los
estudiantes con acceso a los ordenadores de la
universidad estaban jugando el Juego de la vida
de Conway, investigando el extrano mundo de
los automatas celulares por si mismos.

No obstante, Conway prosiguio y demostro que


su automata celular podia actuar como un
ordenador, realizando las operaciones logicas
necesarias para resolver problemas. Sin
embargo, al igual que Von Neumann, Conway no
consiguio hacer ni un automata capaz de
reproducirse a si mismo ni una computadora
automata celular. Pensaba que podia hacerse
dando una reticula suficientemente grande, pero
faltaban pruebas solidas. A mediados de la

379
decada de 1970 de nuevo los automatas
celulares abandonaron los programas de
investigacion.

La llama titilante se mantuvo encendida en el


Massachusetts Institute of Technology (MIT),
donde un equipo de investigadores tuvo una idea
diferente y mas fabulosa sobre los automatas
celulares. Ed Fredkin y sus colaboradores creian
que los automatas celulares podian hacer algo
mas que parecer vagamente <<<vivos>>>. Un
miembro del equipo, Tommaso Toffoli, habia
demostrado que los automatas celulares tienen
similitudes con fenomenos fisicos complejos
como los fluidos turbulentos, en los que las
interacciones entre regiones vecinas son cruciales
36
. El Juego de la vida d e Conway habia
demostrado que los automatas celulares pueden
convertir patrones simples en otros muy
complejos a una velocidad enorme. Para el
equipo del MIT, esto hacia que los automatas

380
celulares fueran perfectos para las simulaciones
por ordenador de problemas fisicos realmente
complejos, como la turbulencia.

Stephen Wolfram, que por entonces estaba en el


prestigioso Institute for Advanced Study
(Princeton), compartia su punto de vista. A
principios de la decada de 1980 se convirtio en el
principal partidario de la idea de que los
automatas celulares eran un <<<camino
intermedio>>> que permitia a los cientificos
experimentar con sus patrones mientras
buscaban nuevas teorias para todo, desde la
turbulencia al diseno de las conchas marinas.

Wolfram comenzo centrandose en automatas


celulares incluso mas simples que los que creo
Conway: solo cuadrados negros y blancos en una
linea. Sin embargo, tambien encontro que
algunos automatas celulares comenzaban siendo
simples mientras que otros se hacian

381
asombrosamente complejos, y los clasifico en
consecuencia. Wolfram se convencio de que la
capacidad de los automatas celulares, incluso los
simples, de producir comportamientos complejos
era una prueba clara de su importancia cosmica.

A mediados de la decada de 1980, la vision de


Wolfram habia conseguido centrar de nuevo la
atencion de los cientificos en el poder de los
automatas celulares. Su colega Norman Packard,
del Institute for Advanced Study, utilizo los
automatas celulares para simular el crecimiento
de los copos de nieve, mientras que un equipo
dirigido por el fisico frances Uriel Frisch demostro
que los automatas celulares pueden usarse para
resolver la ecuacion de Navier-Stokes. Esta
ecuacion, famosa por su complejidad, es la
ecuacion central para comprender el flujo de
fluidos y es vital para todo, desde la prediccion
del tiempo al diseno de aviones. En la Universidad
de Michigan, Chris Langton incluso afirmo que

382
habia identificado las condiciones necesarias para
crear automatas celulares <<<vivos>>> y que
habia encontrado el santo grial: un automata
celular que se reproducia a si mismo.

Pese a esta oleada de actividad, la mayoria de


los cientificos ni se inmutaban. Para ellos, los
automatas celulares seguian siendo un
pasatiempo como mucho intrigante, pero
probablemente complejo y carente de sentido. A
finales de la decada de 1980, Wolfram paso a
estudiar otras cuestiones, y este campo perdio
de nuevo su lustre.

Sin embargo, el propio Wolfram nunca renuncio


por completo a los automatas celulares, y
despues de crear una empresa multimillonaria de
programacion informatica, comenzo una decada
de investigaciones intensivas y solitarias sobre las
propiedades de los automatas celulares que
concluyo en la obra A New Kind of Science. Se

383
convirtio de inmediato en un exito de ventas,
aunque entre los cientificos la respuesta disto
mucho de ser entusiasta. Muchos acusaron a
Wolfram de no lograr reconocer el trabajo de
otros y de permitirse la publicidad a bombo y
platillo. Tambien senalaban que no habia nada
nuevo o unico en la manera en que los
automatas celulares producen comportamientos
complejos a partir de reglas simples: desde hacia
anos se conocian otras vias. Y pocos creian que
la obra de Wolfram hubiera probado sus
afirmaciones de que los automatas celulares
constituyen la base de <<<un nuevo tipo de
ciencia>>>.

?Los automatas celulares son tan importantes


como creyeron Wolfram y muchas otras mentes
brillantes antes que el? El hecho es que la historia
de los automatas celulares esta plagada de
grandes afirmaciones y hasta la fecha no han
conseguido tener ninguna repercusion

384
significativa. El libro de Wolfram puede ser la
chispa que finalmente desencadene una
revolucion en el campo de los automatas
celulares. Pero, en funcion de la experiencia, lo
mas probable es que sea el fracaso total de una
gran idea que carecia de fondo.

EL BRILLANTE DOCTOR VON NEUMANN

Nacido en 1903 en Budapest, en el seno de una


rica familia de banqueros, Janos (John) von
Neuman fue miembro de un sorprendente grupo
de mentes que surgieron en Hungria durante la
primera parte del siglo pasado37. Desde los doce
anos, Von Neumann tuvo como profesores a los
principales matematicos de la Universidad de
Budapest, y publico su primer articulo de

385
investigacion a los diecisiete anos. A los veintidos
era profesor adjunto en la Universidad de Berlin,
convirtiendose en la persona mas joven que
habia ocupado tal puesto.

Comenzo estableciendo las bases matematicas


de campos tan diversos como la Teoria Cuantica,
la Teoria del Juego y el diseno de armas
nucleares. Sin embargo, extranamente se dice
que Von Neumann consideraba su trabajo sobre
los automatas celulares como su logro mas
importante.

EL AUTOMATA CELULAR FINAL: REGLA 110

En A New Kind of Science, Wolfram examina las


propiedades de cientos de tipos de automatas

386
celulares, cada uno de los cuales evoluciona
segun un diferente conjunto de reglas. Aparte de
las doscientas cincuenta y seis variedades
especificas que considera, presta especial
atencion a una que obedece a la <<<regla
110>>>. Este automata celular, segun dice
Wolfram, es especial porque matematicamente
se ha probado que muestra
<<<universalidad>>>, esto es, la capacidad de
simular cualquier caracteristica de cualquier
sistema. Como tal, ejemplifica una caracteristica
de los automatas celulares que, al menos segun
Wolfram, los hace tan interesantes: su
combinacion paradojica de simplicidad y de
comportamiento profundamente complejo. Sin
embargo, falta por aclarar hasta que punto
demostrara ser util en las simulaciones de la vida
real.

387
Cronologia

1929 Los matematicos polacos Stanislaw


Ulam y Stanislaw Mazur comienzan a
especular sobre la posibilidad de robots
autorreplicantes.

1948 El matematico hungaro John von


Neumann da una conferencia en la que
destaca la idea de que aparecieran
procesos vitales en una maquina que
superara cierto grado de complejidad.

1952 Ulam indica a Von Neumann un


metodo simple de <<<automatas
celulares>>> reticulados para simular la
vida. Un ano despues, Von Neumann da a
conocer el primer automata celular.

1970 El matematico britanico John Horton

388
Conway inventa el Juego de la vida, un
automata celular bidimensio-nal que
produce formas <<<vivas>>>.

1975 El italiano Tommaso Toffoli,


estudiante de doctorado, revive el interes
por los automatas celulares demostrando
que pueden ir hacia atras en el tiempo
como las leyes fisicas, insinuando su valor
en las simulaciones.

1979 El fisico Christopher Langton afirma


haber creado vida artificial autorreplicante
en un ordenador utilizando automatas
celulares.

1982 Stephen Wolfram, estudiante


britanico, comienza a examinar la idea de
automatas celulares ejecutados en un
ordenador como un nuevo tipo de ciencia:
ni completamente teorica ni totalmente
experimental.

389
1985 El fisico Norman Packard utiliza
automatas celulares para simular la
formacion y las formas de los copos de
nieve, y mas tarde intenta
<<<reproducir>>> automatas celulares
eficientes.

1986 Wolfram y un equipo dirigido por


Uriel Frisch demuestran que los automatas
celulares pueden usarse para simular la
ecuacion de Navier-Stokes, utilizada para
comprender el flujo de fluidos (y el estado
del tiempo).

1992 Langton afirma demostrar que


ciertos tipos de automatas celulares son
suficientemente complejos como para
imitar procesos vitales. Otros autores
cuestionan sus afirmaciones, asi como las
de Packard.

2002 Wolfram publica A New Kind of

390
Science, que explica con detalle sus
afirmaciones sobre la importancia de los
automatas celulares. Muchos cientificos
siguen siendo escepticos al respecto.

Citas

36

Se atribuye a Toffoli el haber arrebatado


los automatas celulares a los matematicos
puros y el haber destacado su posible uso
en simulaciones informaticas de fenomenos
reales. En 1977 creo una prueba
matematica de que los automatas
celulares poseian reversibilidad, esto es, la
capacidad de volver hacia atras en el
tiempo para recuperar su punto de partida.
Esto sugeria que los automatas celulares
pueden resultar utiles en la simulacion de

391
fenomenos naturales, y revitalizo este
campo mas alla de las investigaciones
teoricas de la matematica pura. El propio
Toffoli creo un hardware especialmente
disenado para realizar simulaciones rapidas
basadas en automatas celulares.

37

La lista de genios que surgieron en Hungria


en la misma, epoca que Von Neumann
incluia a Leo Szilard, descubridor de la
<<<reaccion en cadena>>> de la fision
nuclear, Theodore von Karman,
especialista en aerodinamica, Edward
Teller, padre de la bomba de hidrogeno, el
matematico Eugene Wigner y tres
ganadores de premios Nobel, incluido Denis
Gabor, el inventor del holograma. Los
historiadores han sugerido que parte de la
razon de la aparicion de tantos cerebros

392
influyentes en un periodo tan breve radica
en la reorganizacion del sistema educativo
hungaro a finales del siglo XIX. Fue dirigida
por Mor Karman, profesor de filosofia y
educacion (y padre de Theodore), que se
inspiro en las escuelas del sistema del
Gimnasio aleman e hizo especial hincapie
en el estimulo a los estudiantes mas
brillantes.

393
15
Teoria del Valor Extremo

En pocas palabras

Desde los huracanes a las marcas en salto de altura, con


demasiada frecuencia un acontecimiento inesperado
distinto a cualquier cosa antes vista puede aparecer
cuando menos se espera. ?Pero hasta que punto son
extravagantes tales acontecimientos? Esta es la cuestion
que responde la Teoria del Valor Extremo, que utiliza la
informacion existente —por ejemplo, sobre las peores
inundaciones acaecidas en los ultimos quinientos anos— y
la utiliza para predecir la probabilidad de que se produzcan
inundaciones incluso peores en el futuro.

La Teoria del Valor Extremo, desarrollada por matematicos


en la decada de 1920, fue considerada con desconfianza
durante mucho tiempo debido a su capacidad
aparentemente magica de predecir incluso acontecimientos
sin precedentes. En la actualidad se confia mas en sus
capacidades, que se han utilizado en areas tan diversas
como la planificacion del riesgo financiero y la seguridad

394
maritima. Se le ha dado un uso significativo en el campo de
los seguros, en el que las empresas aplican formulas de la
Teoria del Valor Extremo para calcular la probabilidad de
que se produzcan desastres importantes y para garantizar
que existen suficientes fondos para cubrir los costes.

Estos son tiempos extranos. Por todo el mundo,


marcas deportivas que se mantuvieron durante
siglos se han venido abajo por completo. En solo
una semana, en mayo de 2002, una tormenta
sin precedentes de trescientos tornados asolo el
medio oeste de Estados Unidos, causando danos
por valor de mas de 1.600 millones de euros. En
agosto de 2003, una ola de calor sofoco Europa,
y en Gravesend (Kent) se alcanzo una
temperatura de 38,1 degC, la mas alta de todos
los tiempos registrada en el Reino Unido;
mientras, en Francia, murieron mas de 14.000
personas a causa del calor. Incluso el Sol
tambien ha roto marcas, lanzando su mayor
erupcion en noviembre, y forzando a los aviones

395
a alterar su rumbo para reducir al minimo la
exposicion a la radiacion cosmica38.

?Que es lo siguiente que podemos esperar en la


Tierra? ?Podemos hacer algo para protegernos
de lo que nos tiene preparado la Naturaleza? Los
acontecimientos extremos a menudo plantean
tales cuestiones. Reflejan nuestro terror sobre lo
que podria depararnos el futuro y nuestra
sensacion de impotencia para actuar con el fin de
impedir que se repitan desastres pasados.

El mundo nos depara cada vez mayores


sorpresas, por lo que existe ahora un creciente
interes por una tecnica capaz de hacer lo
aparentemente imposible. Es la denominada
Teoria del Valor Extremo, que puede
proporcionar informacion sobre futuros
acontecimientos extremos con anos, decenios o
incluso siglos de antelacion. En todo el mundo, los
gobiernos estan considerando ahora la Teoria del

396
Valor Extremo para calibrar la probabilidad de que
se produzcan acontecimientos extremos, con el
fin de prepararse y defenderse de ellos. En el
mundo financiero, la Teoria del Valor Extremo se
esta utilizando para evaluar el riesgo de
desastres naturales y para garantizar que las
instituciones tengan las reservas economicas
necesarias para cubrir la probable repercusion. La
tecnica se esta utilizando para proteger los
barcos de las tormentas mas intensas cuando
surcan los oceanos de todo el mundo. Incluso ha
ayudado a los biologos a determinar la duracion
maxima de la vida de los seres humanos.

Los fenomenos extremos en el espacio profundo


pueden afectar la vida en la Tierra. En noviembre
de 2003, el Sol ataco a nuestro planeta con la
mayor erupcion solar que se haya registrado,
con particulas que alcanzaron la capa superior de
la atmosfera a una velocidad superior a ocho
millones de kilometros por hora. Fue preciso

397
modificar las rutas de los aviones para eludir la
elevada radiacion cosmica.

En todos los casos, la Teoria del Valor Extremo


recurre a la documentacion sobre pasados
acontecimientos extremos y extrae informacion
sobre lo que podria ocurrir en el futuro, incluso
dando cifras sobre la probabilidad de que
sucedan acontecimientos que nunca antes
habian ocurrido. Parece casi milagroso; quiza no
sea sorprendente que la Teoria del Valor
Extremo siga considerandose en algunos ambitos
con desconfianza. No obstante, los partidarios del
metodo apuntan que tiene bases matematicas
solidas, a diferencia de la mayoria de las reglas
generales utilizadas con tanta frecuencia para
indagar en el futuro.

El germen de lo que se convertiria en la Teoria


del Valor Extremo se encuentra a principios del
siglo XVIII, y en algunas reflexiones del

398
matematico suizo Nicolas Bernoulli. Sin embargo,
no fue hasta la decada de 1920 cuando la idea
de predecir acontecimientos sin precedentes
atrajo por vez primera autentica atencion. El quid
de la Teoria del Valor Extremo radica en el
concepto de <<<distribucion>>>, una formula
matematica que da la frecuencia relativa de una
cantidad particular. Por ejemplo, la probabilidad
de observar a gente con una determinada altura
sigue la famosa curva en forma de campana
conocida como distribucion de Gauss. Demuestra
que la mayoria de la gente tiene una altura
proxima al promedio, dejando la <<<joroba>>>
en el centro de la distribucion. Las <<<colas>>>
largas y estrechas de la distribucion reflejan el
hecho de que las probabilidades de encontrar
personas extremadamente pequenas o altas son
mucho menores.

La distribucion de Gauss se aplica a muchos


fenomenos, y los intentos iniciales de predecir la

399
probabilidad de que sucedan acontecimientos
extremos se basaron en calculos realizados con
sus <<<colas>>>. No obstante, durante la
decada de 1920, los matematicos dejaron en
claro sus reparos sobre las predicciones
resultantes y si se podria confiar en la curva de
Gauss para enfrentarse a acontecimientos
extremos. En 1928, R. A. Fisher, un brillante
matematico de Cambridge, y su colega L. H. C.
Tippett presentaron lo que se conoceria como
Teoria del Valor Extremo en un articulo en el que
se demostraba que los acontecimientos
extremos siguen de hecho sus propios tipos
especiales de distribucion. Aunque su formula
matematica precisa difiere, cada una de las
distribuciones refleja la idea intuitiva de que
cuanto mas extremo es un acontecimiento
menos probable es que ocurra. Se puede calcular
hasta que punto es menos probable que ocurra
ajustan-do las distribuciones a los datos sobre
acontecimientos extremos pasados —por

400
ejemplo, la mayor serie de tormentas costeras
observada cada ano— y luego proyectandola al
futuro. Las formulas de la Teoria del Valor
Extremo daban entonces estimaciones del riesgo
de observar una serie de tormentas de un
tamano determinado, incluyendo algunas tan
extremas que nunca se hayan visto antes.

Pese a su valor practico en muchos ambitos, la


Teoria del Va-, lor Extremo se considero con
desconfianza durante muchos anos. En la
decada de 1940 tuvieron lugar dos
acontecimientos que ayudaron a superar estas
dudas. En primer lugar, el matematico sovietico
Boris Gnedenko dio una base matematica
rigurosa a las formulas. Luego Emil Gumbel,
matematico estadounidense de origen aleman,
comenzo a aplicar la Teoria del Valor Extremo al
problema de predecir el nivel de inundaciones a
partir de registros pasados, con resultados muy
satisfactorios.

401
La importancia de esta aplicacion de la Teoria del
Valor Extremo se vio clara y crudamente en
febrero de 1953, cuando una enorme oleada de
tormentas en la costa holandesa rompio diques
con siglos de antiguedad. La inundacion acabo
con 800 personas y destruyo 47.000 hogares,
suscitando demandas de acciones para impedir
que volviera a pasar de nuevo. Un grupo de
expertos comenzo a estudiar registros pasados
de inundaciones para calibrar el tamano del
problema, y encontro que la inundacion de 1953
distaba mucho de ser la peor de la Historia. El dia
de Todos los Santos de 1570, Holanda fue una
de las naciones de Europa occidental devastadas
por una oleada de tormentas en la que la altura
del mar subio unos cuatro metros, es decir, al
menos 15 centimetros mas que en el suceso de
1953. Se calcula que perdieron la vida unas
400.000 personas.

El grupo de expertos se enfrentaba al desafio de

402
decidir hasta que altura se debian construir los
diques. Si se establecia un nivel demasiado alto,
la construccion de los diques seria
innecesariamente cara; si se establecia un nivel
demasiado bajo, el pais se enfrentaria
rapidamente a desastres repetidos. El grupo de
expertos llego a la conclusion de que unas
defensas costeras que se alzaran unos cinco
metros por encima de nivel del mar debian
proteger al pais durante miles de anos. ?Pero
hasta que punto eran fiables sus calculos? Para
descubrirlo, un equipo dirigido por Laurens de
Haan (Universidad Erasmus de Rotterdam) utilizo
la Teoria del Valor Extremo para estimar el riesgo
de que se produjera una inundacion que
superara el nivel de cinco metros propuesto por
el grupo de expertos. El analisis de los datos
sobre inundaciones historicas permitio que el
equipo encontrara una distribucion de la teoria de
los valores extremos que tuviera en cuenta
inundaciones extremas pasadas y las extrapolara

403
al futuro. Sus calculos demostraron que se podia
esperar que las recomendaciones del grupo de
expertos protegerian al pais durante muchos
siglos.

Hoy en dia la Teoria del Valor Extremo se utiliza


mucho para evaluar el riesgo de inundaciones y
para valorar si las defensas utilizadas son
adecuadas. Aun asi, debe emplearse con
precaucion. En 1996, matematicos de la
Universidad de Lancaster encontraron sutiles
errores en la forma en que se habia utilizado la
Teoria del Valor Extremo para disenar 800
kilometros de defensas maritimas britanicas. El
equipo llego a la conclusion de que algunas partes
de las defensas tendrian que ser dos metros
mas altas para proteger las zonas costeras de
inundaciones graves.

No resulta sorprendente que las companias de


seguros hayan sido de las primeras en explotar el

404
poder de la Teoria del Valor Extremo. Durante
muchos anos, los actuarios valoraron el posible
riesgo planteado por diversas formas de
desastres utilizando reglas generales empiricas
como la regla del <<<20-80>>>, que establece
que el 20% de los sucesos graves suponen mas
del 80% de los beneficios repartidos en forma de
dividendos39. A mediados de la decada de 1990,
el matematico economico Paul Embrechts y sus
colaboradores del Swiss Federal Institute of
Technology (ETH) de Zurich decidieron
comprobar la validez de tales reglas con la Teoria
del Valor Extremo. Encontraron que la regla del
<<<20-80>>> funciona bien en muchos de los
sectores de los seguros, pero tambien puede
fallar de un modo estrepitoso. Por ejemplo,
utilizando la Teoria del Valor Extremo para
estudiar datos pasados sobre reclamaciones, el
equipo encontro que se aplica una regla del
<<<0,1-95>>> a los danos por huracanes.
Dicho de otro modo: la autentica amenaza

405
procede de la tormenta uno por mil, que puede
acabar con el 95 % de los beneficios repartidos
en forma de dividendos de una sola vez. Tales
descubrimientos estan ayudando a las companias
aseguradoras a optimizar su cobertura de riesgo,
ampliando el rango de amenazas que pueden
cubrir con primas considerables, con beneficios
tanto para las companias como para los clientes.

Por la misma epoca, una serie de desastres


economicos despertaron un enorme interes por
la Teoria del Valor Extremo entre los analistas
cuantitativos, que utilizan metodos matematicos
sofisticados para obtener beneficios y evitar
perdidas, o al menos lo intentan. En febrero de
1995, la sucursal en Singapur de Barings, el
banco mercantil mas famoso del mundo, perdia
mas de 1.300 millones de euros por las
transacciones de un solo operador, Nick
Leeson40. Pocos meses despues, el banco Daiwa
de Japon descubrio en sus cuentas un agujero

406
de poco mas de 1,000 millones de euros
producido por las actividades de otro operador
deshonesto, To-shihide Iguchi. Se trataba de una
doble circunstancia adversa, y llevo a Alan
Greenspan, presidente de la Reserva Federal de
Estados Unidos, a hablar de los posibles
beneficios de utilizar la Teoria del Valor Extremo
en la evaluacion del riesgo financiero.

Este tipo de consejo podia haber ayudado a


evitar una catastrofe financiera aun mayor que
ocurrio tres anos despues. En el verano de 1998,
la economia de Rusia cayo en picado y su
gobierno hizo lo impensable: no realizo los pagos
de la deuda interna del pais. Era una medida sin
precedentes que cogio por sorpresa a todo el
mundo, en especial a una enorme compania de
fondos de cobertura estadounidense, Long Term
Capital Management, que se vio sorprendida por
unas perdidas de casi 152.000 millones de euros.
Importantes bancos rescataron a Long Term

407
Capital Management, pero la experiencia fue
horrible: el peor de los panoramas de la
compania solo era un 60% mas desfavorable de
lo que realmente llego a ser.

Tras el descalabro, las inquietudes se centraron


en la forma en que los gestores de fondos
financieros estimaban los riesgos. Con
posterioridad se descubrio que Long Term Capital
Management habia utilizado metodos que
asumen perdidas que siguen una distribucion de
Gauss. Pero, como habian advertido setenta
anos antes los matematicos, las perdidas mas
extremas siguen una distribucion diferente, que
probablemente infravalore en gran medida las
perdidas reales. Long Term Capital Management
habria logrado protegerse mejor de lo impensable
si hubiera seguido el consejo de Greenspan y
hubiera utilizado los metodos de la Teoria del
Valor Extremo para evaluar su riesgo.

408
En la actualidad, la conciencia sobre el poder de
la Teoria del Valor Extremo se esta extendiendo
incluso a muchos mas campos, desde la biologia
humana hasta la ingenieria maritima. En la
Universidad Erasmus de Rotterdam, Laurens de
Haan y sus colaboradores han utilizado la Teoria
del Valor Extremo para intentar resolver el
misterio de la duracion maxima de la vida de los
seres humanos. Analizando los registros de la
duracion de la vida de los <<<viejos mas
viejos>>>, han encontrado pruebas de que la
duracion de vida final de los seres humanos, la
mas extrema, es de aproximadamente ciento
veinticuatro anos. Hasta la fecha, parece que es
verdad: la persona mas vieja con datos
corroborados fue Jeanne Calment (Francia), que
murio en 1997 a la edad de ciento veintidos
anos41.

Los metodos de la Teoria del Valor Extremo


tambien se estan utilizando para resolver

409
misterios mas tragicos. En 1980, el gigante
buque granelero Derbyshire se hundio en Japon,
con sus cuarenta y cuatro tripulantes, a causa
de un tifon. Durante anos surgieron preguntas
respecto a si el barco fue victima de un diseno
defectuoso o si la causa fue una deficiente
navegacion, conclusion a la que se llego en 1997
en la investigacion publica. Tres anos despues,
una segunda investigacion exonero a la
tripulacion, despues de que el profesor Jonathan
Tawn y la doctora Janet Heffernan, expertos en
la Teoria del Valor Extremo de la Universidad de
Lancaster, ayudaran a descubrir la causa real:
una ola inesperada y violenta que destrozo la
escotilla de popa del barco. De resultas de la
investigacion se recomendo que se reforzaran
sustancialmente las escotillas para afrontar tales
sucesos.

Como resultado, los marineros se han unido a los


millones de personas de todo el mundo cuyas

410
vidas son ahora mas seguras gracias a las
matematicas esotericas de la Teoria del Valor
Extremo.

DISTRIBUCION GAUSSIANA

Esta distribucion toma su nombre de Carl Gauss,


matematico aleman del siglo XVIII (aunque la
descubrio antes el matematico frances Abraham
de Moivre). Esta curva en forma de campana
muestra la pre-valencia de caracteristicas —como
el coeficiente intelectual, la altura o el peso— que
tienen un valor medio pero estan sujetas a
variaciones aleatorias. La <<<joroba>>> central
muestra que el valor medio es el mas frecuente,
mientras que los lados en declive reflejan la
existencia de cifras mas pequenas con valores

411
mas inusuales, mayores y menores que la
media.

?CUANDO SON LOS RESULTADOS


DEMASIADO BUENOS
PARA SER CIERTOS?

Cada cuatro anos los atletas de todo mundo


intentan establecer nuevas marcas en los Juegos
Olimpicos. Pero a veces no se superan
simplemente las marcas, sino que resultados
nunca vistos las echan por tierra. ?Es posible que
un resultado sea demasiado bueno para ser
cierto? Esta es una pregunta que puede
abordarse si se utiliza la Teoria del Valor
Extremo.

412
Tomemos el caso de Wang Junxia, importante
corredora china de media distancia de la decada
de 1990. En el campeonato nacional celebrado
en Beijing el 13 de septiembre de 1993, corrio los
3.000 metros en un tiempo asombroso, de 8
minutos y 6 segundos, haciendo anicos la marca
previa establecida nueve anos antes por una
asombrosa diferencia de 17 segundos. ?Era solo
un resultado increible o habia hecho trampa? Los
analisis para detectar drogas o farmacos
prohibidos fueron negativos, pero hasta la fecha
muchos comentaristas afirman que Wang tenia
que haber hecho trampa. Los matematicos
Michael Robinson y Jonathan Tawn (Universidad
de Lancaster) decidieron ver que podia aportar la
Teoria del Valor Extremo a esta polemica.
Usando registros pasados, calcularon el tiempo
mas extremo —es decir, el mas breve— que
fuera plausible conforme a las tendencias
actuales. El analisis demostro que aunque el
record de Wang era asombroso, era aun 3

413
segundos menor que el tiempo mas breve
plausible basandose en los registros previos.

Cronologia

1709 El matematico suizo Nicolas Bernoulli


plantea por vez primera el concepto de los
valores extremos en un problema
geometrico simple referente a los puntos
de una linea.

1928 R. A. Fisher, matematico de


Cambridge, junto con L. H. C. Tippett
desarrollan las matematicas basicas de la
Teoria del Valor Extremo.

1953 Una serie de tormentas intensas


rompe las defensas maritimas de los

414
Paises Bajos, acabando con la vida de
1.800 personas. Se utiliza la Teoria del
Valor Extremo para comprobar el diseno de
las nuevas defensas.

1958 Emil Gumbel (Universidad de


Columbia, Nueva York) publica el primer
libro de texto sobre la Teoria del Valor
Extremo, y hace que muchas personas
ajenas al ambito academico conocieran su
poder.

1993 La atleta china Wang Junxia hace


anicos el record mundial de los 3.000
metros por una diferencia de 17 segundos.
La Teoria del Valor Extremo ayuda a
acallar las acusaciones de consumo de
drogas.

1994 Laurens de Haan y Karin Aarsen


(Universidad Erasmus, Rotterdam) utilizan
la Teoria del Valor Extremo para calcular la

415
duracion maxima de la vida humana, que
establecen en ciento veinticuatro anos.

1995 La quiebra del banco Barings y el


descubrimiento del fraude en el banco
Daiwa de Japon suscitan la inquietud
respecto a los metodos convencionales
para minimizar los riesgos.

El descalabro economico lleva a Alan


Greenspan, presidente de la Reserva
Federal de Estados Unidos, a hablar de los
posibles beneficios de utilizar la Teoria del
Valor Extremo en la evaluacion del riesgo.

1996 Tras el estudio de las defensas


maritimas britanicas mediante la Teoria del
Valor Extremo se advierte que son
demasiado bajas para afrontar tormentas
en el futuro inmediato.

1998 Uno de los mayores fondos de

416
cobertura, Long Term Capital
Management, llega casi a la ruina,
destacando la necesidad de evaluar mejor
el riesgo.

2000 Matematicos de la Universidad de


Lancaster utilizan la Teoria del Valor
Extremo para ayudar a los investigadores
a resolver el enigma del hundimiento del
Derbyshire, y a hacer recomendaciones en
materia de seguridad.

Citas

38

Los fenomenos extremos en el espacio


profundo pueden afectar la vida en la
Tierra. En noviembre de 2003, el Sol ataco
a nuestro planeta con la mayor erupcion

417
solar que se haya registrado, con
particulas que alcanzaron la capa superior
de la atmosfera a una velocidad superior a
ocho millones de kilometros por hora. Fue
preciso modificar las rutas de los aviones
para eludir la elevada radiacion cosmica.

39

Las companias aseguradoras se han


basado durante mucho tiempo en reglas
generales simples para calibrar la
probabilidad de sufrir grandes golpes a
consecuencia de desastres. Actualmente la
Teoria del Valor Extremo esta ayudando a
encontrar reglas mas fiables para
amenazas especificas, como las tormentas
tropicales.

40

El picaro operador Nick Leeson fue

418
responsable de uno de los acontecimientos
financieros extremos mas notables de la
Historia. Una serie de malas transacciones
en el banco mercantil Barings le llevo a
acumular perdidas de mas de 1.300
millones de euros.

41

Jeanne Calment (Francia) fue noticia en


1995, cuando se convirtio en la persona
mas vieja de la Historia, con ciento veinte
anos. Moria dos anos despues, a la edad
de ciento veintidos anos. Segun la Teoria
del Valor Extremo, los seres humanos
pueden vivir incluso mas.

419
EN LA SALUD Y
EN LA ENFERMEDAD

420
16
Medicina basada en pruebas cientificas

En pocas palabras

Durante siglos los medicos han tomado decisiones vitales


sobre la mejor forma de tratar a sus pacientes basandose,
como, mucho, en unas cuantas pruebas cientificas. Por lo
general, las pruebas de los nuevos tratamientos se
llevaban a cabo en unos pocos pacientes, y los resultados
a menudo eran contradictorios. La aparicion de las tecnicas
estadisticas para dar sentido a los experimentos llevaron
en la decada de 1940 a los ensayos controlados
aleatorios, en los que los pacientes se eligen y distribuyen
al azar para que reciban el nuevo tratamiento, uno ya
existente o simplemente un placebo. El primero de estos
ensayos, que realizaron cientificos del Medical Research
Council del Reino Unido, fue tan satisfactorio que estos
ensayos se convirtieron en el nucleo de un nuevo
movimiento conocido como medicina basada en pruebas
cientificas.

La medicina basada en pruebas cientificas ha ayudado a

421
los medicos a aportar pruebas claras y objetivas sobre la
razon por la que funciona o no un tratamiento, y ha
supuesto enormes beneficios para los pacientes. Incluso
asi, los criticos senalan que no ha conseguido poner fin a la
polemica sobre que tratamiento es mejor para cada
paciente en particular.

A sir Lancelot Spratt, el especialista mas


importante del St. Swithins Hospital, no le
gustaba que se cuestionaran sus juicios clinicos.
Si decia que habia que tratar a un paciente con
un determinado farmaco, eso era lo que se debia
hacer y fin de la discusion. Pobre del joven
medico que sugiriera que algun nuevo farmaco
podria ser mejor. Sir Lancelot podia ser solo un
personaje de ficcion de la pelicula clasica Doctor in
the house, de la decada de 1950, pero su actitud
habia captado la forma, a vida o muerte, en que
se tomaban las decisiones medicas en aquella
epoca (entre otras razones porque su creador,
Richard Gordon, fue medico). Los imperiosos
especialistas recurririan a anos de experiencia

422
personal, conocimientos y perspicacia para
alcanzar lo que al menos ellos consideraban
decisiones de infalibilidad divina.

Sin embargo, aunque tales especialistas, sin


duda, tenian mucha experiencia, pocos parecian
darse cuenta de hasta que punto sus
conocimientos habian superado su periodo de
caducidad. Los anos de posguerra marcaron el
inicio de una explosion en la investigacion medica,
produciendose en los laboratorios gran cantidad
de nuevos tratamientos para enfermedades que
iban desde la tuberculosis hasta la leucemia42.

Lo que necesitaban con urgencia los


investigadores medicos era un modo de
comparar estos tratamientos y de evaluar su
eficacia. Y lo que precisaban los pacientes eran
especialistas y medicos generales que estuvieran
al tanto de estos grandes avances y basaran su
eleccion terapeutica en algo mas que viejos

423
prejuicios y discursos amenazadores. Estas
demandas supusieron la aparicion de uno de los
avances medicos mas influyentes y polemicos de
la historia moderna: la medicina basada en
pruebas cientificas. Tras ese termino
aparentemente inocuo se esconden cuestiones
que han provocado gran polemica tanto entre los
medicos como entre los investigadores medicos.

No resulta sorprendente que el debate se centre


en la fiabili-dad de las pruebas necesarias para
practicar la medicina basada en datos cientificos.
Segun sus partidarios, esto supone hacer un uso
claro y consciente de las mejores pruebas
disponibles en un determinado momento sobre,
por ejemplo, el tratamiento del cancer. Esto
implica utilizar pruebas obtenidas en ensayos
clinicos, en los que se compara a los pacientes
tratados, por ejemplo, con un nuevo farmaco
contra la leucemia, con aquellos que reciben
tratamiento convencional o incluso un placebo sin

424
efecto alguno.

En teoria, tales ensayos pueden proporcionar


pruebas claras de la eficacia o la ineficacia de
tratamientos que salvan vidas. Pero existe una
creciente preocupacion respecto a que tales
ensayos no son lo que parecen. Muchos medicos
sospechan que los resultados son a menudo
enganosos, debido a que los pacientes de los
ensayos son escogidos y por tanto no son
representativos de los pacientes tipicos. Con
frecuencia los ensayos son financiados por
grandes companias farmaceuticas, lo que suscita
el temor a que se manipulen los resultados para
que den la respuesta <<<correcta>>> o incluso
se supriman. Aun asi, muchos medicos insisten
en que la medicina basada en pruebas cientificas
es mucho mejor que la antigua manera de
establecer los juicios medicos, y ha supuesto
algunos exitos espectaculares. Ya en 1747, el
fisico escoces James Lind43 utilizo un simple

425
ensayo clinico para enfrentarse al azote de los
navios de todo el mundo: el escorbuto.

Desde los tiempos de Cristobal Colon, los


medicos habian observado que los marineros que
emprendian largos viajes caian victimas de una
enfermedad que comenzaba con inflamacion de
las encias y caida de los dientes, luego lasitud,
hemorragias y muerte. En la epoca de Lind, el
escorbuto se cobraba las vidas de hasta el 40%
de los marineros de la Armada Real que
emprendian largos viajes, porcentaje mucho
mayor que el de los muertos a causa de las
heridas de guerra.

Lind estaba convencido de que la causa se


encontraba en la deficiente dieta de los
marineros; en mayo de 1747 comenzo un
estudio que cambiaria el curso de la historia
britanica. Encontro a seis pares de pacientes que
tenian sintomas muy similares y les administro

426
dietas identicas, junto con los tratamientos que
creia que podrian aliviar sus sintomas, desde
cuartos de galon de sidra hasta elixires bucales
potentes. Al cabo de una semana, uno de los
tratamientos —una racion diaria de naranjas y
limones— demostro ser asombrosamente eficaz.
Los tres pacientes que tomaron la fruta se
recuperaron por completo de su afeccion mortal.

El uso innovador de Lind de la medicina basada


en pruebas cientificas habia sacado a la luz el
primer tratamiento eficaz del escorbuto (ahora se
sabe que se debe a la carencia de vitamina C).
Sin embargo, el confuso relato de Lind y la
escasez de datos no lograron convencer al
almirantazgo, que tardo otros cuarenta anos en
hacer que los citricos formaran parte de las
raciones de los navios. Cuando se introdujeron
estas frutas en la dieta, tuvieron un efecto
espectacular tanto en la salud de las tripulaciones
como en la Historia: en la batalla de Trafalgar, en

427
1805, la Armada Real estaba en plena forma,
mientras que la francesa tuvo que dejar una
tercera parte de su flota amarrada en puerto
debido a que sus tripulaciones padecian el
escorbuto.

Pese a esta demostracion clara del valor de la


medicina basada en pruebas cientificas, la idea
de realizar ensayos y obtener datos de la forma
mas objetiva posible no consiguio imponerse
entre los investigadores medicos, que en su
mayoria carecian de la pericia matematica
necesaria para analizar los resultados.
Comenzaron a surgir el tipo de tecnicas
necesarias primero en otros campos, como la
agronomia. En 1925, el matematico britanico
Ronald Fisher, uno de los fundadores de la
estadistica moderna, proporciono a los cientificos
un conjunto de herramientas para dar sentido a
los datos, en una obra de referencia titulada
Metodos estadisticos para investigadores. Entre

428
ellas habia <<<pruebas de significacion>>>
disenadas para demostrar si, por ejemplo, eran
realmente convincentes las diferencias entre los
pacientes a los que se administra un nuevo
farmaco y los que no lo recibian.

En la decada de 1940 tuvo lugar un importante


avance, cuando el Medical Research Council del
Reino Unido llevo a cabo ensayos en los que se
incorporaron conceptos que en la actualidad
constituyen la base de la medicina basada en
pruebas cientificas: el doble enmascaramiento y
la aleatorizacion. En 1946, el Medical Research
Council comenzo ensayos con <<<doble
enmascaramiento>>> de una vacuna contra la
tos ferina y el uso de un antibiotico, la
estreptomicina, para tratar la tuberculosis; el
doble enmascaramiento implicaba que ni los
pacientes ni los medicos que los trataban sabian
el tratamiento que se estaba administrando, con
el fin de impedir que los pacientes o los medicos

429
se enganaran observando efectos que no eran
reales. Segun las recomendaciones del estadistico
medico britanico Austin Bradford Hill, tambien se
eligio aleatoriamente a los pacientes que debian
ser tratados y a los que no. Esto ayudaba a
reducir el riesgo de que los pacientes que recibian
el tratamiento fueran de algun modo inusuales,
dando, por tanto, una falsa impresion de la
eficacia del farmaco.

El exito de estos estudios en lo que respecta a la


demostracion de la eficacia de la vacuna y del
antibiotico hizo que tales <<<ensayos
controlados aleatorios>>> se convirtieran en la
prueba de referencia de los nuevos tratamientos
medicos. Los ensayos controlados aleatorios
constituyen actualmente la base de la medicina
basada en pruebas cientificas, proporcionando a
los medicos pruebas solidas en las que basar sus
decisiones. O al menos eso es lo que parece; la
realidad demuestra ser mas compleja. En cuanto

430
los ensayos controlados aleatorios entraron en la
corriente dominante, surgio el temor de que
muchos ensayos incluyeran a un numero de
pacientes demasiado escaso para demostrar si
en realidad un farmaco era util. El resultado fue
un monton de resultados <<<falsamente
negativos>>>, fracasando los ensayos
pequenos en su intento de revelar el autentico
beneficio de los farmacos.

Durante la decada de 1980, los investigadores


medicos comenzaron a utilizar una tecnica
desarrollada anos antes por fisicos que
prometieron combatir el problema de los ensayos
pequenos. Este metodo, conocido como
<<<metaanalisis>>>, permitia combinar los
resultados de muchos de tales ensayos,
potenciando su capacidad de detectar incluso
pequenos beneficios, que no obstante podian
salvar miles de vidas. En 1985 los investigadores
aplicaron el <<<metaanalisis>>> a mas de

431
treinta pequenos ensayos de un farmaco
denominado estreptocinasa, utilizado para el
tratamiento del infarto de miocardio. La mayoria
de los ensayos no habian logrado detectar ningun
beneficio; sin embargo, el <<<metaanalisis>>>
revelo que el farmaco podia salvar la vida de
aproximadamente una cuarta parte de los
pacientes tratados con el44.

A finales de la decada de 1980, la profusion de


informacion procedente de los ensayos
controlados aleatorios y del
<<<metaanalisis>>> amenazaron con superar
a muchos que intentaban entenderla. Entre ellos
estaba un antiguo tocologo, Iain Chalmers, que
decidio crear un centro en Oxford dedicado a
revisar y resumir los ultimos datos sobre
tratamientos medicos de forma que los medicos
pudieran obrar en consecuencia. Lanzado en
Oxford, en 1993, como la Cochrane
Collaboration, pronto se convirtio en parte

432
fundamental del movimiento de la medicina
basada en pruebas cientificas, que para entonces
se habia generalizado en la profesion medica45.
Pero justo dos anos despues, los partidarios de la
medicina basada en pruebas cientificas se
tambalearon debido a los resultados de un
estudio que ensombrecieron todo el concepto. A
principios de la decada de 1990, un
<<<metaanalisis>>> de pequenos ensayos
llevo a los medicos a considerar al sulfato de
magnesio como un <<<tratamiento eficaz,
seguro, simple y barato>>> del infarto de
miocardio. Pero en 1995, un gran ensayo
controlado aleatorio que incluyo a 58.000
pacientes llego a la conclusion de que el sulfato
de magnesio carecia de utilidad. ?Que habia
salido mal y que tenian que creer los medicos?

Cribando las pruebas, los estadisticos hicieron


algunos descubrimientos inquietantes. Habia
signos de que el <<<metaanalisis>>> no habia

433
logrado incluir estudios que mostraran resultados
negativos; lo que se sospechaba era que los
investigadores y las revistas simplemente no se
molestaban en publicar <<<malas noticias>>>.
Por otro lado, parecia que en el gran ensayo
controlado aleatorio se incluyo a pacientes
relativamente sanos que habian sido tratados
relativamente tarde, lo que pudo hacer que el
tratamiento pareciera menos eficaz de lo que
realmente era.

En 2002, los resultados de otro importante


ensayo controlado aleatorio tampoco
consiguieron encontrar ningun beneficio del
tratamiento con magnesio. Sin embargo, aunque
esto deberia haber puesto fin a la polemica,
algunos expertos siguen insistiendo en que los
resultados todavia no son concluyentes.

El desastre de sulfato de magnesio destaco un


hecho inoportuno respecto a la medicina basada

434
en pruebas cientificas: pese al uso de metodos
aparentemente <<<objetivos>>>, como los
ensayos controlados aleatorios, los expertos
medicos pueden seguir discutiendo sin fin sobre
los resultados y su Habilidad. En 1998,
investigadores que trabajaban para la Cochrane
Collaboration fueron noticia con un estudio que
indicaba que un tratamiento convencional de los
pacientes quemados no solo era ineficaz sino que
realmente era peor que eso: el numero de
pacientes a los que mataba era mayor que la
cantidad de enfermos a los que salvaba. Otros
estudios no consiguieron confirmar este riesgo y
muchos hospitales siguen usando el tratamiento.

Tambien estan surgiendo pruebas de que


algunos investigadores escogen a los pacientes
que van a participar en los ensayos controlados
aleatorios, mientras que otros buscan en los
datos en bruto resultados positivos que es mas
probable que capten el interes de las revistas

435
medicas. Muchos ensayos tampoco han logrado
aclarar su fuente de financiacion, pese a que las
pruebas demuestran que, en comparacion con
los estudios independientes, es mucho mas
probable que estos ensayos financiados por las
empresas farmaceuticas afirmen haber obtenido
resultados positivos.

Desde el innovador trabajo de Lind sobre el


escorbuto, los metodos de la medicina basada en
pruebas cientificas han salvado innumerables
vidas. Aunque no sean una panacea, pocos son
los que querrian volver a los discursos
amenazadores de sir Lancelot Spratt.

NARANJAS, LIMONES Y ESCORBUTO

436
Durante siglos los sintomas del escorbuto
aterrorizaron a los marineros. Los primeros
signos parecian triviales: dolores y sensacion de
cansancio. Pero luego aparecian signos
inconfundibles: diminutas ampollas llenas de
sangre y manchas en las piernas, encias
hinchadas y caida de dientes. Sin tratamiento, a
la lasitud le seguia la inconsciencia y finalmente la
muerte.

Los citricos prevenian y curaban la enfermedad


aportando acido ascorbico (vitamina C),
compuesto que se necesita en la reaccion
bioquimica de sintesis del colageno, la proteina
que forma el tejido conjuntivo y el hueso que
dan cohesion al cuerpo. Sin vitamina C, el
colageno no es suficientemente robusto para
realizar su funcion crucial y comienza a
desintegrarse, con resultados previsiblemente
mortales.

437
LA MALDICION DE LOS ESTUDIOS CON
<<<ESCASA POTENCIA>>>

Los cientificos medicos consideran los ensayos


controlados aleatorios con doble
enmascaramiento como prueba ultima de la
eficacia o la ineficacia de un tratamiento. Sin
embargo, incluso los ensayos controlados
aleatorios pueden dar resultados muy enganosos
si no logran incluir un numero suficiente de
pacientes.

Los estudios han revelado que muchos ensayos


que refieren resultados negativos en realidad
tienen <<<escasa potencia>>>, lo que significa
que simplemente son demasiado pequenos para
detectar beneficios medicos potencialmente

438
importantes.

Una de las victimas mas frecuentes de estos


estudios con escasa potencia son los
tratamientos alternativos y complementarios,
como la acupuntura. A falta de grandes
multinacionales interesadas en financiar estudios
importantes, tales tratamientos se estudian a
menudo en ensayos pequenos y de bajo coste
que son apoyados por organizaciones beneficas,
por lo que es casi inevitable que no consigan
encontrar pruebas convincentes.

Cronologia

1747 El fisico naval escoces James Lind


lleva a cabo ensayos de diversos
tratamientos para el escorbuto en una

439
docena de marineros y descubre que los
citricos son el remedio para la enfermedad.

1925 El estadistico Ronald Fisher publica


Metodos estadisticos para investigadores,
en el que establece las tecnicas para
probar la <<<significacion>>> de los
nuevos descubrimientos de investigaciones.

1943 El Medical Research Council (MRC)


del Reino Unido comienza una investigacion
sobre el tratamiento del resfriado comun
con patulina en un innovador ensayo
controlado con <<<doble
enmascaramiento>>>.

1946 Austin Bradford Hill persuade al


Medical Research Council para que realice
ensayos controlados aleatorios de la
vacuna contra la tos ferina y el tratamiento
con estreptomicina.

440
1967 El bioestadistico canadiense David
Sackett crea un departamento en la
McMaster University que se convierte en el
hogar del movimiento de la medicina
basada en pruebas cientificas.

1976 El estadistico Gene Glass


(Universidad del Estado de Arizona) acuna
el termino de <<<metaanalisis>>> para
designar las tecnicas utilizadas para extraer
conclusiones de recopilaciones de ensayos.

1993 La Cochrane Collaboration del Reino


Unido, que toma su nombre del
epidemiologo Archie Cochrane, se
establece como centro mundial para la
evaluacion de las ultimas pruebas sobre
tratamientos medicos.

1995 Un importante ensayo revela que


las inyecciones de magnesio carecen de
valor para los pacientes que sufren un

441
infarto de miocardio, lo que contradice los
resultados de un
<<<metaanalisis>>>>>> de muchos
ensayos pequenos.

1998 Una polemica revision Cochrane de


las pruebas obtenidas en ensayos clinicos
sobre el tratamiento con albumina,
ampliamente utilizada en los pacientes con
quemaduras, demuestra que no solo
carece de utilidad, sino que en realidad es
perjudicial46.

1999 Se crea en Estados Unidos el


National Institute for Clinical Excellence
(NICE) para garantizar que el Servicio de
Salud Nacional utiliza tratamientos
apoyados por las mejores pruebas
disponibles.

2003 hasta la fecha Cada vez son mas

442
las pruebas de que las empresas
farmaceuticas suprimen los datos
47
inconvenientes , aumentando el riesgo de
llegar a conclusiones enganosas.

Citas

42

Los ultimos cincuenta anos han sido la


edad de oro de los descubrimientos de
farmacos. Antibioticos como la
estreptomicina curan enfermedades como
la tuberculosis, mientras que la levodopa y
la clorpromazina actuan en afecciones
como la enfermedad de Parkinson y la
esquizofrenia, respectivamente. Mientras
tanto, farmacos antineoplasicos como la
vincristina han aumentado mil veces las
tasas de supervivencia en la leucemia

443
infantil.

43

James Lind, nacido en Edimburgo en 1716,


no era mas que un modesto ayudante de
cirugia cuando realizo su famoso estudio
comparativo de los remedios para el
escorbuto en 1747. El siguiente ano, Lind
inicio un estudio medico formal, publicando
su investigacion sobre el escorbuto en
1753. El fracaso de Lind a la hora de
convencer al almirantazgo de los beneficios
de los citricos no se debio solo a la
estupidez burocratica: los resultados de su
investigacion eran confusos y, en cualquier
caso, ni siquiera Lind podria explicar por
que funcionaban los criticos. Pasaron
cuarenta anos antes de que se expusieran
argumentos a favor y se incluyeran los
citricos en las raciones de la Armada Real,

444
en 1795, un ano despues de la muerte de
Lind.

44

Uno de los medicamentos milagrosos de la


posguerra, la enzima estreptocinasa, ha
salvado miles de vidas disolviendo coagulos
potencialmente mortales que circulan en el
torrente sanguineo. La estreptocinasa
actua combinandose con el plasminogeno,
un constituyente del plasma sanguineo,
para formar una enzima que ataca a la
fibrina, el material fibroso que constituye la
base de los coagulos sanguineos.

45

El poder de la medicina basada en pruebas


cientificas se refleja en el logotipo de la
Cochrane Collaboration, que muestra los
resultados de ensayos de corticoesteroides

445
administrados a mujeres que estaban a
punto de tener un parto prematuro. Ya en
1972 surgieron resultados positivos,
aunque la ausencia de una organizacion del
estilo de la Cochrane implico que la mayoria
de los medicos no los conocieran,
produciendose decenas de miles de
muertes que hubieran podido prevenirse.

46

Al ser la proteina mas abundante de la


sangre, la albumina desempena una
importante funcion de mantenimiento de la
presion del liquido celular, permitiendo el
flujo de entrada y de salida de compuestos
vitales en las celulas. Dado que los
pacientes que sufren quemaduras a
menudo presentan una perdida masiva de
liquidos y proteinas, los medicos creian que
era coherente reemplazar la albumina. Sin

446
embargo, estudios recientes han puesto en
duda esta practica.

47

La renuencia de los investigadores y las


revistas a publicar resultados negativos se
conoce como sesgo de publicacion, y
puede tener una repercusion importante en
los intentos de determinar la eficacia real
de un farmaco. Los estadisticos han
concebido maneras de detectar el sesgo
de publicacion, pero no es nada sencillo
compensar el punto de vista falsamente
optimista de la eficacia de un farmaco que
crea este sesgo.

447
17
Epidemiologia

En pocas palabras

Durante siglos, los medicos han sospechado que existen


relaciones entre las afecciones medicas y factores como
las condiciones de salubridad, el trabajo o la dieta. Sin
embargo, suele ser muy dificil probar que tales relaciones
son reales, ya que suelen haber muchas explicaciones
alternativas. La epidemiologia comenzo aproximadamente
hace 150 anos con descripciones simples del entorno y las
condiciones de las personas afectadas por ciertas
enfermedades, y con mapas que revelaban los lugares de
alta prevalencia. A principios del siglo XX, estos metodos
descriptivos comenzaron a dar paso a formas sofisticadas
de comparar grupos de personas para descubrir factores
de riesgo implicados en dolencias especificas, o para
detectar los factores comunes a las personas no afectadas
por la enfermedad. Los metodos estadisticos ayudaron a
evaluar la probabilidad de que los datos fueran mera
casualidad o el resultado de otra causa oculta. Hoy en dia,
la epidemiologia se dedica a probar gran cantidad de

448
cuestiones, desde los peligros de los telefonos moviles a
los beneficios de tomar vino tinto.

Cada ano, millones de turistas visitan la region


noroccidental de Gales para disfrutar de la
espectacular campina de Gwynedd. Con su
mundialmente famoso Parque Nacional de
Snowdonia y su bella costa, parece idilica —una
parte del mundo a salvo de los problemas de
nuestro tiempo.

La realidad es muy diferente. De modo


sorprendente, la region sigue estando afectada
por las repercusiones del desastre nuclear de
Chernobyl de 1986, cuya lluvia radioactiva asolo
esta parte particularmente accidentada y lluviosa
de Europa. Hasta ahora, los efectos se han
dejado sentir sobre todo en los granjeros de
Gwynedd, cuyo ganado esta sujeto a
restricciones de movimientos y ventas. A
principios del ano 2004 surgio una posibilidad

449
mucho mas inquietante. Las estadisticas oficiales
revelaban que las personas que vivian en la
region tenian tasas de cancer superiores a la
media.

Existe un temor comprensible de que estos


canceres, que estan surgiendo dieciocho anos
despues del incidente de Chernobyl, sean el
resultado directo de la lluvia radioactiva. Pero
aunque este temor sea comprensible, ?esta
realmente justificado? Para averiguarlo, los
cientificos estan utilizando tecnicas de una de las
disciplinas mas importantes y controvertidas de la
ciencia moderna: la epidemiologia.

Este termino, que literalmente se refiere al


estudio de las epidemias, tiene raices griegas
(‘entre la gente’)48 que captan el sentido mas
amplio de la epidemiologia: el estudio de los
efectos sobre la salud de grupos de personas.
Aunque sus origenes se encuentran en el

450
conocimiento de las enfermedades infecciosas,
su campo de accion se ha ampliado mucho mas,
yendo desde la identificacion del riesgo de cancer
por el tabaquismo hasta la comprobacion de los
efectos de las dietas vegetarianas sobre la salud.

A menudo esto constituye un reto dificil, que


implica un cuidadoso seguimiento de la salud de
miles de personas durante muchos anos.
Tambien existen muchos escollos. Un aumento
aparente de las tasas de cancer puede deberse
simplemente al azar, una posibilidad que solo
puede descartarse utilizando analisis estadisticos
sofisticados. Por ejemplo, en Gwynedd, la tasa
de cancer rectal es un 50% mayor que en el
resto de Gales, lo que parece espectacular, pero
realmente solo supone un caso mas por cada
10.000 personas.

Ademas de investigar si estos casos adicionales


pueden deberse solo a la casualidad, los

451
cientificos evaluaron su plausibilidad inherente.
Los canceres de recto y de mama que
suscitaron los temores en la zona no son del tipo
que normalmente se relaciona con la exposicion a
la radioactividad. Por otra parte, la tasa de
leucemia —que se relaciona con la radiacion— es
inferior a la media. Esto ha llevado a algunos
cientificos a sospechar que los canceres de
Gwynedd se deben en realidad a factores como
la dieta.

Aunque los epidemiologos utilizan ahora los


ultimos metodos estadisticos y tecnologia
informatica para analizar estas posibilidades, su
objetivo es el mismo que el de los pioneros de la
epidemiologia: resolver el misterio de la salud y la
enfermedad en el seno de un grupo de gente.

El misterio de un cancer que afectaba a los


deshollinadores londinenses fue lo que en el siglo
XVIII atrajo la atencion de sir Percivall Pott49,

452
eminente cirujano del St. Bartholomew’s Hospital.
Pott observo que los deshollinadores la region
parecian ser especialmente propensos a una
forma de cancer de piel. Dado que el cancer
parecia afectar solo a los adultos, una posible
explicacion era que se tratara de una
enfermedad venerea. Pero Pott sospechaba que
la causa verdadera era la exposicion constante al
hollin. Su articulo sobre la prevalencia de la
enfermedad, publicado en 1775, fue el primero
en identificar una causa de cancer en un grupo
especifico de gente, convirtiendose en el primer
estudio epidemiologico. Al igual que ocurrio con
muchos estudios posteriores, tambien indujo a
tomar medidas para proteger a las personas que
estaban en riesgo, pese a que se desconociera la
causa precisa del riesgo para la salud (en el caso
del hollin, no se identifico hasta 150 anos
despues).

Incluso en fechas tan tardias como la decada de

453
1850, no se conocia la causa de las
enfermedades infecciosas, y los medicos todavia
se aferraban a conceptos medievales como los
<<<miasmas>>>50. La epidemiologia
proporciono claves cruciales para conocer la
verdad. En 1842, Edwin Chadwic llevo a cabo un
estudio oficial de las condiciones de la fuerza de
trabajo de Inglaterra en el que se descubrio una
relacion directa entre salud y enfermedad y las
condiciones de salubridad deficientes. Tras ello
vino una comision real, que supuso la creacion de
un comite de salud nacional para coordinar
cuestiones basicas referentes a las condiciones
de salubridad, desde la limpieza de las calles
hasta la eliminacion de basuras.

Por la misma epoca, un estudio sobre la


diseminacion del sarampion en las islas Feroe,
situadas entre Islandia y las islas Shet-lands, llevo
al fisico danes Peter Panum a la conclusion de
que la enfermedad se habia diseminado a traves

454
de cierto tipo de agente contagioso. Se trataba
de una teoria que se confirmaria dramaticamente
durante el brote de colera tuvo lugar en Londres
en 1854.

John Snow, un fisico que vivia en el Soho, creia


que la causa era el agua contaminada; habia
estudiado un brote previo en el sur de la capital y
observo que esos sintomas eran coherentes con
la ingestion de un agente. En los tres dias
posteriores al inicio del nuevo brote, murieron
mas de 100 personas en el barrio de Snow.
Mientras otros abandonaban la zona, Snow
permanecio ahi y recopilo tratos con la esperanza
de que confirmaran su teoria.

Determinando la localizacion de cada caso, Snow


encontro que la mayoria de las muertes se
produjeron a poca distancia de una bomba de
agua situada en la esquina de Broad Street y
Cam-bridge Street. Presento sus descubrimientos

455
a la junta de distrito local, y les persuadio para
que quitaran la manivela de la bomba. Al cabo de
unos dias el brote ceso, y Snow se quedo
convencido de que habia encontrado la causa.
Sin embargo, le resulto mucho mas dificil
convencer a otros y, tal como ahora parece, no
sin razon. Un informe oficial concluyo que los
datos de Snow constituian un apoyo inadecuado
de sus afirmaciones respecto a una infeccion
transmitida por el agua, y las letrinas y las
cloacas abiertas seguian contaminando los
suministros de agua.

El innovador estudio epidemiologico de Snow era


simple segun los estandares modernos; por
desgracia, tuvo que producirse un simple caso de
causa y efecto para vindicarle. A finales de la
decada de 1850 comenzo un programa masivo
de construccion de cloacas, y al cabo de un
decenio se disponia de agua sin contaminar
practicamente en todo Londres —sin contar,

456
claro esta, el East End, que en 1866 fue la unica
zona de la capital abatida por el colera.

La ciencia de la epidemiologia recibio un


importante impulso aproximadamente hace un
siglo, con la aparicion de los metodos estadisticos
para obtener informacion de los datos. En 1912,
Janet Lane-Claypon51 (London School of
Medicine) publico un estudio innovador de dos
grupos (<<<cohortes>>>) de ninos,
alimentados respectivamente con leche de vaca
y con leche materna. Lane-Claypon descubrio
que los ninos que recibieron leche materna
ganaban mas peso y utilizo metodos estadisticos
para demostrar que era improbable que la
diferencia se debiera unicamente al azar.
Tambien investigo si algun otro factor aparte del
tipo de leche podia explicar la diferencia, efecto
conocido como <<<confusion>>>.

Habiendo demostrado la potencia de los estudios

457
de cohortes, Lane-Claypon comenzo a desarrollar
otro tipo clave de investigacion epidemiologica, los
denominados estudios de <<<casos y
controles>>>. En 1923, como parte de una
investigacion gubernamental sobre la causa y el
tratamiento del cancer, Lane-Claypon localizo a
cientos de mujeres con antecedentes de cancer
de mama —los <<<casos>>>— y las comparo
con mujeres que no padecian enfermedad pero
que por lo demas eran muy similares —los
<<<controles>>>—. Esto permitio que Lane-
Claypon identificara muchos factores de riesgo,
como el numero de hijos y la edad a la que se
produce la menopausia, que aun hoy en dia se
reconocen como factores importantes.

Por ultimo, en otro innovador estudio de cohortes


publicado en 1926, Lane-Claypon demostro que
el tratamiento rapido era la clave para la
supervivencia de las mujeres con cancer de
mama. Sin embargo, pese a realizar estos

458
enormes avances, el trabajo de Lane-Claypon no
consiguio tener la repercusion que deberia, en
gran medida porque se caso poco despues y
abandono su actividad cientifica, sin dejar
colaboradores que continuaran su brillante
trabajo.

En la decada de 1950, otros investigadores


habian redescubierto las estrategias de cohortes
y de casos y controles, y las utilizaron para
probar importantes cuestiones medicas. En el
Reino Unido, el espectacular aumento de los
casos de cancer de pulmon —normalmente una
forma rara de la enfermedad— llevaron a Richard
Doll y a Austin Bradford Hill a realizar un estudio
de casos y controles para identificar la causa.
Emparejando a 1.465 de pacientes con cancer
pulmonar con un numero similar de personas que
no parecian enfermedad, Doll y Hill revelaron el
factor clave implicado: el consumo de tabaco.

459
En 1960 se descubrio una relacion similar entre el
tabaquismo y las cardiopatias mediante un gran
estudio de cohortes realizado en 1948 por los
Institutos Nacionales de la Salud de Estados
Unidos. Se obtuvieron datos sobre la salud y el
estilo de vida de mas de cinco mil hombres y
mujeres que vivian en la ciudad de Framingham
(Massachusetts) con la intencion de descubrir los
factores de riesgo de padecer una cardiopatia. El
estudio de Framingham identifico rapidamente
que la hipertension arterial, la obesidad y las
concentraciones elevadas de colesterol eran
factores que contribuian a la cardiopatia,
demostrando la importancia de la dieta y del
ejercicio fisico para la salud.

El estudio se sigue realizando hasta la fecha,


junto con gran cantidad de otros estudios
epidemiologicos sobre los efectos en la salud de
innumerables factores, desde el consumo de
cafe y el uso de telefonos moviles hasta el tipo

460
de personalidad y el estatus social. A menudo los
resultados son sorprendentes: por ejemplo, se
ha demostrado que beber un vaso de vino al dia
es mas sano que no beber ninguno en absoluto,
y que esto reduce el riesgo de cardiopatia. Otros
son asombrosos, como la posibilidad de que la
ausencia de exposicion a germenes en la infancia
aumente el riesgo de alergias y de asma. Esta
<<<hipotesis de la higiene>>>, que se planteo
por vez primera en 1989, sigue siendo
tremendamente polemica52.

La epidemiologia continua configurando las


politicas sanitarias nacionales. Los estudios sobre
las tasas de cancer de pulmon y de cardiopatia
en las personas que viven con fumadores —los
denominados <<<fumadores pasivos>>>— han
supuesto que en todo el mundo se tomen
medidas para prohibir el consumo de tabaco en
lugares publicos. Los trabajadores de numerosas
industrias gozan ahora de mejor salud despues

461
de realizarse estudios epidemiologicos de los
riesgos que afrontan debido a la exposicion a
diversos factores, desde el amianto al polvo de
madera.

Las competencias de los epidemiologos


actualmente se extienden por todo el mundo, ya
que vigilan patrones de enfermedad inusuales y
lanzan advertencias sobre la aparicion de nuevas
infecciones mortales. A finales de la decada de
1970, el aumento desconcertante de las muertes
por formas inusuales de neumonia y cancer
entre los consumidores de drogas por via
intravenosa y los varones homosexuales en
Estados Unidos, presagio la epidemia mundial del
sida. Recientemente los epidemiologos han
desempenado una funcion fundamental en la
contencion de la diseminacion del virus del
sindrome respiratorio agudo grave (SARS). No
existe cura para ninguna de estas enfermedades
mortales, pero es indudable que los

462
epidemiologos han salvado incontables vidas.

En lo que respecta a la salud publica, una


persona prevenida vale por dos.

EL LADO MAS OSCURO DE SNOW

John Snow es considerado como uno de los


heroes de la epidemiologia por descubrir la fuente
de la epidemia de colera que azoto Londres en
1854. Incluso ha tomado su nombre un pub del
Soho que esta cerca del lugar donde se
encontraba la infame bomba de agua de donde
procedia el agua contaminada. Sin embargo, la
investigacion historica reciente ha suscitado
cuestiones sobre su trabajo y su reputacion.

Estudios de los propios datos de Snow sobre el

463
lugar y el momento en que se produjeron las
muertes en el Soho han revelado que la epidemia
de colera se habia desvanecido incluso antes de
que se inutilizara la bomba. Ahora parece que las
conclusiones de Snow se basaron principalmente
no en pruebas, sino en su propia creencia en la
entonces impopular teoria de la enfermedad
causada por germenes.

El brote de colera supuso que se demandara la


implantacion de nuevas leyes de higiene, algunas
de las cuales amenazaban a las fabricas, cuyas
emanaciones de gases cubrian las ciudades. De
modo sorprendente, Snow salio en defensa de
las empresas que se oponian a la legislacion,
afirmando que los trabajadores no podian verse
afectados por la contaminacion atmosferica.
Basaba su argumento en su investigacion del
colera, insistiendo en que las demas
enfermedades tambien se transmitian por el
agua.

464
La extrapolacion absurda de Snow fue criticada
implacablemente por otros cientificos. Aun asi,
cuando se promulgaron las nuevas leyes, fueron
mucho menos draconianas de lo que habian
temido los duenos de las fabricas.

TABAQUISMO: CINCUENTA ANOS DESDE


EL DESCUBRIMIENTO DE DOLL DE LA
RELACION ENTRE EL CANCER DE
PULMON Y EL TABACO

La publicacion en 1954 del estudio de Doll y Hill en


el que se relacionaba el cancer pulmonar con el
tabaquismo dio inicio a una de las mayores
campanas de salud publica de la Historia. Aunque
el British Medical Council declaro de inmediato que
el tabaco era la causa directa del cancer, las

465
primeras advertencias gubernamentales en
materia de salud no aparecieron en los paquetes
de cigarrillos hasta 1971. A principios de la
decada de 1980 comenzo a prestarse atencion a
los riesgos de los no fumadores debidos al
denominado tabaquismo pasivo, y los
epidemiologos iniciaron estudios para determinar
sus efectos sobre la salud. Una revision de los
resultados publicados en 1997 por investigadores
en el St. Bartholomew’s Hospital (Londres)
apuntaban a un riesgo significativo tanto de
cancer pulmonar como de cardiopatias debido al
tabaquismo pasivo, lo que suscito la demanda de
que se prohibiera fumar en las oficinas y los
lugares publicos.

Cronologia

466
1775 El cirujano ingles Percivall Pott
observa la alta prevalencia de ulceras
escrotales en los deshollinadores y llega a
la conclusion de que se trata de un cancer
causado por el hollin.

1842 La publicacion de Sanitary Conditions


of the Labouring Population de Edwin
Chadwick revela que existe una relacion
entre las condiciones de vida y las
enfermedades.

1846 El estudio de la epidemia de


sarampion en las islas Feroe por parte del
medico danes Peter Panum revela el
efecto protector de la infeccion previa y su
naturaleza contagiosa.

1854 John Snow utiliza metodos


epidemiologicos simples para identificar una
bomba de agua en Broad Street (Londres)
como origen del mortifero brote de colera

467
de la capital.

1912 Janet Elizabeth Lane-Claypon publica


un estudio innovador de
<<<cohortes>>>, con una comparacion
estadistica de los efectos sobre la salud de
los ninos amamantados y los alimentados
con leche de vaca.

1948 Cientificos de los Institutos


Nacionales de la Salud de Estados Unidos
llevan a cabo el estudio de los ciudadanos
de Framingham (Massachusetts) para
descubrir las causas de la cardiopatia.

1950 Richard Doll y Austin Bradford Hill


comienzan a comparar las tasas de cancer
pulmonar entre los fumadores y los no
fumadores, demostrando que la causa es
el tabaquismo.

1981 Epidemiologos de Nueva York y Los

468
Angeles describen un aumento
desconcertante de formas raras de
neumonia y de cancer en varones
homosexuales, que presagiaba la epidemia
mundial del sida.

1989 Estudios de las historias de 17.000


ninos indican que las alergias pueden estar
desencadenadas por una exposicion
inadecuada a virus, proponiendo la
<<<hipotesis de la higiene>>>.

1997 Investigadores del St.


Bartholomew’s Hospital (Londres) utilizan el
<<<metaanalisis>>> para revelar los
riesgos de cancer y de cardiopatia
causados por el denominado tabaquismo
pasivo.

2003 Se produce una alerta mundial tras


el descubrimiento de una nueva forma de
virus que surgio en China, el conocido

469
como virus del sindrome respiratorio agudo
grave (SARS).

Citas

48

Del griego epi, ‘sobre’, y demos, ‘pueblo’,


‘que esta sobre el pueblo’, y, por
extension, ‘enfermedad que cae sobre un
pueblo’. En griego clasico, la palabra
epidemia (s7u5r!uia) significo residencia en
un lugar o pais. (N. del E.)

49

Percival Pott, nacido en Londres en 1714 y


de origen humilde, se convirtio en uno de
los cirujanos mas famosos de su epoca.
Despues de formarse en el St.

470
Bartholomew’s Hospital, se convirtio en
cirujano a los treinta y cinco anos de edad
y trato a muchos hombres famosos, como
Samuel Johnson y Thomas Gainsborough.
Hoy en dia es mas conocido por haber
identificado la fractura de Pott del tobillo.

50

Hasta hace aproximadamente un siglo,


mucha gente seguia considerando que las
enfermedades infecciosas estaban
causadas por una emanacion de aire
hediondo conocida como <<<miasma>>>
(del termino griego para
<<<contaminacion>>>). La antigua
creencia no carecia por completo de
fundamento: el material acuoso o solido
cargado de bacterias a menudo desprende
un olor terrible. En junio de 1858, la notoria
epidemia de colera de Londres coincidio con

471
el <<<gran hedor>>>, que persistio
durante semanas. Pero algunos cientificos
Victorianos fueron mas alla, acusando a los
miasmas de otras afecciones; en 1844, un
profesor declaro: <<<La mujer del
carnicero debe su obesidad a la inhalacion
del olor de la carne de vaca>>>. A finales
de siglo XIX, la investigacion de Louis
Pasteur y otros investigadores probo que
los miasmas son solo consecuencia de la
causa real: los germenes, ya sean
bacterias o virus.

51

Janet Lane-Claypon fue una de las


pioneras olvidadas de la moderna ciencia
medica. Nacio en 1877 en el seno de una
familia rica de Lincolnshire y fue una
estudiante brillante en la London School of
Medicine for Women. Su primera

472
investigacion se refirio a la bioquimica y al
control hormonal de la lactancia. Luego
paso a la epidemiologia, desarrollando
investigaciones innovadoras sobre las
causas del cancer. Murio en 1967.

52

La idea de que una excesiva limpieza


puede ser poco saludable ha captado la
atencion del publico, pero sigue siendo muy
polemica en medios cientificos medicos.
Los intentos de confirmar la <<<hipotesis
de la higiene>>> han producido resultados
mixtos y han descubierto algunos posibles
factores de confusion: efectos que pueden
confundir a los cientificos que intentan
encontrar la causa de los padecimientos.
Por ejemplo, la investigacion sugiere que
los ninos que viven junto con mascotas
son menos propensos a las alergias. Dado

473
que las mascotas tienen parasitos y
suciedad, esto parece apoyar la hipotesis
de la higiene. Sin embargo, un estudio
publicado por investigadores de la
Universidad de Karlstad (Suecia) descubrio
otra explicacion, mucho menos
interesante: las familias cuyos hijos sufren
alergias simplemente evitan tener
mascotas en primer lugar.

474
LA FISICA DE LA
REALIDAD

475
18
Relatividad Especial

En pocas palabras

En 1887, dos cientificos estadounidenses hicieron un


descubrimiento asombroso: la velocidad de la luz siempre
tiene el mismo valor, independientemente de la velocidad
relativa de los observadores respecto a ella. Esto
contradecia rotundamente las sensatas leyes del
movimiento, que se remontaban a Galileo, y llevaron a
Einstein a proponer que la velocidad de la luz —y todas las
leyes de la fisica— debe ser la misma independientemente
de cuan rapido nos movamos. Esta simple idea llevo a la
asombrosa conclusion de que las propiedades de los
objetos ordinarios, como su longitud y su masa, deben
variar de acuerdo con su velocidad respecto a nosotros.
Las consecuencias de esta teoria, conocida como Teoria
Especial de la Relatividad, han revolucionado la ciencia.
Llevan directamente a E = Mc2, la ecuacion en la que se
basan la energia nuclear y las bombas de hidrogeno, y que
conduce a la prediccion de la antimateria. Sin embargo,
hoy en dia se desafia la prohibicion de viajar a mas

476
velocidad que la luz, abriendo la perspectiva de viajes a las
estrellas al estilo de Star Trek. Tambien hay signos de que
la Relatividad Especial puede no ser la ultima palabra y
tendra que dejar via libre a otra teoria, mas sofisticada,
del espacio y el tiempo.

?Como comenzar una revolucion cientifica? Puede


bastar con un experimento ingenioso o un
descubrimiento afortunado —o con trabajo puro
y duro—. Sin embargo, existe otra forma, que
cuenta con el favor de los cientificos geniales:
plantear una pregunta simple y seguir sus
consecuencias.

La cuestion, obviamente, es hacer la pregunta


adecuada.

En 1665, un estudiante de veintidos anos vio


como una manzana caia en su casa de
Lincolnshire, y se pregunto si la misma fuerza
atraeria a la Luna hacia la Tierra. Continuando
con su pregunta, Isaac Newton dio un salto

477
intuitivo sin precedentes en la historia cientifica y
descubrio la Ley de la Gravitacion Universal.

En 1895, un adolescente aleman se pregunto


que veria si viajara a la velocidad de la luz. La
respuesta llevaria a un Albert Einstein de dieciseis
anos a una comprension del cosmos que
finalmente eclipsaria incluso a la de la revolucion
newtoniana. Sus consecuencias fueron tan
enormes que inicialmente ni siquiera el fue capaz
de captarlas.

La solucion de Einstein a su pregunta se conoce


como Relatividad Especial y en ella se
fundamenta toda la ciencia moderna. Los fisicos
de particulas se basan en ella para comprender el
mundo subatomico, mientras que los astrofisicos
la utilizan para entender la fuente de energia de
las estrellas. Sus consecuencias sustentan toda la
quimica y han conducido al descubrimiento de la
antimateria. Ha llevado la electricidad de origen

478
nuclear a millones de personas de todo el
mundo, aunque ha puesto a muchos mas bajo la
amenaza de la guerra nuclear.

Todo esto se debe a que Einstein se dio cuenta


de que ocurriria algo muy extrano si pudiera
viajar junto a un rayo de luz; cuando lo
alcanzara, el rayo pareceria ser estacionario. Sin
embargo, de acuerdo con las leyes de la fisica,
un rayo de luz es, por definicion, un campo
electromagnetico en movimiento. Entonces, ?
como podria ser estacionario? ?Las leyes de la
fisica se rompian a la velocidad de la luz o habia
algo mas que pudiera explicar la paradoja del
rayo de luz estacionario?

Einstein no era el primero en darse cuenta de


que habia algo extrano en lo que se refiere a los
rayos de luz. Desde finales del siglo XVII,
muchos cientificos consideraban la luz como
ondas que viajaban a traves de algo conocido

479
como eter, una especie de fluido que llenaba
todo el espacio. De existir, el eter causaria
cambios en la velocidad de la luz medida,
dependiendo de la velocidad del observador. Sin
embargo, pese a hacer todo lo posible, los
cientificos no pudieron encontrar pruebas solidas
de la existencia de este eter.

La cuestion llego a un punto critico en 1879,


cuando el fisico escoces James Clerk Maxwell
propuso una nueva forma de detectar el eter. La
idea se tomo muy en serio por proceder de
Maxwell, que ya tenia fama por haber revelado la
unidad cosmica de la electricidad, el magnetismo
y la luz. El primero en aceptar el desafio fue el
fisico estadounidense Albert Michelson, que ideo
un sistema ingenioso de rayos de luz capaz de
detectar el efecto del eter sobre la luz, debido al
movimiento de la Tierra alrededor del Sol. En su
primer intento, realizado en 1881, no consiguio
nada. Seis anos despues, lo intento de nuevo

480
con un experimento incluso mas sofisticado que
realizo en colaboracion con Edward Morley. Sin
embargo, tampoco en esta ocasion logro
encontrar ningun signo del eter: la velocidad de la
luz parecia no verse afectada por su presencia.

A estas alturas, los cientificos estaban


desesperados, y asi eran sus explicaciones. En
1889, el fisico irlandes George FitzGerald sugeria
que, cuando viajaba a traves del eter, el aparato
utilizado por Michelson se habia contraido justo lo
suficiente para anular cualquier efecto. Su
afirmacion fue ridiculizada hasta que el distinguido
fisico holandes Hendrik Lorentz volvio con la
misma idea tres anos despues, junto con una
formula para el efecto de contraccion. Muchos
cientificos la consideraron con gran desconfianza,
pero nadie pudo plantear una alternativa —nadie,
claro esta, salvo un licenciado en fisica de
veintiun anos llamado Einstein.

481
De estudiante habia oido hablar del experimento
de Michelson y Morley, y se preguntaba como se
relacionaria con la idea que tuvo sobre los rayos
de luz cuando era adolescente. Tambien habia
leido las obras de los filosofos David Hume y
Ernst Mach, que le llevaron a rechazar la idea de
un fluido universal estacionario como el eter. Para
el, implicaba la existencia de una posicion
estrategica divina —y la unica que ofrecia la
vision <<<correcta>>> del Universo—. El
rechazo del eter por parte de Einstein tambien se
basaba en algo que habia observado en el
laboratorio. Los experimentos con imanes y
conductores daban los mismos resultados
independientemente de si era el iman o el
conductor lo que se movia: lo unico que
importaba era su movimiento relativo. Sin
embargo, las famosas leyes de Maxwell del
electromagnetismo hacian una distincion.

Einstein lucho con todas estas ideas durante

482
varios anos despues de licenciarse, buscando
una respuesta unica y coherente53. En 1905 se
produjo un importante avance cuando se dio
cuenta de que podia explicar todo a partir de dos
principios simples: que las leyes de la fisica son
las mismas para todos, independientemente de
su velocidad, y que la velocidad de la luz es la
misma, independientemente de si su fuente se
mueve o no.

El primer principio parece bastante inocuo, pero,


como ya habia observado Einstein, las leyes de
Maxwell del electromagnetismo no lo obedecian y
era preciso modificarlas. El tipo de modificacion
necesaria surgio del segundo principio, que era
mucho mas radical. Implicaba que los rayos de
luz no obedecen las reglas normales sobre las
velocidades. Por ejemplo, para determinar la
velocidad de un tren, la velocidad del observador
es evidentemente crucial. Para los pasajeros que
se encuentran en una estacion, la velocidad del

483
tren puede ser de 200 kilometros por hora, pero
para un coche que viaje en paralelo al tren,
puede que el tren solo vaya a 100 kilometros por
hora. ?Quien esta en lo cierto? En el caso de la
luz se suponia que la respuesta era la velocidad
medida respecto al eter. Sin embargo, segun
Einstein, la respuesta era la misma para todo el
mundo: la velocidad de la luz en el vacio era de
casi 300.000 kilometros por segundo.

Einstein baso parcialmente su propuesta radical


en las pruebas experimentales de Michelson y
Morley, pero tambien en sus reflexiones de
adolescente, que le llevaron a reconocer los
problemas de que la luz pareciera ser
estacionaria. Sin embargo, cuando se combinaba
con su primer principio, todo se aclaraba, como
revelo Einstein en un articulo revolucionario
publicado en 1905. Titulado Sobre la
electrodinamica de los cuerpos en movimiento,
establece a partir de ese momento lo que se

484
conocera como Teoria de la Relatividad Especial,
asi denominada porque se aplica al caso especial
de los cuerpos en movimiento con velocidades
fijas respecto a otros. Einstein demostro que sus
dos principios llevaban a formulas identicas a las
que ideo Lorentz para explicar el experimento de
Michelson-Morley, pero sin necesitar ningun eter.
Las mismas formulas tambien eliminaban las
peculiaridades de las ecuaciones de Maxwell, de
modo que se aplicaban a todos los
observadores, y confirmaban que las
propiedades de los objetos en movimiento
realmente parecian cambiar a medida que se
aproximaban a la velocidad de la luz.

Pero la consecuencia mas asombrosa de la


Relatividad Especial surgio pocos meses despues,
en un articulo titulado ?Depende la inercia de un
cuerpo de la energia que contiene? El signo de
interrogacion es importante porque demuestra
que incluso el propio Einstein apenas podia creer

485
lo que habia encontrado combinando su teoria
con la ley de la conservacion de la energia: una
formula que revelaba que la masa era una
fuente increiblemente potente de energia. Se
podia considerar que cualquier objeto con una
masa M tiene una cantidad de energia E segun la
ecuacion E = Mc2, donde c es la velocidad de la
luz; dicho de forma mas grafica, se puede
considerar que un kilogramo de materia tiene una
energia equivalente a la detonacion de mas de
veinte millones de toneladas de TNT.

Mientras que Einstein luchaba con todas las


implicaciones de este resultado increible, los
cientificos se dedicaron a probar sus otras
previsiones. Con las velocidades cotidianas, los
efectos de la relatividad son minusculos: incluso
viajando a 30.000 kilometros por hora, el
transbordador espacial se contrae apenas veinte
millonesimas de milimetro. Aun asi, los
experimentos con electrones y otras particulas

486
de movimiento rapido confirmaron que los
objetos realmente cambian sus caracteristicas
precisamente de la forma que predijo Einstein.

Los fisicos teoricos tambien comenzaron a


incorporar los principios de Einstein a su trabajo,
con resultados igual de increibles. En 1928, el
teorico britanico Paul Dirac combino la Relatividad
con la Mecanica Cuantica, las leyes del mundo
subatomico, y encontro que particulas como los
electrones deben poseer una propiedad
denominada <<<espin>>>. Actualmente se
reconoce que el espin, cuya denominacion se
debe a una cierta semejanza con la rotacion, es
la propiedad mas fundamental de las particulas y
explica por que solo se encuentran en los atomos
ciertas disposiciones de electrones. En esta
propiedad se fundamenta la tabla periodica de
elementos, que es la base de toda la quimica.
Dirac tambien encontro que su teoria predecia la
existencia de un nuevo tipo de particulas,

487
conocidas como positrones, cuyas propiedades
eran como imagenes en espejo de los
electrones. Cuatro anos despues se obtuvieron
pruebas solidas de esta extrana
<<<antimateria>>> en estudios de los rayos
cosmicos.

A finales de la decada de 1930, los cientificos


comenzaron a tomar conciencia de la implicacion
mas profunda de la Relatividad Especial, E Me2.
Entre los primeros se encontraban los
astronomos, que reconocieron que esta ecuacion
daba la clave para la fuente de energia del Sol.
En 1938, el teorico aleman Hans Bet-he
demostro que la fusion de los nucleos de
hidrogeno del interior del Sol llevaba a la
formacion de <<<cenizas>>> de helio que
pesaban ligeramente menos que los nucleos
originales —la diferencia se liberaba como energia
segun la ecuacion E = Mc2—. Dada la inmensa
cantidad de energia generada por cada kilogramo

488
de hidrogeno y el enorme tamano del Sol, la
capacidad de las estrellas de brillar durante miles
de millones de anos ya no era un misterio.

De vuelta a la Tierra, los cientificos se dieron


cuenta de que la ecuacion E = Me2 tambien
explicaba la energia aparentemente infinita que
se desprende de materiales radiactivos como el
uranio, y comenzaron a utilizarla. En 1942, un
equipo dirigido por el fisico italiano Enrico Fermi
creo en Chicago el primer reactor de fision
nuclear controlada en el que se utilizo uranio,
haciendo una demostracion de una tecnologia
que actualmente produce cerca del 17% de la
electricidad del mundo. Tres anos despues, se
demostro el efecto devastador de una fision
nuclear incontrolada cuando detonaron dos
bombas atomicas que se lanzaron sobre las
ciudades japonesas de Hiroshima y Nagasaki.

La aparicion de las armas nucleares horrorizo a

489
Einstein: <<<La potencia desatada del atomo ha
cambiado todo menos nuestra manera de
pensar —escribia en 1946—. Y de este modo
nos encaminamos a una catastrofe sin
parangon>>>. Se trata de un sentimiento que
sigue teniendo validez hoy en dia, dado que el
mundo teme que los terroristas utilicen el
tremendo poder de la formula E = Mc2.

Incluso ahora se siguen investigando las


implicaciones de la Relatividad Especial. La
aparente prohibicion de viajar a mayor velocidad
que la luz esta siendo desafiada por teoricos
utilizando la Relatividad General, una extension
considerablemente compleja de la Relatividad
Especial de Einstein. En 1994, Miguel Al-cubierre
(Universidad de Gales) demostro que la
Relatividad General permitia que espacio y tiempo
se <<<deformaran>>> de tal forma que se
pudiera imitar el efecto de los viajes a mayor
velocidad que la luz. Sin embargo, todavia nadie

490
sabe como crear la deformacion necesaria.

En los ultimos anos han comenzado a aparecer


grietas en el edificio de la Relatividad Especial54.
Se insiste en que existe un limite de la energia de
los rayos cosmicos del espacio profundo —sin
embargo, en los ultimos anos se han detectado
en varias ocasiones rayos ultrarrapidos que
rompen este limite—. Algunos teoricos creen que
la respuesta puede ser que la velocidad de la luz
no es la unica que tiene el mismo valor para
todos los observadores: puede que haya un
umbral de energia cuyo valor sea tambien
<<<universal>>>.

La investigacion sobre lo que se denomina


Relatividad Doblemente Especial esta dando aun
sus primeros pasos. Aun asi, es posible que
demuestre ser el germen de una teoria con
implicaciones incluso mas increibles que las que
tuvo el sueno de adolescente de Einstein.

491
LO QUE SE VERIA VIAJANDO A LA
VELOCIDAD DE LA LUZ

La Relatividad Especial predice que los objetos


que se aproximan a la velocidad de la luz se
reducen en la direccion del movimiento y parecen
de un azul-blanco deslumbrante cuando se
acercan; luego pierden intensidad y pasan a
tener un tono de rojo a negro apagado a medida
que se alejan. Pero tambien predice ciertos
efectos claramente antiintuitivos. Los observo por
vez primera en 1929 el fisico vienes Anton
Lampa, y fueron redescubiertos treinta anos
despues por Roger Penrose en Inglaterra y
James Terrel en Estados Unidos. Por ejemplo, un
cohete que pasara por delante a toda velocidad
pareceria contraido, pero tambien estaria

492
ligeramente girado, permitiendo que se
observaran partes que normalmente no son
visibles (fenomeno conocido como rotacion de
Penrose-Terrell). Por el contrario, una esfera
siempre se mantendria perfectamente circular,
con independencia de su velocidad.

!EINSTEIN SE EQUIVOCA!

Apenas un ano despues de su publicacion, la


Relatividad Especial fue estudiada en el
laboratorio y exhaustivamente falsificada. En
experimentos con electrones de movimiento
rapido, Walter Kauffmann (Universidad de
Gotinga) obtuvo resultados que parecian estar
mas de acuerdo con teorias del espacio y el
tiempo rivales de la de Einstein. Destacados

493
fisicos de aquella epoca no pudieron observar
ningun error obvio en el trabajo de Kaufmann,
pero la actitud del propio Einstein fue reveladora
de la confianza en su teoria. Aunque felicitaba a
Kauffmann por su buen trabajo, se nego a creer
los resultados, alegando de forma totalmente
subjetiva que las teorias rivales le parecian
menos plausibles que la Relatividad Especial. Se
demostro que estaba en lo cierto, pero hubo que
esperar una decada antes de que se obtuvieran
finalmente pruebas concluyentes.

Cronologia

1638 Galileo publica el Discurso sobre dos


nuevas ciencias, que establece las bases
para comprender el comportamiento de los
objetos en movimiento durante los 250

494
anos siguientes.

1879 El fisico escoces James Clerk


Maxwell sugiere un experimento para
encontrar el <<<eter>>>, que permite
que los campos electromagneticos
atraviesen el espacio.

1887 Los cientificos estadounidenses


Albert Michelson y Edward Morley no
consiguen encontrar el eter, descubriendo
en su lugar que la velocidad de la luz no se
ve afectada por el movimiento de la Tierra.

1889 El fisico irlandes George Francis


FitzGerald propone una explicacion basada
en la contraccion de los objetos a medida
que se aproximan a la velocidad de la luz.
El fisico holandes Hendrik Lorentz llega a la
misma conclusion tres anos despues.

1905 Einstein publica articulos sobre la

495
Relatividad Especial basados en la
constancia de la velocidad de la luz para
todos los observadores, y sobre la famosa
ecuacion E = Me2.

1928 Paul Dirac combina la Teoria


Cuantica con la Relatividad, llegando a los
conceptos de <<<espin>>> (y, por
tanto, a una explicacion de la tabla
periodica) y de <<<antimateria>>>.

1938 El teorico germano-estadounidense


Hans Bethe demuestra como en virtud de
la formula E = Me2 el Sol se ha mantenido
ardiendo durante miles de millones de
anos, a traves de la fusion nuclear del
hidrogeno.

1942 Puesta en marcha en Chicago del


primer reactor nuclear, en el que se utilizo
uranio natural.

496
1945 Se detona la primera bomba
atomica en Alamogordo, Nuevo Mexico.

1994 Miguel Alcubierre sugiere una


manera de viajar a mayor velocidad que la
luz, distorsionando el espacio-tiempo
usando un <<<motor de
deformacion>>> al estilo de Star Trek.

2002 El descubrimiento de rayos cosmicos


ultrarrapidos lleva a la aparicion de la
<<<Relatividad Doblemente Especial>>>,
una version modificada de la teoria original
de Einstein.

Citas

53

En enero de 1990, Evan Walker, un

497
historiador estadounidense, causo
sensacion al afirmar que Einstein no habia
descubierto la Relatividad, sino que todo
se debia realmente al trabajo de su primera
esposa, Mileva Maric. Habria sido facil
rechazar de plano tal afirmacion, de no ser
por el hecho de que Mileva era estudiante
de fisica con Einstein, y era muy capaz de
enfrentarse a la matematica
comparativamente simple en la que se
basa la Relatividad Especial. De hecho, no
era la primera vez que surgian rumores
sobre el papel de Mileva en la relatividad.
En 1929, un estudiante amigo le dijo a un
periodista que a Mileva no le gustaba
hablar sobre su participacion en el famoso
trabajo de Einstein por temor a suscitar
dudas sobre su nueva fama mundial como
genio cientifico. Y en 1969, Serb Desanka
Trbuhovic-Gjuric, biografo y colega de
Mileva, afirmo que Einstein dijo en una

498
ocasion: <<<Todo lo que he creado y
conseguido se lo debo a Mileva>>>. La
mayoria de los expertos en Einstein
rechazan tales afirmaciones, apuntando
que se basan principalmente en rumores y
en interpretaciones subjetivas de la
evidencia. Por ejemplo, el aparente
<<<reconocimiento>>> por parte de
Einstein de la participacion de Mileva
tambien puede contemplarse como un
tributo conmovedor a su ayuda, emocional
mas que intelectual, en el desarrollo de la
teoria. La mayoria de los historiadores
creen que su papel en la carrera de
Einstein se resume mejor en las
declaraciones que su propio hijo, Hans
Albert, hizo en 1962 a un periodista:
<<<Mileva le ayudo a resolver ciertos
problemas matematicos, pero nadie puede
ayudar con el trabajo creativo>>>.

499
54

Aunque muchos aclamaron a Einstein


como un genio, tambien tuvo sus
detractores, algunos de los cuales
afirmaban que su Teoria Especial de la
Relatividad estaba basada en errores
fundamentales. No se trataba solo de los
autodidactas que siguen plagando los
departamentos universitarios de fisica (y
los escritores cientificos) con
<<<pruebas>>> de que Einstein era un
fraude. Entre ellos estaban Frederick Soddy
y Ernest Rutherford, ganadores del Premio
Nobel, asi como Louis Essen, inventor del
reloj de cesio (lo que, como veremos, es
toda una ironia). Pero el principal critico fue
el profesor Herbert Dingle, del University
College (Londres) y presidente de la Royal
Astronomical Society a principios de la
decada de 1950. Dingle, que originalmente

500
apoyaba la teoria de Einstein y fue autor
de un libro de texto sobre este asunto,
puso en duda sus fundamentos tras leer
un informe sobre la llamada <<<paradoja
del reloj>>>. Segun esta, un reloj que se
mueva respecto a otro parecera ir mas
lento segun el reloj estacionario. Dingle
afirmaba que los resultados de Einstein no
eran coherentes con los que se obtenian
con un metodo <<<de sentido
comun>>>. Sin embargo, otros expertos
demostraron que el metodo de Dingle
estaba plagado de viejos conceptos newto-
nianos que, segun habia demostrado
Einstein, eran invalidos. El golpe de gracia a
las afirmaciones de Dingle llego en 1971,
cuando dos cientificos estadounidenses del
Observatorio Naval de Estados Unidos
llevaron dos relojes de cesio
extremadamente precisos en vuelos
alrededor del mundo en diferentes

501
direcciones. Segun Einstein, los dos relojes
deberian haber registrado una diferencia de
275 milmillonesimas de segundo. Los
cientificos midieron una diferencia de 273
+- 7 milmillonesimas de segundo,
exactamente lo que predecia la teoria de
Einstein.

502
19
Entrelazamiento Cuantico

En pocas palabras

En la decada de 1920, los cientificos descubrieron que la


Teoria Cuantica implicaba que las particulas solo tienen
propiedades claramente definidas cuando se miden.
Einstein insistia en que esto solo demostraba que la Teoria
Cuantica era incompleta e ideo un experimento para
probarlo.

Cuando al final se realizo en 1982, el experimento probo


que Einstein estaba equivocado, y revelo que las
particulas pueden <<<entrelazarse>>>, lo que permitia
correlacionar al instante sus propiedades con las de
cualquier otra, con independencia de la distancia.

El Entrelazamiento Cuantico, que se considero un efecto


delicado y esoterico, ha demostrado ser
sorprendentemente robusto, y quiza sea uno de los
conceptos fundamentales de la tecnologia del siglo XXI.

503
Las particulas entrelazadas se estan utilizando para crear
sistemas de comunicacion seguros; tambien pueden
constituir la base de los ordenadores cuanticos
ultrarrapidos e incluso de maquinas de
<<<teleportacion>>> al estilo de Star Trek.

Los teoricos consideran ahora que el entrelazamiento


puede ser relativamente comun en la naturaleza,
planteando la posibilidad de que vivamos en una autentica
red cosmica de conexiones que trascienden el espacio y el
tiempo.

Como simple investigador treintanero sin empleo


permanente, Alain Aspect sabia que iba a
arriesgar su carrera intentando probar que
Einstein estaba equivocado. Al saber del
experimento que planeaba, un importante
cientifico mascullo sombriamente: <<<Debes de
ser un licenciado muy valiente>>>. Aun hoy en
dia, mas de veinte anos despues de que
realizara experimento, Aspect es una celebridad
academica, y su nombre ha merecido pasar a la
historia cientifica55, porque consiguio probar que,

504
por una vez, la intuicion del mayor fisico de los
tiempos modernos era erronea.

Sin embargo, lo que observaron Aspect y sus


colaboradores en 1982 iba mucho mas alla.

Descubrieron la primera prueba solida de un


fenomeno tan extrano que incluso la mayoria de
los cientificos actuales luchan para intentar captar
sus implicaciones: el Entrelazamiento Cuantico.

Como sugiere su nombre, el Entrelazamiento


Cuantico une las particulas subatomicas pero lo
hace de una manera simplemente pasmosa.
Realice usted una accion en una particula y sus
companeras entrelazadas se veran afectadas al
instante, no importa donde esten o cuan
alejadas se encuentren. Parece algo de ciencia
ficcion, y abre la posibilidad a aplicaciones
claramente futuristas, desde la computacion
ultrarrapida a la <<<teleportacion>>> del tipo
Star Trek para enviar objetos por el cosmos.

505
Quiza lo mas asombroso sea que ahora estan
surgiendo pruebas de que el entrelazamiento se
encuentra en todo el Universo, apuntando a un
grado de conexion cosmica de proporciones
dignas de la corriente New Age.

La naturaleza de esta conexion dista mucho de


ser intuitiva, desafiando los vinculos habituales
entre el espacio, el tiempo y el sentido comun.
Solo se puede comprender por completo con las
reglas de la Teoria Cuantica, y en particular a
traves de una serie de descubrimientos que
comenzaron con una idea que sugirio un
aristocrata frances en 1924. En su tesis doctoral,
el principe Louis de Broglie apuntaba que
experimentos recientes habian revelado que la
luz, que solia considerarse como una onda, a
veces se comportaba como si estuviera formada
por pequenas particulas denominadas fotones.
Sugeria entonces que era posible que particulas
como los electrones se comportaran a veces

506
como ondas, cuyas propiedades estimaba
usando argumentos simples. Se trataba de una
prediccion temeraria, pero tres anos despues se
confirmo de forma experimental que electrones
supuestamente solidos podian generar un efecto
ondulatorio, conocido como interferencia. Muchos
fisicos importantes, incluido Einstein, lo
consideraron un avance importantisimo, e
intentaron descubrir mas sobre estas extranas
<<<ondas de materia>>>.

Entre ellos estaba Erwin Schrodinger, un teorico


austriaco que construyo una ecuacion que regia
su comportamiento. Esta revelaba que las ondas
no son como cualquier onda fisica ordinaria, lo
que llevo a Schrodinger a darles un nombre
mucho mas abstracto: <<<funciones de
onda>>>.

El descubrimiento de Schrodinger fue un golpe


para aquellos, incluido Einstein, que habian

507
esperado que la Teoria Cuantica les diera una
idea de la realidad clara y de sentido comun. Lo
peor vendria con el teorico aleman Werner
Heisenberg, que descubrio el famoso Principio de
Incertidumbre, que demostraba que era
imposible conocer todo sobre las particulas
subatomicas en un momento dado. En la decada
de 1930, el reino subatomico emergia como un
lugar totalmente extrano, poblado de particulas
difusas, sin propiedades bien definidas hasta que
fueran sacudidas por un acto de observacion.
Para Einstein esto solo significaba que faltaba
algo en la Teoria Cuantica. Y en 1935, junto con
Boris Podolsky y Nathan Rosen, propuso un
experimento para probarlo. Se denomino
<<<experimento EPR>>> y era brillantemente
simple.

Imaginese una molecula unica que estalle


produciendo dos particulas identicas que vuelan
en direcciones opuestas. Segun la Teoria

508
Cuantica, ninguna de las particulas tiene
propiedades netamente definidas hasta que es
observada. Asi que suponga que queremos
saber la posicion de una de las particulas: la
observamos, y la <<<sacudida>>> resultante
debera forzarla a adquirir propiedades definidas56.
Luego Einstein tendio su trampa: una vez que
conocemos la posicion de la primera particula,
podemos usar las leyes de Newton para imaginar
la posicion de su pareja, sin haberla observado
nunca. No hay incertidumbre alguna, como
tampoco la supuestamente crucial
<<<sacudida>>> de la observacion para
garantizar que adquiere propiedades bien
definidas. En resumen, segun decia Einstein, las
particulas siempre tienen propiedades bien
definidas, tanto si se las observa como si no.
Segun declaro Einstein, el hecho de que la Teoria
Cuantica no pueda responder esto simplemente
demostraba que era incompleta.

509
Sin embargo, existia una laguna. Quiza la primera
particula senalaba de alguna manera el hecho de
que habia sido observada, incitando a su
companera, todavia difusa, a tomar un estado
definido. Pero Einstein tambien tenia un
argumento contundente contra esto: su propia
Teoria de la Relatividad, que demostraba que
ninguna senal puede viajar mas rapido que la luz.
Esto descartaba cualquier esperanza de que las
particulas se comunicaran instantaneamente con
las demas. Solo debian tener propiedades bien
definidas todo el tiempo.

El argumento de Einstein fue atacado por los


defensores de la Teoria Cuantica, pero sin datos
experimentales solidos ninguna de las partes
podia dar un golpe fulminante a la otra. La
posibilidad de resolver el debate solo surgio nueve
anos despues de la muerte de Einstein en 1955.

El teorico irlandes John Bell probo que si las

510
particulas tienen propiedades permanentes,
como afirmaba Einstein, entonces existe un limite
—establecido por la velocidad de la luz— para el
grado de similitud de las propiedades de los pares
de particulas en su experimento. De estar
Einstein en lo cierto, la correlacion en las
propiedades de las particulas nunca podria
superar la <<<desigualdad de Bell>>>.

En 1982, Alain Aspect y sus colaboradores de la


Universidad de Paris lograron realizar con exito el
experimento usando fotones de luz. Y
encontraron que la desigualdad de Bell se rompia
por completo: sorprendentemente, incluso pares
de fotones separados por grandes distancias
parecian ser capaces de <<<comunicarse>>>
instantaneamente, dando un nivel de correlacion
que superaba con amplitud la desigualdad de Bell.

Las implicaciones eran espectaculares. Dado que


se habia roto la desigualdad de Bell, al menos

511
una de sus presuposiciones —y, por tanto, las de
Einstein— debe ser erronea. O ninguna particula
tiene propiedades bien definidas hasta que es
observada, o son capaces de comunicarse mas
rapido que la luz —o incluso ambas cosas.

Sin embargo, para muchos fisicos el mensaje


practico era mas mundano: se habia demostrado
que la Teoria Cuantica era correcta, lo que,
dados sus enormes exitos, dificilmente era
sorprendente. Tampoco estaban preocupados
por la idea de la transmision de senales a una
velocidad superior a la luz. Ya que es imposible
controlar el resultado de la determinacion de las
propiedades de una particula entrelazada,
tambien es imposible establecer lo que envia a su
pareja entrelazada, lo que hace que sea inutil
como medio de comunicacion.

El experimento de Aspect les parecia a muchos


un ejercicio de ordenamiento esoterico, que

512
implicaba un fenomeno sutil sin valor practico. A
los fisicos les llevo cierto tiempo llegar a entender
las formidables implicaciones del Entrelazamiento
Cuantico. Ahora lo han conseguido, y los
resultados han demostrado ser autenticamente
inconcebibles.

Entre los primeros se encontraba el teorico David


Deutsch (Universidad de Oxford), que en 1985
demostro que las particulas entrelazadas podian
utilizarse en un <<<ordenador cuantico>>>,
que resuelve problemas mucho mas rapido que
cualquiera de los ordenadores actuales57. Dicho
llanamente, mientras que un ordenador
convencional usa electrones cuyas propiedades
estan bien definidas, un ordenador cuantico utiliza
el hecho de que las particulas entrelazadas
poseen toda una serie de posibles estados, cada
uno de los cuales pueden utilizarse para realizar
calculos binarios. Esto permite resolver en
paralelo muchos problemas, haciendo que tal

513
ordenador sea inimaginablemente mas rapido
que los superordenadores actuales.

Hasta la fecha ha resultado dificil crear el


hardware necesario para construir un ordenador
cuantico, pero muchos fisicos creen que puede
lograrse. Su confianza se basa en el hecho de
que el entrelazamiento ha demostrado ser
mucho mas robusto de lo que originalmente se
creia. En 2002, un equipo de la Universidad de
Leiden (Paises Bajos) demostro que el efecto del
entrelazamiento puede pasar a traves del metal,
y una noche fria y ventosa de 2003, Anton
Zeilinger y sus colaboradores de la Universidad de
Viena transmitieron de manera satisfactoria
fotones entrelazados por el cielo nocturno de un
lado al otro del Danubio58.

Tambien han comenzado a aparecer las


primeras aplicaciones en la vida real. En 1990,
Artur Ekert (Universidad de Oxford) sugirio que el

514
entrelazamiento puede ser la base de un sistema
de codificacion indescifrable. Consiste en la
digitalizacion de mensajes y la adicion de
<<<cadenas clave>>> aleatorias que
distorsionan el resultado; solo una persona que
tenga la clave aleatoria correcta puede invertir el
proceso y leer el mensaje. Aunque quiza sea
indescifrable, el gran problema es garantizar que
la clave llega unicamente a las personas
adecuadas. Ekert demostro que los fotones
entrelazados pueden conseguirlo, ya que
cualquier intento de interceptarlos en su camino
produciria cambios reveladores en sus estados
entrelazados correctos. En abril de 2004, Zeilinger
y sus colaboradores utilizaron con exito este
metodo de <<<distribucion cuantica de
claves>>> para encriptar una transferencia de
3.000 euros entre el Ayuntamiento de Viena y el
banco Austria Creditanstalt.

Pero lo mas asombroso de todo es la perspectiva

515
de utilizar el entrelazamiento para
<<<transmitir>>> objetos de un lugar a otro,
como el transportador de Star Trek. Los teoricos
fueron los primeros en sugerirlo, en 1993; implica
escanear el objeto y utilizar pares de particulas
entrelazadas para captar sus propiedades. La
informacion sobre el objeto captada mediante un
conjunto de particulas entrelazadas puede usarse
luego para recrear el objeto adonde quiera que
se hayan enviado las particulas entrelazadas con
ellas.

En 1997, Zeilinger y sus colaboradores


consiguieron <<<tele-portar>>> un unico foton
un metro usando el entrelazamiento59. Cuatro
anos despues, un equipo de la Universidad de
Aarhus (Dinamarca) dirigido por Eugene Polzik
consiguio preparar billones de atomos en un
estado entrelazado apto para la teleportacion.

No hay ninguna perspectiva de conseguir lo

516
mismo con los seres humanos en un futuro
proximo; se ha calculado que la informacion
precisa necesitaria una cantidad de CD que
llenarian una caja con lados de 1.000 kilometros.
Sin embargo, el hecho de que cientificos
afamados esten estudiando tal posibilidad
demuestra hasta que punto el Entrelazamiento
Cuantico esta revolucionando la fisica.

Tambien esta cambiando la percepcion sobre la


propia naturaleza del Universo. Los fisicos han
descubierto que el cosmos esta lleno de las
denominadas <<<particulas de vacio>>>, que
constantemente aparecen y desaparecen de la
nada. Estas particulas estan muy entrelazadas, y
los ultimos datos astronomicos sugieren que sus
efectos controlan el destino del Universo.

El panorama que ahora surge es el de un


cosmos lleno de materia y energia entrelazadas,
que se comunican de forma instantanea,

517
independientemente de la distancia. No hace
mucho, el teorico Caslav Brukner y sus
colaboradores (Imperial College, Londres) han
demostrado que el entrelazamiento puede incluso
trascender el tiempo, uniendo pasado y futuro.

Puede que a Einstein se le conozca mas por sus


aciertos, pero es posible que se demuestre que
las consecuencias de su fracaso a la hora de
desautorizar la Teoria Cuantica son su legado
cientifico mas increible.

JOHN BELL

John Bell, uno de los fisicos teoricos mas


originales del siglo XX, nacio en Belfast en 1925 y
entro en la Queen’s University a la temprana

518
edad de dieciseis anos. Rapidamente centro su
atencion en el mundo cuantico, primero como
disenador de aceleradores de particulas y luego
como teorico. Su articulo mas famoso fue
producto de su permanente creencia de que
Einstein estaba en lo cierto cuando sospechaba
de la Teoria Cuantica, mientras que Neils Bohr
solo hablaba de manera enigmatica. Bell se
dedico a aprehender el argumento sobre la
Teoria Cuantica con tal claridad que pudiera
ponerse a prueba. Pese a que su trabajo se
reconoce en gran medida por haber probado que
Einstein estaba equivocado, el propio Bell insistia
en que los hallazgos de Aspect no eran tan claros
como muchos creian.

COMO SE LIGA EL ENTRELAZAMIENTO


CON LOS NUDOS

519
El propio termino <<<entrelazamiento>>>
suscita imagenes de hilos anudados, pero parece
obvio que no puede existir ninguna conexion real
entre las <<<funciones de onda>>> abstractas
de la Teoria Cuantica y el mundo de los nudos
corredizos y los cordones de los zapatos.

Sin embargo, para asombro general, el fisico


Padmanabhan Ara-vind (Worcester Polytechnic
Institute, Massachusetts) ha encontrado tal
conexion. En 1997 demostro que el
entrelazamiento de dos o mas particulas seguia
reglas matematicas que obedecian los nudos y
trenzas basicos, siendo el acto de observacion
equivalente a cortar los nudos. Por ejemplo, el
comportamiento de tres particulas entrelazadas
tiene curiosas similitudes con los denominados
anillos borromeos, en los que si se corta alguno
de ellos se liberan los otros dos.

520
Cronologia

1923 El principe Louis de Broglie, fisico


frances, presenta la idea de que las
particulas tienen propiedades semejantes a
ondas, que mas tarde se describirian como
<<<funciones de onda>>>.

1935 Einstein y sus colaboradores realizan


un <<<experimento imaginario>>> con la
esperanza de que pruebe la in-completitud
de la Teoria Cuantica.

El fisico austriaco Erwin Schrodinger, cuya


ecuacion rige el comportamiento de la
funcion de onda, acuna el termino
<<<entrelazamiento>>> por primera vez.

521
1964 El fisico irlandes John Bell prueba
matematicamente que la existencia del
entrelazamiento puede observarse y
medirse en el laboratorio.

1982 Alain Aspect y sus colaboradores de


la Universidad de Paris demuestran por
primera vez el entrelazamiento, probando
que Einstein estaba equivocado en lo que
respecta a los efectos cuanticos.

1985 David Deutsch (Universidad de


Oxford) demuestra que el entrelazamiento
puede abrir la via para los
<<<ordenadores cuanticos>>>, que
resuelven en paralelo una miriada de
problemas.

1993 Un equipo internacional dirigido por


Charles Bennett (IBM) demuestra que el
entrelazamiento permite la
<<<teleportacion>>> —al menos de las

522
particulas subatomicas— al estilo de Star
Trek.

1997 El profesor Anton Zeilinger y sus


colaboradores de la Universidad de Viena
utilizan el entrelazamiento para
<<<teleportar>>> un foton un metro en
su laboratorio.

2001 Un equipo dirigido por Eugene Polzik


(Universidad de Aarhus, Dinamarca)
consigue entrelazar dos nubes de billones
de atomos de cesio.

2003 El profesor Anton Zeilinger y sus


colaboradores transmiten con exito fotones
entrelazados a traves del aire de un lado a
otro del rio Danubio.

2004 El teorico Caslav Brukner y sus


colaboradores del Imperial College
(Londres) demuestran que la Teoria

523
Cuantica puede permitir el entrelazamiento
en el tiempo asi como en el espacio.

Citas

55

Nacido en 1947, Aspect quedo fascinado


por la Teoria Cuantica cuando estaba
realizando un trabajo de voluntariado en
Camerun en 1971, despues de licenciarse
en ciencias. Ahora trabaja en la
Universidad de Paris-Sud, y su
demostracion del Entrelazamiento Cuantico
supuso su nombramiento en 2001 como
miembro de la prestigiosa Academie des
Sciences.

56

524
El experimento EPR original implicaba a una
particula imaginaria que estallaba en dos
fragmentos identicos que fluian en
direcciones opuestas. Investigadores de la
Universidad de California llevaron a cabo en
1972 el primer intento de realizar el
experimento en la vida real, usando pares
entrelazados de fotones emitidos por
atomos de calcio. Aunque confirmo las
predicciones de la Teoria Cuantica, las
conclusiones solo fueron completamente
irrebatibles gracias a Aspect y a sus
colaboradores de la Universidad de Paris-
Sud, que en 1982 aseguraron que las
determinaciones de los fotones se hicieron
solo despues de que estuvieran
suficientemente alejados para
<<<comparar notas>>> a la velocidad de
la luz.

57

525
Se espera que el Entrelazamiento Cuantico
desempene una funcion fundamental en la
computacion cuantica, en la que la
informacion se capta a traves de los
denominados qubits, particulas que existen
en mezclas de estados, en lugar de la
habitual variedad <<<binaria>>> de unos
y ceros. El entrelazamiento permite que las
propiedades de cada qubit se compartan
con muchos otros de forma instantanea,
produciendo un aumento espectacular de
la velocidad.

58

Pese a sus origenes subatomicos, el


Entrelazamiento Cuantico ha demostrado
ser sorprendentemente solido —como
Anton Zeilinger y sus colaboradores de la
Universidad de Austria demostraron
enviando fotones entrelazados a dos

526
receptores diferentes separados 600
metros, a ambos lados del Danubio. Los
fotones se crearon lanzando rayos laser en
cristales especiales, que dividen algunos de
los fotones en pares entrelazados. Pese a
las malas condiciones, con vientos de
hasta 50 kilometros por hora, los fotones
que llegaron a los dos receptores seguian
estando entrelazados. El equipo encontro
que la calidad de la recepcion era
equivalente a la transmision de fotones
desde un satelite que orbi-tara a 600
kilometros de la Tierra, lo que sugiere que
el Entrelazamiento Cuantico podra algun dia
cruzar el mundo.

59

La teleportacion parece pura ciencia ficcion:


despues de todo, no es una copia del
objeto lo que se envia, sino el propio

527
objeto. Sin embargo, esto es precisamente
lo que hace posible el Entrelazamiento
Cuantico —los cientificos lo han hecho no
hace mucho con atomos enteros—. Enviar
a los seres humanos sigue siendo algo
lejano, en gran medida porque estamos
formados por trillones de atomos.

528
20
El Modelo Estandar

En pocas palabras

Desde la decada de 1920, los cientificos han hecho una


descripcion detallada de las particulas subatomicas y las
fuerzas que actuan entre ellas. En este proceso, han
encontrado que las propiedades de muchas particulas
pueden explicarse usando entidades incluso mas basicas,
denominadas quarks, mientras que las fuerzas que actuan
sobre la materia son el resultado del intercambio de
<<<particulas de intercambio>>> especiales, como los
fotones y los gluones. En conjunto, el resultado es el
Modelo Estandar, que ha dado lugar a una gran cantidad
de predicciones sobre la naturaleza de la materia a lo largo
de los ultimos cuarenta anos. Aun asi, los fisicos aceptan
que no puede ser la Teoria del Todo definitiva, en gran
medida porque no incluye la gravedad entre sus fuerzas
fundamentales. Ahora estan surgiendo pruebas de la
existencia de efectos que van mas alla del alcance del
Modelo Estandar, y muchos fisicos creen que estamos a
punto de llegar a una revolucion en el conocimiento del

529
cosmos y de su contenido.

La tarea a la que se enfrentaban Cario Rubbia y


su equipo era inconcebible, pero tambien lo era la
recompensa. Estaban buscando lo que
equivaldria a unos granos de azucar perdidos
entre tres cuartos de tonelada de materia. Pero
de conseguirlo serian aclamados como heroes
cientificos y merecerian recibir el Nobel.

En unos pocos meses del ano 1982, Rubbia y su


equipo habian hecho chocar miles de millones de
particulas subatomicas en el enorme acelerador
Super Proton Synchrotron en el CERN, un centro
de investigacion nuclear europeo situado cerca de
Ginebra. Ahora tenian que tamizar los restos de
esas colisiones, buscando signos reveladores de
dos particulas subatomicas que nunca antes se
habian visto. Se denominaban W y Z, y su
existencia habia sido predicha anos antes por

530
teoricos que intentaban crear algo que habia
derrotado incluso a Einstein: una explicacion unica
y unificada de las fuerzas que rigen el cosmos.

Se habia predicho que las particulas W y Z 60


eran increiblemente inestables,
descomponiendose en otras particulas en el
mismo instante en que se creaban. Aun asi, los
calculos sugerian que si mil millones de protones
y sus equivalentes de antimateria se hacian
chocar, en los restos podria haber unas pocas
particulas W y Z.

A primera vista, parecia imposible confirmar esto:


simplemente no habia suficiente potencia de
computacion para tamizar tantas colisiones de
forma suficientemente rapida, de modo que el
equipo ideo un <<<tamiz>>> electronico que
rechazara instantaneamente los acontecimientos
que obviamente no eran prometedores. Esto
eliminaba el 99,9% de los datos brutos, pero aun

531
habia un millon de colisiones que habia que
someter a examen. Usando sofisticados
metodos informaticos de deteccion por
imagenes, el equipo del CERN comenzo
descartando todo salvo los mejores datos para el
analisis final. Al final acabaron con solo cinco
colisiones, lo cual era suficiente: ahi estaban los
signos reveladores de las particulas W. Pocos
meses despues tambien encontraron las
particulas Z, y en 1984 Rubbia y Simon van der
Meer, el ingeniero que habia construido el
acelerador, recibieron su recompensa: el Premio
Nobel de Fisica.

No obstante, el premio real fue incluso mayor.


Las particulas W y Z tenian exactamente las
propiedades que habian predicho los teoricos, lo
que confirmaba su confianza en una esplendida
teoria con un nombre equivocamente modesto:
el Modelo Estandar.

532
El Modelo Estandar, forjado en los ultimos
setenta anos, es el intento mas satisfactorio de
crear una teoria unica que describa las fuerzas y
las particulas que forman nuestro universo.
Explica fenomenos que van desde la
radioactividad hasta la fuente de energia del Sol,
y ha dado muchas sorpresas, desde la existencia
de la antimateria a la existencia de particulas
atrapadas dentro de otras. Sus predicciones
detalladas se han confirmado en unas pocas
partes por 100 millones.

No resulta sorprendente que el Modelo Estandar


haya sido considerado durante mucho tiempo
como una de las joyas de la corona de la ciencia.
Pero ahora comienzan a surgir errores, y
apuntan a la existencia de una teoria incluso
mayor, cuyo poder solo se puede adivinar.

De forma casi inevitable, los origenes del Modelo


Estandar se encuentran en el trabajo de un

533
empleado de patentes suizo llamado Albert
Einstein. En 1905, publico una serie de articulos
que echaron por tierra ideas antiguas sobre la
naturaleza del espacio, el tiempo y la materia. Su
Teoria de la Relatividad Especial predecia que
comenzarian a surgir nuevos fenomenos
extranos a velocidades proximas a la de la luz.
Tambien demostro que la propia luz puede
considerarse como un chorro de paquetes de
energia llamados cuantos.

Esta idea revolucionaria tenia evidentemente


importantes implicaciones en la electrodinamica,
las leyes que gobiernan la radiacion
electromagnetica, como la luz. En 1928, un
brillante y joven fisico britanico, Paul Dirac, revelo
el resultado de integrar las leyes de la Relatividad
Especial con la Teoria Cuantica. Conocida como
electrodinamica cuantica, sus ecuaciones
resultaron ser una cueva del tesoro llena de
nueva informacion. Surgio una nueva vision de la

534
fuerza electromagnetica, en la que los cuantos
de luz —<<<fotones>>>— revoloteaban entre
particulas cargadas, transportando la fuerza
entre ellas. Pero lo mas sorprendente de todo
era que la electrodinamica cuantica predecia la
existencia de la <<<antimateria>>>,
exactamente lo opuesto a la materia ordinaria61.

El descubrimiento en 1932 del positron —la


particula de antimateria equivalente al electron—
en estudios de rayos cosmicos confirmo la
potencia de la electrodinamica cuantica y llevo a
los teoricos a insistir en la misma idea. Entre ellos
se encontraba el teorico japones Hideki Yukawa,
que se preguntaba si otras fuerzas de la
Naturaleza podrian explicarse tambien en
terminos de <<<particulas de intercambio>>>
como los fotones. En 1935 sugirio que la
denominada fuerza nuclear fuerte, que mantiene
unidos a protones y neutrones en el nucleo, se
trasmitia a traves de una particula de intercambio

535
denominada meson. Predijo su masa probable, y
en 1947 la particula aparecio debidamente en
estudios de los rayos cosmicos.

La particula de Yukawa se incorporo entonces a


la lista de particulas subatomicas conocidas, cuyo
numero parecia crecer sin limite. A finales de la
decada de 1950, habia docenas de ellas, y sus
propiedades dispares desafiaban la creencia en la
unidad esencial de la naturaleza. Pero en 1960,
los teoricos hicieron un descubrimiento singular. Si
las propiedades de las particulas se
representaban en papel milimetrado, surgian
sorprendentes patrones hexagonales y
triangulares. O, mas bien, casi surgian: existian
lagunas que apuntaban a la existencia de
particulas sin descubrir. En los siguientes anos se
encontraron las particulas que faltaban, y tenian
exactamente las propiedades que los patrones
geometricos predecian.

536
?Pero por que existian los patrones? En 1964, el
teorico estadounidense Murray Gell-Mann
presento una idea asombrosa: que encerradas
dentro de muchas de las particulas habia
entidades realmente fundamentales a las que
bautizo como quarks62 (que en ingles se
pronuncia de manera que rima con forks) 63.
Segun afirmaba Gell-Mann, las propiedades
dispares de las particulas simplemente reflejaban
diferentes combinaciones de dos o tres quarks
dentro de ellas. Era una idea audaz, en gran
medida porque implicaba que los quarks tenian
algunas propiedades muy extranas que nunca
antes se habian visto en la Naturaleza.

En 1968, los fisicos comenzaron a buscar quarks


lanzando particulas a traves de protones y
neutrones, investigando su interior. Y los
resultados revelaron la presencia de objetos
similares a pepitas dentro de las particulas, que
tenian exactamente las propiedades predichas

537
para los quarks.

Su descubrimiento reavivo la esperanza de una


teoria unificada de las particulas subatomicas. La
busqueda de una teoria unificada de las fuerzas
fundamentales tambien recibio una inyeccion de
esperanza aproximadamente por la misma
epoca. Ya en 1938, Yukawa habia encontrado
pruebas de que dos de estas fuerzas —el
electromagnetismo y la denominada fuerza
<<<debil>>>— eran realmente diferentes
facetas de una unica fuerza
<<<electrodebil>>>. Sin embargo, los intentos
para demostrar la conexion se enfrentaban a un
gran problema: el corto alcance de la fuerza
suponia que las particulas de intercambio
implicadas tenian que ser relativamente pesadas,
pero las teorias solo producian particulas sin
masa como los fotones.

En 1964, el teorico britanico Peter Higgs presento

538
una solucion, en forma de una particula que se
<<<tragaban>>> las otras, dandoles masa64.
Conocida actualmente como particula de Higgs,
los teoricos adoptaron la idea y en 1969 Steven
Weinberg, en Estados Unidos, y Abdus Salam,
en Inglaterra, habian concebido de forma
independiente una teoria unificada de la fuerza
electrode-bil, que presentaba unas particulas de
intercambio pesadas denominadas W y Z.

Por entonces los teoricos habian comenzado a


forjar la denominada Gran Teoria Unificada
(GUT), que tambien incluia a la fuerza nuclear
fuerte. Esto establecio un vinculo directo con las
nacientes teorias unificadas de particulas basadas
en los quarks. En experimentos se habia
demostrado que estos se encontraban atrapados
dentro de sus huespedes por <<<gluones>>>,
las particulas de intercambio de la fuerza fuerte.
Mientras tanto, los teoricos encontraron nuevas
conexiones entre las propiedades de los quarks,

539
los electrones y otras particulas que apuntaban a
que existian aun mas miembros de la familia
subatomica sin descubrir.

Cuando en junio de 2000 se descubrio el ultimo


miembro de esta coleccion —el denominado
neutrino tau—, el Modelo Estandar alcanzo su
cenit. Por entonces ya estaba claro que era
posible que no fuera la ultima palabra. Lo mas
obvio era que la teoria excluia la fuerza mas
importante de todas: la gravedad. Ademas
existia el hecho inquietante de que el exito del
Modelo Estandar se basaba en un enorme
numero de presuposiciones, incluidos los
diecinueve <<<parametros libres>>>, cuyos
valores desafiaban cualquier explicacion. Pero lo
mas preocupante de todo era que todavia no se
habia encontrado la particula de Higgs, que era
crucial para explicar por que las particulas tenian
masa.

540
Cualquier rastro de autocomplacencia persistente
se hizo anicos en 1998, cuando un grupo de
cientificos del experimento SuperKamiokande, en
Japon, anunciaron que los fantasmales neutrinos
tenian masa. Aunque apenas era una
millonesima parte de la masa del electron, era
suficiente para que escapara a cualquier
explicacion por el Modelo Estandar65.

Muy recientemente ha surgido otra importante


brecha. Uno de los triunfos del Modelo Estandar
es su capacidad para predecir el valor correcto
de cierta propiedad magnetica de unas particulas
denominadas muones con una precision mayor
de uno por millon. Actualmente, un equipo
internacional ha llevado a cabo determinaciones
extremadamente precisas en el Brookha-ven
National Laboratory (Estados Unidos) que han
revelado discrepancias con las predicciones del
Modelo Estandar.

541
De nuevo estas discrepancias, aunque
minusculas, causan enormes problemas al
Modelo Estandar. Tambien apuntan a la
existencia de nuevos efectos con importantes
implicaciones en nuestro conocimiento del
Universo. Entre ellos esta la <<<supersi-
metria>>>, una nueva manera de clasificar las
particulas que une aquellas que forman la
materia, como los protones y los electrones, y
las particulas de intercambio, como fotones y
gluones66.

En los proximos anos, los cientificos esperan


aprehender mas secretos del corazon de la
materia utilizando el Large Ha-dron Collider (LHC),
una gigantesca maquina que se esta acabando
de construir cerca de Ginebra67. El primer puesto
en su lista de particulas mas buscadas lo ocupa
la particula de Higgs, necesaria para que el
Modelo Estandar explique por que tienen masa
las particulas.

542
Si el LHC encontrara la particula de Higgs, su
prediccion sera el logro supremo del Modelo
Estandar. Sin embargo, ironicamente, el LHC
tambien parece estar pensado para escribir su
epitafio, si confirma la realidad de efectos que
estan mas alla de su alcance, como la
supersimetria.

Independientemente de lo que el LHC revele, el


Modelo Estandar ocupara un lugar al lado de la
ley de la gravedad de Newton —como un
concepto del Universo que, aunque sea
imperfecto, sigue siendo uno de los mayores
logros del intelecto humano.

ELECTRODINAMICA CUANTICA

543
La Electrodinamica Cuantica —resultado de
combinar las leyes clasicas del electromagnetismo
con la teoria cuantica y la relatividad— es una de
las teorias mas exitosas que se hayan planteado
nunca. Conduce a la prediccion de la antimateria
y da una explicacion de una propiedad cuantica
que sin esta teoria seria desconcertante: el espin
—la propiedad mas fundamental que poseen las
particulas subatomicas—. En el caso del electron,
esto conduce a predicciones de la fuerza de su
campo magnetico, lo que se ha confirmado en
experimentos con una precision de uno por diez
mil millones. Una de las consecuencias mas
impresionantes, confirmada en la decada de
1940, fue la existencia de energia que surgia
literalmente de ninguna parte. Las denominadas
<<<fluctuaciones del vacio>>> desempenan
ahora un papel clave en la fisica fundamental,
que incluye las teorias del origen y la naturaleza
del Universo.

544
MURRAY GELL-MANN

Uno de los teoricos mas creativos de la


actualidad, el estadounidense Murray Gell-Mann
(nacido en 1929), gano el Premio Nobel de Fisica
en 1969 por su contribucion al ordenamiento del
mundo aparentemente caotico de las particulas
subatomicas. Clasificando las particulas segun
cierta combinacion de propiedades, Gell-Mann
descubrio la existencia de regularidades que le
permitieron predecir la existencia de nuevas
particulas con una precision asombrosa. Propuso
que estos patrones se debian en ultima instancia
a la existencia de particulas incluso mas
fundamentales que los protones y los neutrones,
conocidas como quarks. Mas recientemente, se
ha centrado en intentar crear una Teoria

545
Cuantica de la gravedad y encontrar reglas
subyacentes en el comportamiento complejo de
fenomenos naturales, desde los terremotos a los
incendios forestales.

GRANDES TEORIAS UNIFICADAS

Durante la decada de 1960, los fisicos teoricos


demostraron que dos de las cuatro fuerzas
fundamentales del cosmos —el
electromagnetismo y la fuerza debil, responsable
de la radioactividad— eran de hecho diferentes
aspectos de una fuerza <<<electrodebil>>>
unica. A finales de la decada de 1970 se
comenzo a intentar unificar esta con otra fuerza:
la interaccion fuerte, que mantiene unido el
nucleo atomico. El resultado se presento con el

546
titulo, un tanto grandilocuente, de Gran Teoria
Unificada (GUT) —grandilocuente porque ahora
se sabe que sus primeros intentos eran
incorrectos y tambien porque la teoria fracasa
completamente en la pretension de incorporar la
cuarta fuerza, la mas conocida: la gravedad—.
Aunque se han hecho algunos progresos en la
creacion de una Gran Teoria Unificada, siguen
persistiendo graves problemas. Uno de los mas
importantes es que tales teorias predicen que el
proton, un componente basico de los atomos, es
realmente inestable, y se descompone en otras
particulas en una escala temporal de alrededor
de mil trillones. Sin embargo, hasta la fecha
todos los intentos de confirmar esta prediccion
han fracasado.

Cronologia

547
1928 El teorico britanico Paul Dirac
combina la relatividad con las leyes del
electromagnetismo para crear la
electrodinamica cuantica, que explica la
existencia del espin.

1935 El teorico japones Hideki Yukawa


presenta una explicacion de las fuerzas
fundamentales basada en una idea de
<<<particulas de intercambio>>>
transmitidas de un lugar a otro.

1964 Murray Gell-Mann y George Zeig


sugirieron independientemente que las
propiedades de muchas particulas pueden
explicarse usando combinaciones de quarks
dentro de ellas.

Peter Higgs (Universidad de Edimburgo)


presenta un medio de dar masa a las
particulas subatomicas, que pasa a
conocerse como particula de Higgs.

548
1967 Steven Weinberg y Abdus Salam
usan la idea de la particula de Higgs para
crear una teoria viable que unifica la fuerza
electromagnetica y la fuerza nuclear debil.

1971 Gerardus’t Hooft utiliza un


ordenador para probar que la Teoria
Electrodebil carece de. problemas
matematicos que hacian temer por los
intentos de unificacion.

1973 Sheldon Glashow y Howard Georgi


presentan el primer intento de relacionar la
fuerza electrodebil y la fuerza fuerte en
una <<<Gran Teoria Unificada>>>
(GUT).

1983 Un equipo internacional dirigido por


Cario Rubbia en el acelerador SPS (Super
Proton Synchrotron), en el CERN
(Ginebra), encuentra las primeras pruebas
de la existencia de las particulas W y Z que

549
predecia la Teoria Electrodebil.

1998 Se demuestra que los neutrinos


tienen masa en experimentos realizados en
el SuperKamiokande en Japon; es la
primera prueba de efectos mas alla del
Mo-delo Estandar.

2000 Un equipo internacional encuentra


en el laboratorio Fermilab (Chicago) el
<<<neutrino tau>>>, la particula que
faltaba para completar el Modelo Estandar.

2004 Se obtienen continuamente pruebas


experimentales de la caida del Modelo
Estandar, como en los estudios de los
mesones B en el acelerador KEKB, en
Japon.

Citas

550
60

Las particulas W y Z, cuya existencia


predijeron los teoricos en la decada de
1960, son <<<particulas de
intercambio>>> de la denominada fuerza
debil, responsable de la desintegracion
radioactiva. Debido al corto alcance de esta
fuerza, se esperaba que las particulas
fueran relativamente pesadas, lo que se
confirmo en 1983.

61

La antimateria, cuya existencia predijo el


fisico britanico Paul Dirac en 1931, es la
imagen especular exacta de la materia
ordinaria, con la misma masa pero carga
opuesta. Cuando se juntan los dos tipos, el
resultado es la forma mas violenta de
liberacion de energia del cosmos, unas
10.000 veces mas potente que una

551
bomba de hidrogeno, comparando
kilogramo por kilogramo. Los cientificos
creen que en el Big Bang se crearon
cantidades iguales de materia y
antimateria, con efectos previstos por el
Modelo Estandar que conducirian al
predominio actual de la materia ordinaria.

62

El nombre lo tomo Gell-Mann de la ultima


obra de James Joyce, Finnegan’s Wake:
<<<Three quarks for Muster Mark! / Sure
he hasn’t got much of a bark / And sure
any he has it’s all beside the mark>>>
(Finnegan’s Wake, libro 2, episodio 4). (N.
del E.)

63

A principios de la decada de 1960, un


estudiante universitario llamado George

552
Zweig intento dar sentido a las propiedades
dispares de las particulas subatomicas. En
aquella epoca se creia que existian mas de
dos docenas, pero Zweig descubrio que
podia explicar todas los propiedades si
contuvieran particulas incluso mas
fundamentales, a las que llamo
<<<ases>>>. La atrevida proposicion de
Zweig fue ridiculizada y se vio forzado a
desistir de publicarla. Entretanto, el
conocido y brillante teorico estadounidense
Murray Gell-Mann planteo la misma idea y
convencio a otros para que tomaran en
serio sus quarks. Actualmente constituyen
el corazon de la fisica moderna.

64

Muchos fisicos creen que Peter Higgs


ganara el Premio Nobel si la famosa
particula a la que dio nombre se llega a

553
descubrir. Durante la decada de 1960, los
teoricos que intentaban unificar las
interacciones electromagneticas y las
interacciones debiles encontraron que sus
teorias conducian a particulas sin masa.
Peter Higgs presento la idea de una
particula pesada que era
<<<devorada>>> por otras, dandoles
esta propiedad crucial.

65

A 2.700 metros bajo el monte Ikenoyama,


en el centro de Japon, se encuentra el
experimento conjunto (Estados Unidos y
Japon) SuperKamiokande, el detector de
neutrinos mas sensible del mundo. Los
neutrinos, que se crean cuando los rayos
cosmicos del espacio bombardean la parte
superior de la atmosfera terrestre, apenas
interactuan con la Tierra. Para detectar su

554
presencia, los cientificos del
SuperKamiokande utilizan un tanque que
contiene 50.000 toneladas de agua
altamente purificada y buscan los tenues
destellos de luz que se producen cuando
los neutrinos interactuan con las moleculas
del tanque. Tras dos anos de trabajo, el
equipo se vio recompensado en 1998
cuando encontraron pruebas de que los
neutrinos tienen masa —el primer resultado
que apuntaba claramente a la fisica
inexplicable por el Modelo Estandar.

66

Aunque las particulas subatomicas de hoy


en dia poseen muchas propiedades
diferentes, los teoricos creen que en los
inicios de la historia del Universo todas
ellas mostraban una similitud basica
denominada <<<supersimetria>>>.

555
Analizar esta prediccion es uno de los
objetivos del gran colisionador de
hadrones (Large Hadron Collider, LHC), un
aparato en el que los cientificos aceleraran
particulas hasta energias que asemejan las
condiciones del Big Bang, para ver si
comienzan a aparecer signos reveladores
de la supersimetria.

67

En 2007, los fisicos de particulas tendran


finalmente acceso a la maquina que
necesitan para ver mas alla del Modelo
Estandar: el Large Hadron Collider (LHC).
Se trata de un colosal anillo de tubos e
imanes de 27 kilometros de perimetro que
esta enterrado a 100 metros en el
extrarradio de Ginebra (Suiza). El LHC hara
colisionar protones con una violencia nunca
vista en la Tierra. La energia de los

556
protones sera equivalente a una
temperatura de 100.000 billones de grados
centigrados —condiciones similares a las
que habia justo una billonesima de segundo
despues de que se produjera el Big Bang
cosmico—. Para mantener dentro del
aparato protones que se mueven tan
rapido, el LHC usara mas de mil imanes
superconductores gigantes, cada uno de
ellos 100.000 veces mas potente que el
campo magnetico de la Tierra. Cuando
hayan cogido velocidad, las particulas se
reuniran en detectores, creando un
enorme spray de fragmentos. Los
cientificos esperan encontrar entre los
restos las respuestas a misterios presentes
desde hace anos, como el origen de la
masa, que se cree asociado a la existencia
de la particula de Higgs, que aun no se ha
detectado. Pero tendran que ser rapidos:
se calcula que de los 800 millones de

557
sucesos por segundo que tendran lugar
dentro del LHC, solo uno podria producir
algo interesante.

558
21
La Teoria del Todo

En pocas palabras

Durante los ultimos ciento cincuenta anos, los fisicos han


estado investigando para encontrar la Teoria del Todo, un
conjunto unico de ecuaciones que describa todas las
fuerzas y la materia que existen en el Universo. El primer
exito llego en la decada de 1860, cuando el fisico escoces
James Clerk Maxwell demostro que la electricidad y el
magnetismo eran realmente facetas diferentes de un
fenomeno unico: el electromagnetismo. Ahora el objetivo
es encontrar una manera de conectar esto con las demas
fuerzas del Universo y las particulas sobre las que actuan.
Durante decenios, la fuerza de la gravedad se nego a
entrar en el redil. En la decada de 1970, los teoricos
descubrieron que el impasse podia romperse si las
particulas no fueran meros puntos, sino que fueran como
minusculas <<<cuerdas>>> multidimensionales. En los
veinte anos siguientes, esas extranas entidades fueron el
centro de atencion en la busqueda de la Teoria del Todo.
Ahora se piensa que las supercuerdas son solo una

559
pequena parte de algo incluso mas extrano y mayor: la
denominada Teoria M. Segun esta, nuestro Universo y
todo lo que contiene pueden describirse en terminos de
objetos de once dimensiones que son, salvo cuatro de
ellas, mucho mas pequenas que un universo atomico.
Aunque todavia no se ha dado el veredicto final, muchos
consideran que la Teoria M es lo mas cerca que los teoricos
han estado de la Teoria del Todo definitiva.

El 17 de abril de 1955, Albert Einstein se sento en


su cama, en el hospital de Princeton, y comenzo
el ultimo calculo de su vida.

Con su buena letra caracteristica, comenzo a


escribir lineas y lineas de simbolos. Tras organizar
algunas formulas algebraicas y fracciones, dejo
su trabajo a un lado y descanso. Pocas horas
despues moria el mas importante cientifico del
siglo. En su cabecera yacia su ultimo y fallido
intento de crear su sueno de una <<<Teoria
Unificada de Campos>>>: una explicacion unica
y coherente de todas las fuerzas del cosmos
conocidas.

560
Einstein habia pensado en ella durante mas de
treinta anos, sin tener exito alguno. Hoy en dia,
medio siglo despues de su muerte, su sueno
puede estar a punto de hacerse realidad.
Algunos de los mas brillantes fisicos creen que
han alcanzado una teoria majestuosa que abarca
mucho mas de lo que Einstein hubiera
considerado posible. En su forma final, explicara
no solo todas las fuerzas que operan en el
Universo y las particulas en las que actuan, sino
incluso la naturaleza del propio espacio y del
tiempo.

No es de extranar que se la haya denominado


Teoria del Todo.

Su gran titulo y sus objetivos incluso mayores no


dejan traslucir sus origenes —en experimentos
realizados en un laboratorio Victoriano durante el
verano de 1831—. En la Royal Institution de
Londres, el gran fisico ingles Michael Faraday

561
habia estudiado la relacion entre electricidad y
magnetismo. Ya sabia que la electricidad que
fluye a traves de un cable produce un campo
magnetico; pero queria saber si lo contrario
tambien era cierto: ?el magnetismo puede
generar electricidad? Tras algunos intentos
fallidos, creo la primera version de lo que ahora
conocemos como dinamo.

En este proceso, Faraday habia descubierto algo


profundo: que pese a las apariencias, la
electricidad y el magnetismo eran realmente
diferentes facetas del mismo fenomeno basico.
Fue la primera pista de lo que se convirtio en uno
de los principios rectores de aquellos que
buscaban la Teoria del Todo definitiva: que existe
una unidad basica en el cosmos, si se observa
de la forma correcta.

Aunque las capacidades experimentales de


Faraday le habian permitido vislumbrar esta

562
unidad, carecia de la herramienta intelectual
necesaria para revelarla en todo su esplendor: las
matematicas. En 1861, el teorico escoces James
Clerk Maxwell consiguio traducir los
descubrimientos de Faraday al lenguaje
matematico. El resultado fueron las ahora
celebradas ecuaciones del electromagnetismo de
Maxwell, que explicitan la unidad esencial de la
electricidad y el magnetismo.

Era un logro brillante, pero tambien eludia una


cuestion obvia: ?esta unidad cosmica se extiende
para abarcar la gravedad, la mas familiar de las
fuerzas? Este fue el desafio que se planteo Albert
Einstein poco despues de publicar su idea
radicalmente” nueva de la gravedad, conocida
como Relatividad General, en 1915.

Mas que ningun fisico antes que el, Einstein tenia


tanto la fe como el intelecto necesarios para
unificar la gravedad y el electromagnetismo. Pero

563
pronto encontro que el reto era mucho mayor de
lo que se habia imaginado. El primer escollo
importante era encontrar una manera de incluir la
Relatividad General, su propia teoria de la
gravedad, y las ecuaciones de Maxwell en un
solo formato unificado. Segun la Relatividad
General, la gravedad es el resultado de deformar
el propio tejido del espacio y el tiempo que nos
rodea; las ecuaciones de Maxwell, por el
contrario, consideraban el electromagnetismo
como un tipo de <<<campo de fuerzas>>>
que fluye a traves de este escenario
tetradimensional.

En 1919, Einstein se entero de algo que


considero una gran pista para la unificacion de
estas dos teorias dispares. Theodor Kaluza, un
matematico aleman, habia demostrado que un
conjunto de ecuaciones podia sintetizarlas, pero
solo si el Universo contuviera una quinta
dimension adicional.

564
Era una idea sensacional, ?pero era algo mas
que una mera curiosidad? ?Donde estaba esa
dimension extra? En 1926, el matematico sueco
Oskar Klein sugirio una respuesta: quiza se habia
enrollado hasta tal punto que se habia hecho
demasiado pequena para ser detectable, al igual
que el diminuto grosor de un pelo hace que
parezca ser solo bidimensional.

Aunque la intuicion de Einstein lo convencio de su


importancia, no pudo transformar los
descubrimientos de Kaluza y Klein en la teoria
unificada de la gravedad y el electromagnetismo
que buscaba: siempre habia cabos sueltos o
consecuencias absurdas. Intento otras
estrategias, pero no dieron mejores resultados.
En la epoca de su muerte, acaecida en 1955, la
mayoria de los fisicos estaban convencidos de
que Einstein simplemente habia perdido el tiempo
en unas matematicas ingeniosas pero vacias.

565
Era una creencia aparentemente confirmada por
el hecho de que mientras Einstein estaba
forcejeando con su teoria unificada de campos,
se habian encontrado dos fuerzas fundamentales
mas: la denominada interaccion fuerte, que une
los nucleos atomicos, y la fuerza nuclear debil,
responsable de la radioactividad. Peor aun era
que estas fuerzas parecian explicarse mejor
como debidas a particulas <<<mensajeras>>>
que las transmitian de un lugar a otro —algo
totalmente diferente a la idea de la gravedad de
Einstein—. Pero, increiblemente, por fin se
comprobo que la creencia de Einstein en la
importancia de las ideas de Kaluza y Klein era
correcta, aunque de una manera que ni siquiera
el habria comprendido.

Con Einstein muerto y sus intentos por unificar la


gravedad con el electromagnetismo en la
papelera, pocos fisicos mostraban interes en
aceptar el reto. En su lugar, la atencion empezo

566
a centrarse en la unificacion del
electromagnetismo con una de las fuerzas
recientemente halladas: la interaccion debil. Como
Maxwell habia demostrado, el truco estaba en
encontrar una descripcion matematica de ambos
que pusiera de manifiesto sus similitudes ocultas.
Durante la decada de 1920, los fisicos creyeron
que habian encontrado la manera de hacerlo,
usando la denominada Teoria Cuantica de
Campos.

Segun esta teoria, cada fuerza fundamental tiene


su propia particula mensajera especial y, durante
la decada de 1950, los fisicos comenzaron a
estudiar las similitudes entre las portadoras del
electromagnetismo y la fuerza debil: el foton y la
particula W. Descubrir las similitudes distaba
mucho de ser sencillo, en gran parte porque la
particula W es infinitamente mas pesada que el
foton, que carece de masa. Pero a finales de la
decada de 1960, tres teoricos —Steven

567
Weinberg y Sheldon Glashow, en Estados Unidos,
y Abdus Salam, en Inglaterra— desarrollaron
independientemente teorias sobre estas dos
fuerzas que demostraban que, en el fondo, no
son mas que diferentes aspectos de una sola
fuerza <<<electrodebil>>>. Mejor aun: la
unificacion permitio que se hicieran predicciones
de nuevos efectos sutiles que podian
comprobarse en experimentos.

Cuando se empezaron a verificar estas


predicciones, durante la decada de 1970, los
fisicos celebraron la primera unificacion exitosa
desde el importante avance de Maxwell, acaecido
hacia mas de un siglo.

Por aquella epoca, Glashow se habia embarcado


en la Universidad de Harvard en una
investigacion de otras maneras de revelar la
unidad ultima de las fuerzas. En 1973,
trabajando con su colega Howard Georgi,

568
encontro un formalismo matematico que
unificaba la fuerza electromagnetica, la fuerza
nuclear debil y la fuerza nuclear fuerte. Esta
teoria, conocida como Gran Teoria Unificada,
abrio una vision autenticamente cosmica de una
sola <<<superfuerza>>> que rigio el Universo
justo despues del Big Bang. Cuando el Universo
se enfrio, las tres fuerzas se separaron, creando
el cosmos que vemos hoy en dia.

De nuevo la teoria hizo predicciones, pero en


esta ocasion fue mas dificil confirmarlas. Los
teoricos encontraron que la version original de la
gran teoria unificada carecia de un ingrediente
crucial, el cual produciria otra unificacion increible.
La <<<supersi-metria>>>, descubierta por los
teoricos a principios de la decada de 1970, es
una propiedad matematica que une las particulas
que forman la materia, como los electrones y
protones, con las que transportan fuerzas, como
los fotones.

569
Los teoricos descubrieron que la supersimetria
eliminaba todas las diferencias aparentes de
estas particulas subatomicas para revelar su
unidad basica. Pero tambien descubrieron que les
daba otra clave, incluso mas profunda, sobre la
Teoria del Todo, clave que apuntaba a como
unificar la superfuerza de la Gran Teoria Unificada
con la gravedad, que seguia resistiendose a la
unificacion.

Algunos teoricos ya habian intentado llevar la


gravedad al redil usando la Teoria Cuantica de
Campos, que presentaba la fuerza como unas
particulas, llamadas gravitones, revoloteando
entre las masas. Sin embargo, al igual que
Einstein, se encontraron con horribles problemas
matematicos. Incluso asi, los mas prometedores
de estos fracasos colosales incluian la
supersimetria, mas una novedad: dimensiones
adicionales —idea que habia embelesado a
Einstein medio siglo antes—. Lo que les faltaba

570
era algun ingrediente que unificara la gravedad
con las demas fuerzas sin desatar los demonios
matematicos. Demostro ser algo tan radical que
incluso Einstein podria haberse mostrado reacio a
aceptar: la supercuerda68.

En 1984, los teoricos John Schwarz (Caltech) y


Michael Green (Universidad de Londres)
asombraron a sus colegas declarando que podian
unificar la gravedad con las demas fuerzas sin
tener los problemas habituales, pero con una
condicion: que las particulas ya no se
consideraran como meros puntos, sino como
entidades minusculas llamadas supercuerdas.
Mucho mas pequenos que el nucleo atomico,
estos objetos similares a hilos tambien debian
tener supersimetria (de ahi el termino de
<<<supercuerdas>>>) y existir en diez
dimensiones.

Era una afirmacion sorprendente que hizo que

571
infinidad de teoricos se interesaran por las
supercuerdas. A finales de la decada de 1980
estaba claro que, pese a suponer un importante
avance, no lo eran todo. Aunque solo puede
haber una Teoria del Todo, los teoricos
descubrieron no menos de cinco teorias de
supercuerdas, y no habia una manera clara de
elegir entre ellas. Las supercuerdas parecian no
ser mas que la sombra de algo incluso mayor. En
1995, el teorico de cuerdas Edward Witten
(Institute of Advanced Study, Princeton) desvelo
lo que ahora muchos consideran el primer
vislumbre de esa teoria definitiva, quiza la propia
Teoria del Todo.

Witten demostro que las cinco teorias de


supercuerdas son solo descripciones preliminares
de una idea unica y principal, a la que denomino
Teoria M. Algunos teoricos afirmaban que la M
hacia referencia a <<<madre>>>,
<<<misteriosa>>> o incluso <<<magica>>>,

572
pero su conexion con las supercuerdas es mas
clara si hace referencia a <<<membrana>>>.
Las cinco teorias de las supercuerdas surgieron
entonces como simples extremos
multidimensionales de membranas de once
dimensiones, todas ellas, salvo cuatro,
demasiado pequenas para observarlas. Hoy en
dia la Teoria M sigue siendo la candidata mas
plausible para lo que Einstein pensaba y para
mucho mas: una sola descripcion unificada no
solo del electromagnetismo y la gravedad, sino
de las demas fuerzas fundamentales, y todas las
particulas sobre las que actuan69. Es un logro
realmente inconcebible, y aun no ha concluido.
Muchos de los mejores teoricos del mundo estan
investigando los ricos filones matematicos de la
Teoria M, buscando respuestas a los muchos
misterios que aun quedan por resolver.

?Exactamente como y por que las once


dimensiones (excepto cuatro) se

573
<<<enroscan>>> hasta ser demasiado
pequenas para observarlas?

?Por que es tan dificil descubrir la bella unidad


entre las fuerzas y las particulas?

Incluso es posible que finalmente la Teoria M


demuestre carecer de la capacidad para
responder todas estas preguntas. Pero al menos
nos ha dado una vision imponente de la unidad
basica del cosmos y de todo lo que hay en el.

SIMETRIA: CUANDO LA BELLEZA SE


ENCUENTRA CON LA VERDAD

Durante mucho tiempo se ha considerado que la


simetria es un aspecto clave de la belleza, pero
en el siglo XX los teoricos encontraron que

574
tambien tiene vinculos profundos con la verdad
cosmica. En fisica, la simetria suele tomar forma
de operaciones matematicas que dejan
invariante alguna magnitud fisica —como ocurre,
por ejemplo, al rotar un cristal simetrico a traves
de ciertos angulos: parece que no cambia—. A
veces dichas simetrias matematicas revelan
patrones de las propiedades de particulas, y los
huecos que hay entre estas permiten que los
fisicos hagan predicciones sobre particulas que
aun no se han descubierto. En otros casos, la
simetria se manifiesta como leyes de la
conservacion; por ejemplo, la ley de la
conservacion de la energia se relaciona con una
simetria especial del espacio-tiempo.

PROBANDO LO QUE NO TIENE PRUEBA

575
Si la Teoria del Todo de verdad existe, se
demostrara a si misma en fenomenos que tienen
lugar cuando se alcanzan energias caracteristicas
del propio Big Bang, que tuvo lugar hace casi
14.000 millones de anos. Dado que no hay visos
de crear tales energias en la Tierra, muchos
fisicos han criticado la busqueda de la Teoria del
Todo como un paraiso de los teoricos, en el que
cualquiera puede tener ideas descabelladas a
sabiendas de que nunca podran analizarse. Sin
embargo, recientemente han comenzado a surgir
posibles metodos de prueba. Por ejemplo,
Giovanni Amelino-Camelia (Universidad de Roma)
ha demostrado que unos instrumentos conocidos
como interferometros laser pueden ser capaces
de detectar efectos sutiles predichos por los
intentos de unificar la Teoria Cuantica y la
gravedad, un componente clave de cualquier
Teoria del Todo. Los estudios de la radiacion
procedente de ciertas explosiones cosmicas
violentas, conocidas como estallidos de rayos

576
gamma, tambien pueden arrojar luz sobre la
naturaleza del espacio y del tiempo predicha por
teorias que podrian convertirse en la Teoria del
Todo.

Cronologia

1831 El fisico ingles Michael Faraday


confirma que los campos magneticos
pueden producir electricidad, y viceversa, lo
que apunta a su unidad esencial.

1862 El fisico escoces James Clerk


Maxwell logra la primera unificacion con un
conjunto de ecuaciones que reunen la
electricidad y el magnetismo.

1900 Max Planck (Alemania) comienza la

577
revolucion cuantica al mostrar que la
energia se transmite en paquetes
conocidos como <<<cuantos>>>.

1915 Einstein desvela su teoria de la


gravedad, la Relatividad General. Durante
toda su vida intento unificar esta teoria con
la Teoria del Electromagnetismo de
Maxwell.

1919 El matematico aleman Theodor


Kaluza demuestra que anadiendo una
dimension adicional al espacio se unifican la
gravedad y el electromagnetismo.

1967 El teorico estadounidense Steven


Weinberg y sus colaboradores consiguen
unificar el electromagnetismo y la fuerza
nuclear debil.

1974 Los teoricos John Schwarz y Joel


Scherk (Caltech) demuestran que la Teoria

578
de Cuerdas incluye automaticamente la
gravedad.

1976 Peter van Nieuwenhuizen y sus


colaboradores (Universidad del Estado de
Nueva York) encuentran que la
supersimetria debe tener un papel clave en
una Teoria del Todo.

1984 Los grandes avances de Michael


Green y John Schwarz, que colaboran en el
Queen Mary College, centran la atencion
en las supercuerdas.

1995 El trabajo de Ed Witten (Institute of


Advanced Study, Princeton) dispara la
revolucion de la Teoria M.

1998 Giovanni Amelino-Camelia y sus


colaboradores demuestran que las teorias
cuanticas de la gravedad pueden analizarse
experimentalmente.

579
Citas

68

Aunque la Teoria de las Supercuerdas y


posteriormente la Teoria M han constituido
el centro de atencion de los fisicos que
estaban a la busca de una Teoria del Todo,
ciertamente no son las unicas. De hecho,
es posible que ni siquiera sean las
mejores. Algunos teoricos han seguido
una estrategia radicalmente diferente para
abordar el problema clave de unificar la
Teoria Cuantica con la teoria de la
gravedad de Einstein, la Relatividad
General. Conocida como gravedad
cuantica de bucles, aplica las ideas de la
Teoria Cuantica directamente a las
ecuaciones de Einstein, eliminando ciertas
suposiciones y aproximaciones

580
cuestionables que se hacen en la Teoria
de las Supercuerdas. Una consecuencia
es que el espacio y el tiempo surgen de la
teoria en forma de <<<bucles>>>
increiblemente pequenos, a partir de los
cuales se forma el Universo. Muchas de
las intuiciones de la gravedad cuantica de
bucles tambien han aparecido en la Teoria
de las Supercuerdas, lo que —dada la
independencia y el mayor rigor de la
primera— esta ayudando a potenciar la
confianza en una busqueda que hasta la
fecha adolecia de una grave carencia de
comprobaciones frente a la realidad.

69

Un problema importante al que se enfrenta


la Teoria del Todo es la autentica pletora
de soluciones a las ecuaciones de la Teoria
de las Supercuerdas. Algunas estimaciones

581
la situan en un valor superior a uno seguido
de quinientos ceros —y cada una describe
un Universo del todo diferente—. Esto es
claramente insatisfactorio, ya que, como
mucho, solo una de estas numerosas
soluciones puede ser cierta: la que
corresponda a nuestro Universo. Sin
embargo, existe una forma de solventar
esto. Quiza nuestro Universo, con su
mezcla de fuerzas y particulas, sea
simplemente parte de un
<<<multiverso>>> mayor formado por
innumerables universos, cada uno con sus
propios conjuntos de leyes. De ser asi,
entonces quiza no tenga sentido
preguntarse cual de las ecuaciones de las
supercuerdas es correcta, de haber
alguna. Todas ellas podrian ser
descripciones precisas de diferentes partes
del multiverso. En el capitulo 24 encontrara
el lector mas detalles sobre el concepto de

582
multiverso.

583
EL UNIVERSO Y NUESTRO
LUGAR EN EL

584
22
El Big Bang

En pocas palabras

Hasta hace aproximadamente un siglo, la mayoria de los


cientificos se aferraban al punto de vista aristotelico del
Universo como algo eterno e inmutable. En 1917, Einstein
encontro que su nueva teoria de la gravedad, la
Relatividad General, se negaba a ajustarse a esta idea
antigua, y se vio forzado a alterar sus ecuaciones. Pronto
se descubrio que se habia equivocado y que el Universo
realmente se estaba expandiendo como si hubiera
estallado en una enorme explosion hace miles de millones
de anos.

Desde entonces, los cosmologos han descubierto pruebas


convincentes de este Big Bang y ahora intentan descubrir
su causa. Se cree que efectos cuanticos conocidos como
campos escalares impulsaron un periodo inicial de
expansion extremadamente rapida, conocida como
inflacion, y desencadenaron la liberacion de radiacion y de
materia a la que denominamos Big Bang. Ahora el principal

585
desafio es explicar el origen de estos campos escalares y
demostrar que realmente existian en el momento de la
creacion.

La proxima vez que busque algo inspirador en la


television, apriete el boton para cambiar de canal
hasta que este entre dos canales. Mire con
detenimiento el efecto de nieve que llena la
pantalla. Alrededor del 1% de esto es energia de
microondas que surgio como calor del Big Bang,
hace aproximadamente 14.000 millones de anos.

?Quien dice que nunca hay nada interesante en


la tele?

De todos los avances cientificos del ultimo siglo,


ninguno es mas imponente —o mas asombroso
— que el descubrimiento de que nuestro
Universo comenzo con una explosion colosal y se
ha estado expandiendo desde entonces. Es una
conclusion tan profunda que incluso le costo

586
aceptarla a Einstein, el cientifico mas radical de
los tiempos modernos. ?Como podria haber
cobrado un Universo existencia de la nada? ?Que
lo desencadeno y’de donde procedia la materia
que ahora vemos?

Tras decenios de esfuerzos por parte de los


astronomos teoricos y los que observan el
cosmos, ahora comienzan a surgir respuestas,
basadas en pruebas solidas y no en
especulaciones. Pero trazan un panorama del
Universo formado por fuerzas cuyos origenes y
cuya potencia son apenas algo menos milagrosos
que el relato biblico de la Creacion.

Es suficiente para hacer que uno casi sienta


nostalgia de la idea simple del cosmos que
presentaron el filosofo griego Aristoteles y otros
hace mas de 2.000 anos, segun la cual el
Universo es infinito, eterno e inmutable.
Ciertamente, Albert Einstein no vio razones para

587
desafiar aquellas presuposiciones cuando publico
en 1917 una explicacion de las implicaciones
cosmicas de su nueva teoria de la gravedad, la
Relatividad General. Segun la Relatividad General,
la materia produce una curvatura del espacio-
tiempo que la circunda, causando efectos que
interpretamos como la <<<fuerza>>> de la
gravedad. Esto representaba un punto de partida
radical a partir de la idea mas que vaga de la
gravedad que dio Newton, segun la cual la fuerza
actuaba como una especie de goma elastica
invisible. Einstein habia demostrado que la
Relatividad General daba una explicacion mas
precisa de la realidad que el concepto de Newton
de la gravedad, al menos dentro del Sistema
Solar, y esperaba, sin duda alguna, que triunfara
cuando se aplicara al cosmos entero.

Sin embargo, rapidamente se topo con un gran


problema: en su forma mas pura y elegante, las
ecuaciones de la Relatividad General se negaban

588
a dar la respuesta <<<correcta>>>, apuntando
en su lugar a un Universo que era cualquier cosa
menos estatico. Einstein, perplejo por este
resultado aparentemente absurdo, introdujo un
termino adicional a sus ecuaciones, un factor de
correccion (fudge-factor) al que mas tarde se
denomino <<<constante cosmologica>>>. Era
el primer sintoma de los problemas a los que se
enfrentaria Einstein lidiando con cuestiones
cosmicas.

El segundo surgio casi de inmediato, cuando el


teorico holandes Willem de Sitter demostro que la
Relatividad General permitia un Universo en
expansion aunque invariable. Einstein esperaba
que la Relatividad General tuviera el sello de la
teoria <<<definitiva>>> de la gravedad y
produjera un modelo unico de nuestro Universo
—en concreto, el que se ajusta a la realidad—.
En principio penso que De Sitter habia cometido
un error, pero no consiguio encontrarlo. Por si

589
fuera poco, mas tarde, en 1922, un meteorologo
ruso llamado Alexander Friedmann demostro que
la Relatividad General permitia un monton de
universos, algunos de los cuales no eran ni
estaticos ni invariables. De nuevo Einstein
sospecho que habia algun error garrafal, pero no
pudo encontrar ninguno.

El mayor golpe llego en 1927, cuando Georges


Lemaitre, cosmologo y sacerdote belga,
consiguio los mismos resultados teoricos que
Friedmann, y apunto a pruebas solidas de que el
Universo se estaba expandiendo. El astronomo
Vesto Slipher (Lowell Observatory, Arizona) habia
observado que la luz de las <<<nebulosas>>>
amorfas del cielo nocturno a menudo mostraba
un curioso desplazamiento hacia el rojo —una
longitud de onda mayor— del espectro. Slipher
pensaba que estaba siendo testigo del
denominado efecto Doppler, que explica el
aumento de la longitud de onda del sonido de las

590
sirenas de policia a medida que se alejan a toda
velocidad. De hecho, estaba viendo algo mucho
mas profundo: el estiramiento de la luz por la
expansion de todo el Universo.

Las primeras pistas de esto llegaron en 1924,


cuando Edwin Hubble (Mt. Wilson Observatory,
California) demostro que las nebulosas eran en
realidad vastas galaxias que se encontraban muy
lejos de la nuestra70. Cinco anos despues,
Hubble publico uno de los resultados mas
importantes de la ciencia moderna: un grafico
que demostraba que los <<<desplazamientos
hacia el rojo>>> de estas galaxias distantes
aumentaban de manera constante con la
distancia. La ahora denominada ley de Hubble
era precisamente el tipo de comportamiento
predicho por la Relatividad General para un
Universo en expansion.

Friedmann y Lemaitre estaban en lo cierto, y

591
Einstein fue consciente de que al forzar sus
ecuaciones para que se ajustaran a creencias
antiguas habia perdido la oportunidad de hacer la
prediccion mas asombrosa de la historia cientifica.

Le correspondio a Lemaitre apuntar otra


implicacion no menos increible: que el Universo
tuvo que haber aparecido en alguna explosion
titanica. Llego a ser aclamado como el padre de
la teoria del Big Bang. Mientras tanto, Einstein
empezo a considerar su oportunidad perdida
como el mayor error de su vida.

Pronto resulto claro que el cosmos puede jugar


tanto con los astronomos como con los teoricos.
Las determinaciones iniciales de la velocidad de
expansion cosmica implicaban que el Universo
habia nacido solo unos pocos miles de millones de
anos atras, lo que hacia que fuera mas joven
que la Tierra. En 1948, tres teoricos de la
Universidad de Cambridge —Hermann Bondi,

592
Thomas Gold y Fred Hoyle— encontraron una
salida ingeniosa a esta paradoja. Demostraron
que la ley de Hubble era coherente con un
Universo que estuviera en <<<estado
estacionario>>>, cuya velocidad de expansion y
cuya densidad nunca cambiaran.
Matematicamente, eso implicaba que, pese a las
apariencias, en realidad el Universo habia nacido
infinitamente antes.

El modelo del estado estacionario soslayaba, por


tanto, el problema de la edad cosmica e
impresiono a muchos por su elegancia. Sin
embargo, para mantener constante la densidad
de la materia, debia permitir que la materia
surgiera en el universo de la nada. Sus creadores
apuntaban que esto era apenas mas plausible
que el hecho de que todo el Universo surgiera
repentinamente de la nada en lo que Hoyle
denomino ironicamente un <<<gran
estallido>>> (Big Bang, en ingles).

593
A finales de la decada de 1950, nuevas
determinaciones demostraron que la edad del
Universo era holgadamente mayor que la de la
Tierra, echando abajo la razon de ser del modelo
del estado estacionario. Pero el autentico golpe
de gracia llego en 1964, con el mayor
descubrimiento cosmico que se hubiera hecho
desde la Ley de Hubble. Ingenieros
estadounidenses intentaron encontrar la fuente
de un curioso <<<silbido>>> de microondas
detectado en los laboratorios Bell (Nueva Jersey)
por una antena de radio. Parecia proceder de un
lugar fuera de la Tierra, pero su significado real
solo surgio despues de que los ingenieros
hablaran con astrofisicos de la Universidad de
Princeton, que les indicaron que el silbido tenia
precisamente la forma esperada de una radiacion
calorica desplazada hacia el rojo remanente del
Big Bang.

Ahora se considera que el descubrimiento de

594
este fondo cosmico de microondas es la mejor
prueba de que el Universo comenzo en una
gigantesca bola de fuego71. Pero no es la unica
prueba. Hace mas de cincuenta anos, el
astrofisico ruso-estadounidense George Gamow y
sus colaboradores se dieron cuenta de que el
calor del Big Bang habia desencadenado
reacciones nucleares que podrian haber creado
elementos quimicos72. Calculaban que el Universo
deberia contener aproximadamente tres partes
de hidrogeno por cada parte de helio, algo que
confirmaron los astronomos con posterioridad.

Durante la decada de 1970, los teoricos


comenzaron a luchar con los efectos cuanticos
que con probabilidad existieron en el pequeno e
intensamente caliente Universo primitivo. La
atencion se centro en los denominados campos
escalares; cosmologos de la Union Sovietica y de
Estados Unidos demostraron que dichos campos
podian producir un aumento increiblemente rapido

595
de la expansion cosmica denominado inflacion. Es
mas, estos campos antigravitatorios podian
crearse para liberar su energia en el Universo
recien nacido, proporcionando justo el tipo de
calor y de materia necesarios para un Big Bang.

Esto era al menos la teoria, y en 1992


comenzaron a surgir pruebas que la apoyaban,
con la llegada de una nueva era en el campo de
la cosmologia. El satelite COBE (Cosmic
Background Explorer) examino con una precision
sin precedentes la radiacion de microondas que
llena el Universo, y dio a los cosmologos
informacion con la que en tiempos solo habian
sonado. Demostro que la bola de fuego original
se ha enfriado hoy en dia hasta una temperatura
de solo 2,73 grados sobre el cero absoluto.
Tambien demostro que el fondo cosmico de
microondas tenia caracteristicas tecnicas que se
ajustaban en lineas generales a la Teoria de la
Inflacion.

596
Desde entonces, las observaciones del fondo
cosmico y los resultados de la sonda WMAP
(Wilkinson Microwave Anisotropy Probe) de la
NASA han proporcionado mas detalles. Tambien
se espera obtener mas informacion sobre la
inflacion con el satelite Planck de la Agencia
Espacial Europea, cuyo lanzamiento esta previsto
para 2007. En conjunto, los datos obtenidos
hasta la fecha muestran un Universo primitivo
que literalmente surgio de la nada hace unos
13.700 millones de anos. Lleno de campos
escalares, luego sufrio una inflacion repentina
desde un tamano aproximadamente 1.000
millones de veces mas pequeno que un proton al
tamano de un pomelo en cerca de 10-32
segundos. Entonces, de forma igualmente
repentina, el campo escalar se colapso, liberando
energia como radiacion y materia en lo que en la
realidad se conoce como Big Bang.

Por tanto, hoy en dia parece que el Big Bang no

597
era al fin y al cabo el comienzo de todo, sino solo
el resultado de efectos que ya estaban
funcionando en un Universo recien nacido.
Comprender esos efectos requerira nada menos
que una Teoria del Todo, capaz de explicar
todas las fuerzas de la Naturaleza y las particulas
que en ella actuan, e incluso el origen del espacio
y el tiempo.

Es una perspectiva desalentadora, pero los


teoricos esperan dar con una nueva y poderosa
fuente de conocimiento: las ondas
gravitacionales. Se cree que estas arrugas del
propio tejido del espacio-tiempo, cuya existencia
predijo Einstein en 1916, fueron desencadenadas
por los acontecimientos cosmicos mas violentos,
como explosiones de supernovas o colisiones de
agujeros negros. Ahora los astronomos estan
proyectando enormes observatorios situados en
el espacio y capaces de detectar las ondas
gravitacionales creadas durante el Big Bang, la

598
inflacion, y quiza incluso el momento mismo de la
Creacion73.

Hasta ahora no se han detectado ondas


gravitacionales; su existencia sigue siendo la
principal prediccion de Einstein pendiente de
confirmacion. Si, como la mayoria de los
cientificos creen, Einstein estaba en lo cierto y las
ondas gravitacionales realmente existen, es
posible que sean la clave que descubra el
misterio cosmico definitivo que con tanto afan
intento resolver.

?FINALMENTE ES CORRECTA LA TEORIA


DEL ESTADO ESTACIONARIO?

La desaparicion de la Teoria del Estado

599
Estacionario a finales de la decada de 1960
entristecio a muchos cosmologos, que la
consideraban una bella teoria destruida por la fea
presencia del fondo cosmico de microondas. Uno
de sus autores, sir Fred Hoyle, continuo
defendiendola —o al menos una version
modificada de ella— hasta su muerte, que tuvo
lugar en 2001. En la obra A Different Approach to
Cosmology, publicada un ano antes, Hoyle y los
destacados astrofisicos Geoffrey Bur-bidge y
Jayant Narlikar sostenian que todas las criticas
que apuntaban a la Teoria del Estado
Estacionario en las decadas de 1950 y 1960 no
venian al caso o tenian explicaciones plausibles.

Sin embargo, pocos fueron los que mostraron


interes y el Big Bang aun lleva la batuta. No
obstante, no carece de sus propios problemas, e
ironicamente estos pueden incluso resucitar el
mas bello de los aspectos del estado
estacionario. El descubrimiento reciente de que el

600
Universo esta lleno de <<<energia oscura>>>
ha revelado que el efecto de la materia ordinaria
sobre la expansion cosmica es mucho menor de
lo que originariamente se creia. En su lugar, el
Universo, durante billones de anos a partir de
ahora, sera impulsado exclusivamente por la
energia oscura, y su comportamiento sera
entonces identico al previsto basandose en el
modelo del estado estacionario.

?HABRA OTRO BIG BANG?

Los datos actuales sugieren que el Universo se


creo en un Big Bang hace unos 13.700 millones
de anos y que se expandira por siempre,
impulsado por la invisible <<<energia
oscura>>>. Esto indica que nuestro Universo

601
esta condenado a diluirse de forma gradual. Sin
embargo, segun los cosmologos Sean Carroll y
Jennifer Chen (Universidad de Chicago), la
realidad puede ser muy diferente. Apuntan que la
energia oscura puede sufrir ciertas fluctuaciones
aleatorias aterradoras que desencadenarian otro
Big Bang. Su probabilidad es extremadamente
remota —solo uno contra diez elevado a diez
elevado a cincuenta y seis—, pero no es nula, y
puede explicar el ultimo Big Bang.

Cronologia

1917 Einstein aplica su Teoria de la


Relatividad General a todo el Universo,
pero no consigue dar la respuesta
<<<correcta>>> de un cosmos estatico
y eterno.

602
1922 El meteorologo teorico ruso
Alexander Friedmann encuentra ecuaciones
que demuestran que la Relatividad General
permite un Universo no estatico; un
dubitativo Einstein finalmente llega a estar
de acuerdo.

1927 El cosmologo y sacerdote belga


Georges Lemaitre, a raiz de los datos
sobre el desplazamiento hacia el rojo,
sostiene que la Relatividad General implica
un Universo que tuvo un principio.

1929 El astronomo estadounidense Edwin


Hubble anuncia el descubrimiento de la
expansion del Universo, con las galaxias
alejandose rapidamente unas de otras,
como si provinieran de una explosion.

1946 George Gamow, Ralph Alpher y


Robert Herman comienzan el estudio de la
creacion de elementos quimicos en el Big

603
Bang.

1948 Herman Bondi, Thomas Gold y Fred


Hoyle (Universidad de Cambridge)
proponen la Teoria del Estado Estacionario,
que establece que el Universo no cambia
con el tiempo.

1950 Fred Hoyle acuna el termino de Big


Bang en una serie de conferencias
radiofonicas emitidas por la BBC; pese a su
caracter ironico, se convierte en la
descripcion estandar de la teoria.

1964 Los ingenieros Arno Penzias y


Robert Wilson (Laboratorios Bell) detectan
el fondo cosmico de microondas,
considerado la confirmacion de la teoria del
Big Bang.

Decada de 1970 El teorico sovietico


Andrei Linde y el estadounidense Alan Gut

604
destacan el papel de los <<<campos
escalares>>> como desencadenantes de
la inflacion del Universo primitivo.

1992 El satelite COBE estudia el fondo


cosmico de microondas con detalles sin
precedentes y comienza una nueva era de
<<<cosmologia de gran precision>>>,
con estimaciones fiables de muchas
propiedades del Universo.

1995 Al estudiar las explosiones de


supernovas, los astronomos encuentran
pruebas convincentes de la existencia de la
<<<energia oscura>>>, que ahora se
cree que domina el Universo.

Citas

70

605
Pese a siglos de observaciones por parte
de los astronomos, hasta la decada de
1920 no se aclaro la autentica naturaleza
de las manchas de luz denominadas
<<<nebulosas>>> que salpican el cielo
nocturno. Entonces el astronomo
estadounidense Edwin Hubble uso las
observaciones de un tipo especial de
estrella variable para determinar la distancia
a una de tales nebulosas: M.31, situada en
la constelacion de Andromeda. Su
resultado de 900.000 anos luz demostro
que M.31 era en realidad una gran galaxia
de estrellas muy alejada de la nuestra. Se
cree que las primeras galaxias se formaron
a partir de la <<<grumosidad>>>
primordial de la materia que se creo
durante el Big Bang. Las ultimas
observaciones del fondo cosmico de
microondas sugieren que las primeras
galaxias se formaron solo 200 millones de

606
anos despues del nacimiento del Universo.

71

Las microondas son una forma de


radiacion electromagnetica cuya longitud de
onda de un milimetro a 30 centimetros se
encuentra entre el rojo de la luz visible y
las ondas de radio. Sus aplicaciones van
desde la cocina hasta los telefonos moviles
y los satelites de comunicaciones; con una
antena disenada para comunicarse con
satelites es como se revelo la realidad del
Big Bang.

72

El ruso Gamow (nacido en 1904) fue uno


de los cientificos mas originales del ultimo
siglo. Ya como doctorando demostro que
el recientemente descubierto Principio de
Incertidumbre podia explicar la

607
radioactividad, e hizo contribuciones
fundamentales a la cosmologia, la
astrofisica e incluso la bioquimica,
trabajando en el codigo genetico de ADN.

73

Para detectar las ondas gravitacionales, los


cientificos de Estados Unidos han
construido el LIGO (Laser Interferometer
Gravitational-wave Observatory), por un
coste de 300 millones de euros. De hecho
hay dos centros, en Lui-siana y en el
estado de Washington, para minimizar las
falsas alarmas; cada uno de ellos utiliza
laseres que viajan por tubos en forma de L
de cinco kilometros de largo para detectar
minusculos movimientos debidos a las
ondas gravitacionales.

608
23
Energia oscura

En pocas palabras

Ya desde la epoca de Isaac Newton, existia un dogma


entre los cientificos: que la fuerza mas importante del
cosmos es la gravedad. Hasta hace poco, los astronomos
estaban convencidos de que, incluso desde el Big Bang, el
Universo se habia estado expandiendo a una velocidad
decreciente bajo el influjo de la gravedad. La gran
cuestion era si la gravedad era suficientemente intensa
para detener la expansion y provocar un Big Crunch
(<<<gran colapso>>>) catastrofico. A principios de la
decada de 1990, los astronomos se dedicaron a responder
la cuestion estudiando la luz de supernovas distantes,
estrellas que habian estallado en los confines del Universo
visible. En 1998 quedo claro que la expansion cosmica,
lejos de hacerse mas lenta, realmente se estaba
acelerando. Este hallazgo, que desde entonces se ha
confirmado con otros metodos, ha revelado la existencia
de la <<<energia oscura>>> del Universo, que impulsa la
velocidad de expansion en contra de la atraccion de la

609
gravedad.

Hasta la fecha, los intentos de desarrollar una teoria de la


energia oscura han fracasado, aunque se cree que esta
relacionada con las denominadas fluctuaciones cuanticas
del vacio, efectos subatomicos cuya existencia se ha
demostrado en el laboratorio. Se espera que la explicacion
definitiva surja de la esperada Teoria del Todo, que
revelara las conexiones ocultas entre el mundo subatomico
y el mundo cosmico.

Fue una llamada telefonica que el astronomo


Robert Kirshner (Universidad de Harvard) no
olvidaria asi como asi. Un colega le habia llamado
para comentar nuevas observaciones de estrellas
que explotan en los confines del Universo visible.
El colega de Kirshner le estaba diciendo algo que
no queria oir: que el Universo esta en manos de
una fuerza que nadie puede explicar.

Por lo general, los cientificos estarian encantados


de hacer un descubrimiento tan asombroso. Pero
esto era diferente. Se trataba de una fuerza que

610
ya antes habia puesto en ridiculo al propio
Einstein. Lo que preocupaba a Kirshner y a sus
colaboradores era la posibilidad nada desdenable
de que tambien estuviera a punto de hacerles
quedar en ridiculo a ellos.

Esto ocurria en diciembre de 1997. Desde


entonces, ha quedado claro que esas
observaciones de estrellas que estallan no eran
simples visiones. Otros astronomos han hecho
observaciones similares y las han respaldado
mediante datos obtenidos del espacio. Hoy en
dia quedan pocos motivos de duda. El Universo
no solo se esta expandiendo: esta haciendolo a
una velocidad cada vez mayor, impulsado por
una extrana fuerza que literalmente procede de
la nada.

Su nombre capta perfectamente su naturaleza


misteriosa: <<<energia oscura>>>. Hasta
ahora los astronomos estaban convencidos de

611
que la fuerza mas importante del cosmos es la
misma que Isaac Newton, hace 350 anos, vio
tirando una manzana de un arbol. Pero ya no.
Hoy en dia los astronomos creen que hace unos
7.000 millones de anos la gravedad perdio el
control del destino del Universo, que paso a esta
misteriosa energia oscura. El problema es que
nadie puede desvelar el porque ni el como.
Aparte de su presencia, practicamente no se
conoce nada sobre esta energia oscura, el
mayor enigma de toda la ciencia.

No es de extranar que los cientificos tengan


emociones diversas respecto al descubrimiento
de la energia oscura. Es mas que comprensible
que se muestren reacios, dada la suerte de la
primera persona que se enfrento a ella: Albert
Einstein. En 1915, Einstein, que ya era famoso
por su revolucionaria Teoria de la Relatividad
Especial y sus intuiciones sobre la Teoria
Cuantica, desvelo su obra maestra: una teoria de

612
la gravedad radicalmente nueva, la primera
desde la epoca de Isaac Newton. Conocida como
Relatividad General, consideraba la gravedad no
como un influjo misterioso que de alguna manera
se extendia por el vacio del espacio, sino como
una curvatura del propio tejido del espacio y del
tiempo generada por todo lo que hay en el,
desde las galaxias a las manzanas.

Como ya hiciera Newton antes que el, Einstein


habia demostrado que su teoria podia explicar
hechos, de otro modo desconcertantes, sobre el
movimiento de los planetas, y predijo efectos
que mas tarde se confirmaron. Pero Einstein
tambien compartia la tendencia de Newton a
llevar su teoria mas lejos, usandola para
comprender toda la creacion. En 1917 aplico sus
ecuaciones de la Relatividad General al cosmos
en su conjunto, para ver que nueva luz podrian
arrojar sobre la naturaleza del Universo. Y sus
ecuaciones le depararon una gran sorpresa:

613
apuntaban a que el Universo estaba
expandiendose.

En esa epoca los cientificos creian que el


Universo era estatico e inmutable, idea que
apoyaban las observaciones astronomicas. La
mera idea de un Universo en expansion parecia
absurda: ?en expansion a partir de que o dentro
de que? Confrontado con sus ecuaciones, que no
conseguian concordar con esta idea
<<<sensata>>> del cosmos, Einstein creia que
no tenia otra eleccion salvo introducir un
<<<factor de correccion>>> para forzar su
teoria de modo que produjera un Universo
estatico e inalterable.

Esta correccion, a menudo denominada


constante cosmologica o simplemente
<<<lambda>>>, venia a ser una nueva fuerza
funcionando en el Universo que anulaba el efecto
de la gravedad. Einstein se lamentaria

614
amargamente de su decision. A finales de la
decada de 1920, los astronomos descubrieron
que se habian equivocado: el Universo realmente
se expandia, haciendo que la constante
cosmologica de Einstein fuera innecesaria. Habria
bastado con que Einstein hubiera conservado la
fe en sus ecuaciones originales para que hubiera
hecho la mayor prediccion de la historia de la
ciencia: que el Universo se creo en un explosivo
Big Bang y que se expandia desde entonces.

Anos despues, Einstein supuestamente le dijo a


un amigo que manipular las ecuaciones de la
Relatividad General fue el mayor error de su vida.
Sin embargo, por entonces se habian hecho
descubrimientos que al final demostrarian que la
verdad es mas extrana de lo que Einstein hubiera
podido imaginar.

Las primeras pistas surgieron en 1927, cuando el


fisico aleman Werner Heisenberg desvelo el

615
famoso Principio de Incerti-dumbre, que
demostraba que es imposible tener un
conocimiento perfecto del mundo subatomico. No
resulta sorprendente que la relacion con la
cosmologia no fuera aparente de inmediato. Sin
embargo, esta ahi: en el hecho de que, segun el
Principio de In-certidumbre, es imposible conocer
la cantidad exacta de energia que hay en el
espacio en un momento dado. Incluso en un
vacio en apariencia completamente vacuo,
siempre existiran las denominadas fluctuaciones
cuanticas de energia del vacio que tienen lugar
en el. Y, lo que resulta crucial, los efectos de
estas fluctuaciones no se limitan al mundo
subatomico, como demostro por vez primera en
1948 el fisico holandes Hendrick Casimir. Calculo
que si dos placas de metal se acercan mucho la
una a la otra, impiden ciertas formas de
fluctuaciones cuanticas del vacio. Al haber menos
fluctuaciones atrapadas entre las placas que en
el exterior, las placas son empujadas una contra

616
otra como por un campo de fuerza invisible. Tan
debil es esta fuerza que su existencia no llego a
confirmarse adecuadamente hasta 1996. Aun
asi, Casimir habia advertido a los cientificos:
grandes sorpresas pueden brotar del vacio.

Hasta finales de la decada de 1970 no quedo


claro que calibre podian tener. Por entonces los
cosmologos confiaban en que el Universo habia
comenzado en un Big Bang; ahora querian
descubrir sus causas. Trabajando
retrospectivamente a partir de la expansion
presente, parecia claro que el Universo tuvo que
haber sido muy pequeno, tanto que tenia que
haber sido regido por la Teoria Cuantica, las
singulares reglas del mundo subatomico.

En 1978, un joven teorico estadounidense


llamado Alan Guth asistio a una conferencia sobre
cosmologia y comenzo a ver las relaciones entre
el cosmos y su especialidad: la fisica de

617
particulas. Guth habia estado trabajando sobre
las fuerzas que actuan en el mundo subatomico:
las denominadas fuerza nuclear fuerte y fuerza
nuclear debil, y el electromagnetismo. Siguiendo
un plan urdido por Einstein, teoricos como Guth
sospechaban que todas estas fuerzas son solo
diferentes facetas de un unico <<<campo
unificado>>>. Los calculos sugerian que las tres
fuerzas subatomicas surgirian de hecho juntas,
pero solo a temperaturas increiblemente altas.
Guth, entre otros, se dio cuenta de que tales
temperaturas se habian dado momentos
despues del Big Bang.

En 1981 publico un articulo revolucionario en el


que explicaba con detalle las implicaciones de
estas <<<grandes teorias unificadas>>>.
Segun Guth, sugerian que una fuerza cosmica
extremadamente potente habia surgido durante
el Big Bang, desencadenando una expansion
increiblemente rapida del Universo. Aunque los

618
detalles de la idea de Guth resultaron ser
imperfectos, otros teoricos aprovecharon la idea
basica de la <<<inflacion cosmica>>>, en gran
medida porque resolvia algunos problemas
tecnicos dificiles sobre el Big Bang74.

Sin embargo, habia un gran pero. El efecto de la


nueva fuerza de Guth podia incorporarse como
una simple adicion a la teoria de la gravedad de
Einstein, y era identica a la pesadilla de Einstein:
la constante cosmologica. Los astronomos ahora
tenian que explicar por que la inicialmente
enorme constante cosmologica habia
desaparecido por completo justo momentos
despues del Big Bang. El problema empeoraba
por el hecho de que las estimaciones
aproximadas del tamano presente de la
constante cosmologica daban resultados
simplemente absurdos: 10120 veces mayor que
las observaciones permitidas. Durante la decada
de 1980, algunos de los teoricos mas

619
importantes del mundo, incluido Stephen Hawking
(Universidad de Cambridge), intentaron presentar
argumentos para explicar por que la constante
cosmologica habia desaparecido por completo.
Ninguno de ellos estaba muy convencido, lo que
llevo al fisico estadounidense Steven Weinberg,
galardonado con el Premio Nobel, a declarar que
la constante cosmologica representaba una
<<<autentica crisis>>> para la fisica.

Diez anos mas tarde, en 1998, esa crisis tomo


un nuevo y espectacular rumbo. Los astronomos
comenzaron a desvelar pruebas de que todos se
habian equivocado en lo que respecta a la
constante cosmologica. Lejos de haber
desaparecido poco despues del Big Bang, parecia
que todavia seguia actuando en el Universo. De
hecho, parecia haberle robado el control a la
gravedad, impulsando la expansion cosmica a un
ritmo siempre creciente.

620
Estas revelaciones asombrosas surgieron de
estudios de la agonia de estrellas gigantes
situadas en los confines del Universo visible.
Conocidas como supernovas, pueden eclipsar
brevemente la luz combinada de toda una
galaxia, convirtiendose en sondas ideales del
espacio profundo. A mediados de la decada de
1990, dos equipos de astronomos comenzaron a
utilizar estos faros lejanos para estudiar la
velocidad de expansion del Universo. La idea era
bastante simple: encontrar si el Universo se esta
expandiendo tan rapido que se seguira
expandiendo por siempre o si llegara un dia en
que se frene bajo la fuerza de su propia
gravedad, llegue a detenerse y se colapse hacia
un Big Crunch de proporciones catastroficas.

Sea como fuere, dos equipos internacionales de


astronomos esperaban encontrar las claves en la
debil luz de las supernovas. Lo que encontraron
realmente hizo que se tambalearan —y supuso la

621
llamada de telefono entre Robert Kirshner
(Universidad de Harvard) y su colega Adam
Riess—. Como miembros del High-Z Supernova
Search Team, Kirshner y Riess habian realizado
observaciones telescopicas en busca de signos
de un cambio en la velocidad de expansion
cosmica. En diciembre de 1997 comenzaron a
encontrarlas. Pero lejos de mostrar un Universo
que se estaba frenando por la accion de su
propia gravedad, las supernovas apuntaban a un
Universo que estaba acelerando, impulsado por
una forma invisible de energia, a la que pronto se
denomino <<<energia oscura>>>.

El Supernova Cosmology Project, proyecto rival


dirigido por Saul Perlmutter (Lawrence Berkeley
National Laboratory, California), anuncio
resultados similares. Y en los ultimos meses, los
resultados de la investigacion de las supernovas
han sido confirmados por el estudio mas
detallado que se haya hecho del calor remanente

622
del Big Bang. Los datos, obtenidos por la sonda
orbital WMAP (Wilkinson Microwave Anisotropy
Probe) de la NASA, dicen lo mismo que las
supernovas, y las implicaciones son inquietantes.
Einstein, Hawking y otros brillantes teoricos
estaban equivocados: la fuerza mas potente del
Universo no es la gravedad, sino la <<<energia
oscura>>>, en la forma de la constante
cosmologica.

Con una existencia ya fuera de toda duda, los


teoricos ahora estan intentando descubrir las
consecuencias de la energia oscura. Pueden ser
dramaticas: en 2003, un equipo de teoricos
sugirio que la expansion cosmica en continua
aceleracion puede finalmente dividir el espacio y
el tiempo en el denominado Big Rip (<<<gran
desgarro>>>).

Otros estan luchando simplemente por explicar la


existencia de la energia oscura75. Parece cierto

623
que su fuente radica en las fluctuaciones
cuanticas del vacio predichas por el Principio de
In-certidumbre de Heisenberg. Los calculos
demuestran que estas pueden producir energia
oscura con el efecto <<<antigravitacional>>>
necesario. El gran problema radica en explicar el
grado preciso de energia oscura que se observa
ahora —hoy se cree que supone
aproximadamente el 15 % de la energia total del
Universo.

La mayoria de los teoricos creen que la


respuesta definitiva surgira de la tan esperada
Teoria del Todo, que explicara todas las fuerzas
de la Naturaleza en un conjunto unico de
ecuaciones. Mientras tanto, la existencia de la
energia oscura sigue constituyendo un autentico
enigma cosmico, que solo podra resolver un
Albert Einstein del siglo XXI.

624
LOS EFECTOS DEL VACIO EN LA OFICINA

A pesar de su naturaleza aparentemente


esoterica, los efectos cuanticos del vacio afloran
en muchas circunstancias cotidianas. Los circuitos
electronicos son presa del <<<ruido>>>
aleatorio generado por fluctuaciones aleatorias de
la energia del vacio, que plantean limites
fundamentales en el nivel hasta el cual pueden
amplificarse las senales. El mecanismo de sorteo
de cierta loteria estatal britanica (Premium Bonds)
tambien se basa en estos efectos. Incluso los
tubos fluorescentes deben su funcionamiento a
fluctuaciones de energia del estado del vacio
aleatorias y sin causa. Los atomos de vapor de
mercurio son excitados por la descarga electrica
que se produce en el tubo, y su emision
espontanea de fotones esta desencadenada por
fluctuaciones del vacio que los sacan de su

625
inestable estado de energia. Dicho de otro modo,
cada vez que enciendes la luz de la oficina estas
desencadenando efectos relacionados con los
que ahora impulsan la expansion del Universo.

?COMO TERMINARA EL UNIVERSO?

El descubrimiento de la energia oscura tiene


profundas implicaciones en el futuro de nuestro
Universo. Antes los cosmologos pensaban que el
destino del cosmos estaria determinado por la
densidad de materia del Universo. Si esta fuera
suficientemente elevada, la gravedad al final
detendria la expansion, desencadenando un
colapso hacia un Big Crunch catastrofico; de otro
modo, se expandiria por siempre. Sin embargo,
ahora esta claro que la energia oscura ha sido la

626
fuerza dominante del cosmos durante los ultimos
7.000 millones de anos y esta conduciendo la
aceleracion a una velocidad en permanente
aumento. Como tal, el Universo parece estar
empezando a convertirse en un lugar muy
desolado. Por ejemplo, nuestra galaxia se
encontrara enteramente aislada en un plazo de
100.000 millones de anos; el resto del cosmos
habra sido transportado a regiones tan alejadas
que su luz nunca podra llegar hasta nosotros.

Cronologia

1917 Einstein utiliza su nueva teoria de la


gravedad, la Relatividad General, para
estudiar el misterio del cosmos e introduce
la denominada constante cosmologica.

627
1927 El fisico aleman Werner Heisenberg
publica el Principio de Incertidumbre, que
demuestra que incluso el espacio vacio
esta lleno de <<<energia oscura>>>.

1929 El astronomo estadounidense Edwin


Hubble descubre que el Universo se
expande, demostrando que la constante
cosmologica de Einstein era innecesaria.

1948 El fisico holandes Hendrick Casimir


predice que el espacio vacio puede generar
una fuerza de atraccion entre dos placas
de metal, empujando una contra otra.

1981 Alan Guth (Massachusetts Institute


of Technology) sugiere que el Universo
primitivo sufrio una <<<inflacion>>> a
causa de una especie de energia oscura
primordial.

1984 Stephen Hawking presenta una

628
teoria que, segun afirma, puede explicar
por que no existe energia oscura en el
Universo actual.

1988 Steven Weinberg, fisico ganador del


Premio Nobel, describe la ausencia de
comprension de la constante cosmologica y
de la energia oscura como una
<<<autentica crisis>>> de la fisica.

1996 Steve Lamoreaux (Universidad de


Washington en Seattle) consigue medir y
confirmar la existencia de la fuerza de
Casimir, una fuerza increiblemente debil.

1998 Equipos de astronomos que


estudian la luz de supernovas lejanas
desvelan las primeras pruebas solidas de la
energia oscura que impulsa la expansion
del Universo.

2001 La NASA lanza la sonda MAP

629
(Microwave Anisotropy Probe), que dos
anos despues da resultados que
demuestran que la energia oscura domina
el cosmos.

2003 John Tonry y sus colaboradores de


la Universidad de Hawai demuestran que la
energia oscura usurpo a la gravedad el
control del Universo hace
aproximadamente 7.000 millones de anos.

Citas

74

Uno de esos problemas reside en la


densidad de materia observada en el
Universo. Durante las decadas de 1960 y
de 1970, los astronomos utilizaron diversas
tecnicas para descubrir que la densidad del

630
Universo estaba bastante cerca de la
crucial linea divisoria entre un Universo tan
denso que finalmente hubiera vuelto a
colapsarse en un Big Crunch y un Universo
suficientemente diluido para seguir
expandiendose por siempre. Pero durante
la decada de 1970, el fisico estadounidense
Bob Dicke (Universidad de Princeton)
apunto que el hecho de que la densidad
fuera incluso remotamente cercana a esta
linea divisoria era en si mismo notable.
Trabajando retrospectivamente, demostro
que ello implicaba que el Universo debia
tener una energia que no difiriera en mas
de una mil billonesima parte del valor critico
apenas un segundo despues del Big Bang
para acabar tan cerca de la linea divisoria
hoy en dia. Muchos fisicos no podian creer
que esto fuera un accidente. Uno de los
triunfos de la Teoria de la Inflacion fue
demostrar como se alcanzo este ajuste:

631
en pocas palabras, es el resultado de la
colosal cantidad de expansion que tuvo
lugar justo despues de la creacion del
cosmos.

75

En la actualidad existen varios candidatos


como fuente de la energia oscura. A finales
de la decada de 1970, cuando los
astronomos pensaban (de forma
equivocada) que sus observaciones habian
encontrado pistas de una constante
cosmologica, el astrofisico sovietico Yakov
Zel’dovich sugirio que la energia oscura
podria deberse a interacciones
gravitacionales entre particulas del vacio.
Incluso presento una formula para el
tamano del efecto, pero presuponia cierto
valor para una masa subatomica, y nadie
ha presentado una buena explicacion para

632
el tamano de esa masa. Otra candidata es
la denominada <<<quintaesencia>>>
(toma su nombre del quinto elemento del
antiguo cosmos griego, despues de la
tierra, el aire, el fuego y el agua). La
fuerza de esta forma de energia oscura
puede variar con el espacio y el tiempo,
permitiendo que actuara tanto en el
periodo de inflacion durante el Big Bang
como en el Universo actual. Los teoricos
esperan que observaciones mas detalladas
del Universo obtenidas de sucesores de la
sonda WMAP y de los telescopios orbitales
como la sonda estadounidense SNAP
(Supernova/Acceleration Probe) les
permitan identificar la autentica fuente de
la energia oscura.

633
24
Universos paralelos

En pocas palabras

Durante milenios, los filosofos han sostenido que el


Universo, por definicion, debe ser infinito en su extension.
Observaciones astronomicas recientes apoyan solidamente
esta idea, que implica que lo que llamamos nuestro
Universo es solo parte de algo que es infinitamente mayor
—un <<<multiverso>>>— en el que existe cualquier
posible permutacion de acontecimientos y condiciones. Un
numero infinito de estos universos paralelos son del todo
diferentes a nuestro Universo, y en ellos prevalecen
distintas leyes de la fisica. Sin embargo, un numero infinito
de ellos —uno de los cuales es el Universo en el que
vivimos— tienen las condiciones necesarias para la
aparicion de la vida. Aunque todos estos <<<universos
paralelos>>> estan fuera del alcance de los medios de
comunicacion convencionales, muchos cientificos creen que
su presencia se revela en efectos sutiles, como los
patrones de interferencia creados por fotones de luz o
particulas subatomicas individuales. Algunos incluso

634
insisten en que la existencia de universos paralelos puede
tener un uso practico a traves de los denominados
ordenadores cuanticos, que ahora se estan construyendo
en laboratorios de todo el mundo. Se preve que sean
mucho mas potentes que cualquier ordenador existente,
ya que permitiran hacer al mismo tiempo calculos en un
gran numero de universos paralelos.

Cuando Geoffrey Taylor realizo el experimento


en casa de sus padres, bien pudo preguntarse
para que se estaba molestando si el resultado
era obvio. De todos modos, su mentor de la
Universidad de Cambridge, sir Joseph Thomson,
le habia pedido que en cualquier caso lo hiciera,
asi que siguio adelante: coloco la aguja sobre su
soporte, encendio la lampara que la iluminaba y
ajusto su filtro para controlar la cantidad de luz
que pasaba. Entonces expuso la placa
fotografica que debia recoger la sombra de la
aguja; comprobo que todo funcionaba y se fue
de vacaciones.

635
Cuando Taylor volvio, hizo un descubrimiento
asombroso. Examinando la placa fotografica,
pudo observar bandas apenas visibles de luz y
sombra, el inconfundible patron de rayos de luz
interfiriendo entre si. Muchos otros fisicos habian
observado el mismo patron usando aparatos
similares, pero el hecho de que aparecieran en la
placa fotografica de Taylor era asombroso,
porque en su experimento habia expuesto la
aguja a un nivel increiblemente bajo de luz,
equivalente a una vela colocada a un kilometro y
medio de distancia. Con un nivel tan escaso de
iluminacion, solo particulas individuales de luz, o
fotones, chocaban con la aguja una por una. Por
tanto, la propia idea de <<<interferencia>>> ya
no tenia sentido: simplemente no habia
suficientes fotones alrededor para ello.

Thomson y Taylor habian esperado que la placa


fotografica no mostrara signos de efectos de
interferencia, ni siquiera al cabo de varias

636
semanas de exposicion. Sin embargo, cuando
estudiaron la placa ese dia de 1909, incluso
Thomson —que acababa de ganar el Premio
Nobel por el descubrimiento del electron— tuvo
que admitir que estaba desconcertado.

Los fisicos han debatido las implicaciones de la


<<<interferencia de fotones unicos>>> desde
entonces. Pero ahora algunos creen que
constituye una prueba solida de algo que antes
se consideraba del dominio exclusivo de las
novelas de ciencia ficcion: la existencia de
universos paralelos.

La base de esta afirmacion asombrosa se


encuentra en una polemica que comenzo hace
mas de dos mil anos, y que conecta el
experimento simple de Taylor con efectos de
autentica magnitud cosmica. Hace tiempo que
los filosofos reconocieron que la propia definicion
de un <<<universo>>> conduce a algunas

637
conclusiones notables. Ya en el ano 56 a. C.,
Lucrecio, poeta y filosofo romano, sostenia que si
el Universo fuera finito, implicaria que en algun
punto deberia haber una frontera mas alla de la
cual habria… ?que? Ya que el Universo es, por
definicion, todo, debe incluir tambien todo lo que
haya mas alla de esa frontera, en cuyo caso no
puede ser finito76.

La idea de que el Universo debia ser infinito se


mantuvo mas o menos inalterada hasta hace
aproximadamente un siglo, cuando Einstein
presento su teoria de la gravedad, conocida
como Relatividad General. Esta revelaba una
nueva posibilidad asombrosa: que el Universo
puede ser finito sin poseer fronteras. Como
analogia aproximada, hay que imaginarse el
espacio tridimensional de un Universo finito que
se curva para formar la superficie de una pelota.
Ahora imaginese unas cuantas hormigas
andando sobre la pelota: no importa cuanto

638
exploren su superficie, nunca encontraran una
frontera, pese al hecho de que su superficie es
finita.

Segun la teoria de Einstein, el Universo puede ser


<<<finito aunque sin bordes>>> si contiene
suficiente energia y materia. No obstante, las
ultimas observaciones astronomicas sugieren que
Lucrecio estaba en lo cierto al fin y al cabo: las
pruebas procedentes de estrellas distantes y el
calor en realidad del Big Bang apuntan a un
Universo que en realidad es infinito en su
extension. Aun asi, solo podemos ver una
minuscula parte de nuestro cosmos
inimaginablemente vasto: aquella parte desde la
cual la luz ha podido alcanzarnos en los cerca de
14.000 millones de anos transcurridos desde que
tuviera lugar el Big Bang.

Pese a esta aparente barrera que se alza frente


al conocimiento, es posible decir con absoluta

639
certeza lo que.esta ocurriendo fuera, en el
Universo infinito; en una palabra: todo. En algun
lugar, a innumerables billones de anos luz, otra
version de usted esta leyendo este capitulo
mientras se encuentra sentado en un tren. En
algun lugar existe otro usted que es una estrella
de Hollywood o el ganador de un Premio Nobel, o
ambas cosas.

En resumen, un Universo infinito contiene un


numero infinito de posibilidades concebibles (y
tambien de las inconcebibles). Dicho de otro
modo, contiene un numero infinito de versiones
paralelas del Universo que podemos ver.

Esta conclusion extrana aunque ineludible ha


llevado a los cientificos a acunar un nuevo
termino para el Universo realmente infinito, con
su pletora de posibilidades: el
<<<multiverso>>>. El termino
<<<universo>>> se utiliza ahora para describir

640
solo la diminuta parte del multiverso que
podemos observar. La distincion ayuda a resolver
algunas cuestiones que si no serian
desconcertantes. ?Por que, por ejemplo, nuestro
Universo y sus leyes son tan apropiados para la
existencia de vida? Algunos afirman que se debe
a que un creador benevolo lo creo especialmente
para nosotros. Sin embargo, desde el punto de
vista del multiverso, tan solo habitamos uno de
los infinitos universos paralelos adecuados para la
existencia de vida.

Muchos fisicos creen ahora que la existencia de


universos paralelos puede hacer mucho mas.
Creen que resuelve algunos de los rompecabezas
mas desconcertantes de toda la ciencia, que se
hicieron evidentes a traves de experimentos
sobre la naturaleza de la masa y la energia
realizados hace un siglo. Estos experimentos
revelaron que la luz, el calor y otras formas de
radiacion semejantes a ondas tambien tienen

641
propiedades semejantes a las particulas,
transmitiendose su energia en paquetes
conocidos como <<<cuantos>>>. Por otra
parte, se encontro que entidades que se
consideraban como particulas, como los
electrones, tienen propiedades tipicas de las
ondas.

Mas extranos aun fueron los resultados de


experimentos como el realizado por Taylor en la
casa de sus padres en 1909, en el que la luz
seguia mostrando efectos como la interferencia,
incluso cuando estaban implicados fotones
unicos. Muchos de los fisicos mas brillantes del
ultimo siglo se dedicaron a buscar la manera de
explicar estos efectos extranos, y el resultado se
conoce como Teoria Cuantica.

En 1925, el fisico austriaco Erwin Schrodinger


presento una ecuacion que parecia captar lo
esencial de estos nuevos descubrimientos. A

642
primera vista parecia una ecuacion bastante
convencional del tipo de las que utilizaban los
fisicos para describir el comportamiento similar a
las ondas. Pero en ella habia algo muy extrano.
Simplemente, la ecuacion de Schrodinger
implicaba que cualquier particula podia describirse
mediante un numero enorme de ondas, cada
una de las cuales reflejaba un posible estado de
la particula. Sin embargo, esto era absurdo: en el
mundo real, cada particula solo tiene un estado.

El problema de como desembarazarse de todos


los estados extra desconcerto a Schrodinger y a
otros importantes fisicos durante decenios. Al
final, la mayoria de ellos adoptaron una idea que
presento el fisico danes Niels Bohr, conocida
como interpretacion de Copenhague. Segun esta,
el acto de observar una particula la libra de toda
la miriada de posibilidades, salvo una —aunque
no estaba claro como ni por que.

643
En 1957, un doctorando de la Universidad de
Princeton llamado Hugh Everett III desafio este
consenso con una propuesta audaz: que el vasto
numero de diferentes ondas atestiguaba la
existencia simultanea de la particula en un
inmenso numero de universos paralelos al
nuestro. Segun la interpretacion de los multiples
mundos de Everett, la razon de que veamos uno
solo de la miriada de posibles estados es
simplemente que existe un unico estado por
cada universo paralelo, y solamente observamos
el estado asignado al Universo en el que
existimos. No obstante, la presencia de los otros
universos tiene un efecto sobre lo que vemos:
las ondas que existen en ellos afectan a las de
nuestro propio Universo, creando efectos de
interferencia, incluso en el caso de particulas
unicas. Segun la interpretacion de los multiples
mundos, Geoffrey Taylor no andaba
desencaminado cuando se asombro por lo que
habia observado en su experimento: habia sido el

644
primero en detectar la existencia de universos
paralelos.

Aunque muchos teoricos piensan ahora que la


Teoria Cuantica se entiende mejor en tales
terminos, a la mayoria de los cientificos ordinarios
les basta con utilizar la Teoria Cuantica, sin
preocuparse por tales ideas metafisicas77. Sin
embargo, algunos fisicos creen que esta
interpretacion de la Teoria Cuantica tiene un valor
practico y real, y que la existencia de universos
paralelos puede implicar beneficios comerciales.

En 1985, David Deutsch (Universidad de Oxford)


publico un articulo revolucionario en el que sugeria
que seria posible construir un ordenador que
pudiera resolver cualquier problema concebible a
una velocidad increible, aprovechando la
existencia de universos paralelos.

En los ordenadores convencionales, los

645
problemas se convierten primero en bits: unos y
ceros que pueden ser entendidos por
microprocesadores como <<<encendido>>> y
<<<apagado>>>. Entonces es cuestion de
almacenar y mezclar estos bits lo mas rapido
posible. El articulo de Deutsch abria la perspectiva
de un computador cuantico, que aprovecha los
multiples estados en los que pueden existir
simultaneamente las particulas. En la
computacion cuantica, los problemas primero se
convierten en un nuevo tipo de bit, el qubit78,
que ni es completamente uno ni cero, sino una
mezcla de ambos. Esto permite que un unico
qubit actue como dos diferentes bits a la vez —
duplicando la velocidad de calculo—. En efecto,
segun decia Deutsch, un ordenador cuantico
realiza calculos en universos paralelos al mismo
tiempo. El aumento de la velocidad puede ser
espectacular. Por ejemplo, un ordenador cuantico
que trabaje solamente con 100 qubits equivale a
un ordenador convencional que utilice 2100 bits

646
ordinarios, esto es, un billon de trillones de bits, lo
que supone una capacidad muy superior a la de
todos los superordenadores del mundo
combinados. El articulo de Deutsch desencadeno
una oleada de interes por la computacion
cuantica. Los cientificos computacionales se
dedicaron a disenar programas adecuados,
mientras que los fisicos buscaban formas de
crear qubits. Se centro la atencion en la utilizacion
de particulas subatomicas como los protones,
que pueden existir en dos estados diferentes de
forma simultanea.

Sin embargo, los investigadores descubrieron


pronto un problema importante: los qubits son
extremadamente sensibles, y la informacion que
codifican se pierde con facilidad. En 1998, un
equipo dirigido por Isaac Chuang (IBM, San Jose)
demostro que una forma de superar el problema
era utilizar un numero enorme de qubits, en
forma de billones de protones en un pequeno

647
tubo de agua. La idea era que al menos unos
pocos qubits sobrevivirian intactos al computo. Y
parecia funcionar. Chuang y sus colaboradores
convirtieron una breve lista de datos en qubits y
utilizaron un programa de ordenador cuantico
especial para ordenar la lista en orden
ascendente, <<<leyendo>>> el resultado
aplicando campos magneticos al tubo de agua.
En 2001, el equipo utilizo la misma tecnica para
dividir quince en sus factores primos, tres y
cinco.

Aunque ambos problemas eran casi ridiculamente


triviales, demostraron que la computacion
cuantica no era solo una posibilidad teorica. Lo
que sigue sin estar claro es si la computacion
cuantica puede alcanzar por completo su
impresionante potencial para resolver enormes
problemas como una centella.

Los cientificos que trabajan en la computacion

648
cuantica creen que todavia falta al menos una
decada para que se comercialicen computadores
cuanticos. De conseguirlo, se trataria con
seguridad de uno de los mas inconcebibles
avances tecnologicos de todos los tiempos, que
aprovecharia los universos paralelos que existen
a nuestro alrededor.

CREAR UNIVERSOS PARALELOS

Las teorias actuales del origen del Universo han


arrojado luz sobre las posibles formas de crear
universos paralelos. Ahora se piensa que el Big
Bang se ha caracterizado por un periodo muy
breve de expansion extremadamente rapida
conocida como inflacion, impulsado por un
<<<campo escalar>>> (vease el capitulo 22).

649
Hay muchos tipos diferentes de campos
escalares, todos ellos con distintas propiedades,
lo que suscita la cuestion de por que nuestro
Universo termino sufriendo una inflacion de la
forma en que lo hizo. A principios de la decada
de 1980, el cosmologo ruso Andrei Linde propuso
que nuestro Universo de hecho puede
representar solo una parte de un multiverso
infinitamente grande en el que se manifiestan
todas las variantes de campos escalares. Este
modelo de <<<inflacion caotica>>> sugiere, por
tanto, que estamos rodeados por una pletora de
otros universos, todos ellos con sus propias
peculiaridades en lo que a contenido y dinamica
se refiere.

SALVAR LA DISTANCIA ENTRE LOS


UNIVERSOS PARALELOS

650
El concepto de universos paralelos esta ocupando
ahora una posicion central en la fisica, tanto a la
mayor escala (cosmologia) como a escala
subatomica, a traves de la Teoria Cuantica. Tal
convergencia de pensamiento es obviamente
sugerente, pero unificar los dos puntos de vista
sobre los universos paralelos plantea problemas.
Por ejemplo, los cosmologos consideran los
diferentes <<<universos>>> que forman el
infinitamente vasto multiverso como aislados
unos de nosotros por su distancia y su dinamica.
Por otra parte, los universos paralelos en la
interpretacion de los <<<multiples mundos>>>
de la Teoria Cuantica parecen ser mucho mas
<<<cercanos>>> a nosotros en cierto sentido,
revelandose su presencia a traves de efectos
cuanticos como la interferencia y la incerti-
dumbre. Quiza la tan esperada Teoria del Todo
revelara la unidad subyacente de estos dos

651
puntos de vista de los universos paralelos.

Cronologia

56 a. C. Lucrecio, poeta y filosofo


romano, concluye De rerum natura (Sobre
la naturaleza de las cosas), obra en la que
defiende su idea de un Universo infinito.

1909 El fisico Geoffrey Ingram Taylor


(Universidad de Cambridge) demuestra
que fotones unicos pueden crear efectos
de interferencia que apuntan a universos
paralelos.

1915 Einstein publica su teoria de la


gravedad, la Relatividad General, que
relaciona la materia con la forma y la

652
extension del Universo.

1925 Erwin Schrodinger publica su


ecuacion de ondas cuantica, con su
extrana implicacion de que las particulas
existen en miriadas de diferentes estados
simultaneamente.

1957 Hugh Everett III, estudiante de la


Universidad de Princeton, presenta la
<<<interpretacion de los multiples
mundos>>> de la Teoria Cuantica, en la
que la realidad consiste en una infinidad de
posibles universos.

1960 Andy Nimmo, de la Sociedad


Interplanetaria Britanica, acuna el termino
<<<multiverso>>> cuando imparte una
charla sobre las ideas de Everett.

1985 David Deutsch, fisico de la


Universidad de Oxford, prueba la existencia

653
de ordenadores cuanticos universales,
capaces de realizar cualquier calculo
posible.

1997 El astronomo real sir Martin Rees


sugiere que el multiverso puede explicar
por que nuestro Universo es tan adecuado
para la vida.

1997 Deutsch afirma en La estructura de


la realidad que los efectos de interferencia
demuestran la existencia de billones de
universos paralelos.

1998 Un equipo dirigido por Isaac Chuang


(IBM, San Jose) lleva a cabo la primera
computacion cuantica usando moleculas de
cloroformo.

2003 Estudios del calor remanente del Big


Bang por la sonda WMAP de la NASA
proporcionan las mejores pruebas

654
obtenidas hasta el momento de que el
Universo es infinito.

Citas

76

Durante mucho tiempo los fisicos han


ridiculizado los intentos de los filosofos de
descubrir la naturaleza del Universo. <<<?
No es toda la filosofia como escribir en la
miel?>>>, preguntaba Einstein. <<<A
primera vista parece maravilloso, pero
cuando se vuelve a mirar, todo se ha
desvanecido. Solo queda una masa
informe.>>> Sin embargo, sigue siendo
cierto que argumentos metafisicos
sorprendentemente simples pueden
conducir a ideas sobre el espacio y el
tiempo a las que llegaron los fisicos solo al

655
cabo de decadas de esfuerzo (veanse
algunos ejemplos en la maravillosa obra
del profesor Robin Le Poidevin citada en
las referencias bibliograficas). Un
descubrimiento realizado por logicos
medievales puede haber tenido relacion
con los universos paralelos. Se centra en
un resultado que en logica se conoce
como ex falso quodlibet (Ex falso quodlibet
sequitur: <<<de lo falso puede salir
cualquier cosa>>>) (N.del E.), segun el
cual la existencia de solo una
contradiccion implica de manera logica
que nada y todo es verdadero. Esto se ha
interpretado durante mucho tiempo como
una demostracion del efecto mortal de las
contradicciones sobre todo argumento
racional; su potencia ha aterrado a los
filosofos desde la epoca de Aristoteles. Sin
embargo, si de hecho existimos en un
multiverso, no solo hay unas cuantas

656
contradicciones ahi fuera, sino un numero
infinito de ellas. Afortunadamente, no nos
encontramos con ellas debido al mero
tamano del multiverso, que hace que las
probabilidades de que aparezca una sola
contradiccion en nuestra diminuta esquina
del mismo sean practicamente
inexistentes. Desde este punto de vista, el
resultado supuestamente absurdo de que
las contradicciones implican que todo es
cierto es una proposicion casi trivial sobre
el multiverso, en el que todas las cosas,
incluidas todas las contradicciones, son
verdaderas.

77

Los fisicos son en general tipos muy


pragmaticos que no ven la necesidad de
enredarse con detalles turbios y sutiles
salvo que sea absolutamente necesario.

657
Hasta hace poco, la interpretacion de la
Teoria Cuantica se vio como el sum-mum
del detalle turbio y sutil. Pero la aparicion de
aplicaciones especificas, como la
computacion cuantica, ha llevado a un
creciente numero de fisicos a intentar
controlar estos detalles. El resultado ha
sido una renovacion del interes por la
interpretacion de la Teoria Cuantica, y la
aparicion de un consenso sobre la
necesidad de revisar los enfoques de los
libros de texto convencionales manejados
durante decadas. En 1999 se pregunto a
los asistentes a una conferencia sobre
computacion cuantica celebrada en el
Isaac Newton Institute (Cambridge) su
opinion respecto a la mejor forma de
abordar la Teoria Cuantica. De los noventa
que expresaron su punto de vista, solo el
4% seguian adoptando la interpretacion
convencional (<<<Copenhague>>>),

658
mientras que el 33% habia adoptado la
interpretacion de los multiples mundos. Sin
embargo, mas del 50% describieron que
su punto de vista no era <<<ninguno de
los anteriores>>> o no se decantaron por
ninguna opcion. Se puede consultar en
linea una revision del estado actual de las
interpretaciones de la Teoria Cuantica en
http://tinyurl.com/8ycq9

78

Bit cuantico. (N. del E.)

659
25
El Principio Antropico

En pocas palabras

La inmensidad del Universo hace que la idea de una


conexion con la vida en la Tierra parezca completamente
ingenua. Sin embargo, los descubrimientos sobre las
propiedades del cosmos sugieren que existe tal vinculo, y
han conducido al Principio Antropico: que nuestro Universo
tiene propiedades que hacen viable la vida, ya que de otro
modo no existiriamos. Desde el descubrimiento en las
estrellas de propiedades especiales de los atomos de
carbono necesarias para producir compuestos quimicos
imprescindibles para la vida, hasta el extraordinario
<<<ajuste>>> de las propiedades del Universo, hoy en
dia hay un importante apoyo cientifico al Principio
Antropico. Cada vez hay mas sospechas de que nuestro
Universo no es mas que una pequena parte —aunque una
parte propicia para la vida— de un multiverso mucho
mayor. Algunos cientificos estan estudiando la posibilidad
de un vinculo entre la existencia de los seres humanos y el
origen del propio Universo.

660
Albert Einstein dijo que era la cuestion que mas la
gustaria responder, el <<<por que>>>
definitivo: ?por que el Universo es como es?

Algunos estan seguros de que conocen la


respuesta. Insisten en que el Universo es como
es porque Dios asi lo quiso. Para muchos otros,
esto plantea mas preguntas de las que resuelve,
mientras que algunos afirman que la pregunta
carece de sentido: el Universo simplemente es.

Sin embargo, descubrimientos recientes sobre el


cosmos sugieren que la verdad es mucho mas
interesante, y que sus propiedades —quiza su
propia existencia— estan intimamente
relacionadas con nuestra presencia en el.

Las evidencias se presentan en forma de


extranas coincidencias entre las propiedades
basicas de nuestro Universo y las condiciones
necesarias para que se sustente en el vida

661
inteligente. El significado de estas coincidencias a
veces ha suscitado agrios debates entre los
cientificos. Algunos desestiman los intentos de
darles sentido, considerando que no son
cientificas. Otros van tan lejos como para insistir
en que los vinculos apuntan a un significado y un
proposito divinos del Universo.

En el meollo del debate se encuentra el Principio


Antropico, segun el cual el mero hecho de que
existamos arroja luz sobre como puede ser el
Universo. Como tal, se ha convertido en una de
las propuestas mas polemicas de la historia de la
ciencia. Dice al menos tanto sobre los cientificos
como sobre la propia idea, puesto que la nocion
de que el Universo ha sido hecho a la medida del
genero humano fue tomada como natural por
muchos de los fundadores de la ciencia
occidental, incluido Isaac Newton. Pero a
comienzos del siglo XX, tales creencias habian
tomado un aire de dogma religioso que la

662
mayoria de los cientificos querian evitar.

En 1903, incluso el distinguido naturalista britanico


Alfred Russel Wallace 79 se arriesgo a ser
ridiculizado declarando que el Universo puede
tener las propiedades que tiene <<<para
producir un mundo que deberia estar adaptado
con precision en cada detalle para el desarrollo
ordenado de la vida, que culmina en el
Hombre>>>80.

En unos pocos anos, Albert Einstein habia


desarrollado su Teoria de la Relatividad, que
marca el comienzo de la ciencia moderna, y que
aparentemente no requeria de tales opiniones.
En 1930, los astronomos habian observado que
el Universo era totalmente diferente al vacio
simple, estatico e infinito que habian concebido
los primeros cientificos. El Universo era dinamico
y estaba repleto de galaxias que se alejaron de
las demas en el periodo posterior a un suceso

663
explosivo que parecia haber tenido lugar miles de
millones de anos antes. Su comportamiento solo
podia entenderse recurriendo a las ecuaciones
tremendamente complejas de la Relatividad
General, la teoria de la gravedad de Einstein.
Ciertamente, en esta nueva idea del Universo no
parecia que hubiera lugar para una conexion con
la existencia de simples seres humanos.

Aun asi, algunos cientificos afirmaban que habia


algo extrano respecto a las propiedades del
Universo, que apuntaba a un vinculo improbable
con la fisica de las particulas subatomicas.
Senalaban que, segun los datos astronomicos, el
Universo visible era aproximadamente 10.000
trillones de trillones (1040) veces mayor que un
electron —es una cifra enorme, pero que
resultaba ser el mismo factor por el que la
intensidad de la fuerza electrostatica entre los
electrones y los protones supera la fuerza
gravitacional entre ellos—. ?La similitud de estos

664
dos numeros grandes era solo una coincidencia o
era la prueba de una relacion entre la fisica de lo
muy grande y la fisica de lo muy pequeno?

Aunque muchos cientificos desestimaron de plano


esta idea, atrajo la atencion de uno de los
fundadores de la Teoria Cuantica, el fisico
britanico Paul Dirac, galardonado con el Premio
Nobel. En 1937 publico un articulo en la influyente
revista Nature en el que presento lo que se
conoceria como Hipotesis de los Numeros
Grandes. Segun esta hipotesis, la similitud de los
numeros grandes no es una coincidencia, sino
que refleja una ley fundamental de la fisica81. Por
consiguiente, la similitud tiene que ser siempre
valida, lo que llevo a Dirac a hacer una prediccion
asombrosa. Debido a la expansion del cosmos, el
gran numero basado en el tamano del Universo
cambia con el tiempo. En consecuencia, su actual
similitud con el segundo gran numero no puede
seguir siendo valida por siempre, a no ser, claro,

665
que el segundo gran numero tambien cambie
con el tiempo. Sin embargo, ?que particula
subatomica puede variar? Dirac penso que solo
habia un camino para evitar la demoledora Teoria
Cuantica: la gravedad debe debilitarse con el
paso del tiempo, a la misma velocidad que el
Universo se expande.

La proposicion temeraria de Dirac provoco pocas


respuestas inmediatas, en gran medida porque la
reduccion prevista de la fuerza de la gravedad
era increiblemente lenta: menos del 1 % en diez
millones de anos. En ausencia de cualquier
prueba obvia de esta prediccion, los cientificos
dejaron a un lado la Hipotesis de los Numeros
Grandes. La posibilidad de una relacion entre la
fisica de lo muy grande y la fisica de lo muy
pequeno estallo de nuevo en el panorama
cientifico en 1953, cuando Fred Hoyle, colega de
Dirac de la Universidad de Cambridge, descubrio
una <<<coincidencia>>> mucho mas

666
impresionante que proporcionaba una relacion
directa entre las propiedades del cosmos y la
existencia de vida en la Tierra.

Desde mediados de la decada de 1940, Hoyle


habia lidiado con uno de los primeros retos a los
que se enfrento la ciencia: explicar el origen de
los elementos quimicos. Los mas simples y mas
comunes de ellos, el hidrogeno y el helio,
parecian haber sido creados en el calor
inimaginable del Big Bang. El problema era
explicar el origen de los demas.

Hoyle descubrio que la respuesta radicaba en las


reacciones nucleares que tenian lugar en las
profundidades de las estrellas, pero solo si se
daba una condicion muy especial en los atomos
de carbono. En particular, uno de sus isotopos,
12
C, tenia que poseer una propiedad denominada
resonancia a una energia muy precisa. De lo
contrario, las estrellas practicamente no crearian

667
carbono y, como Hoyle comprendio, sin carbono
no hay vida. Sin embargo, por mas esfuerzos
que hizo, Hoyle no pudo encontrar pruebas
experimentales de que existiera tal resonancia.
En su lugar, no le quedo mas remedio que
recurrir a un argumento ingenioso: los expertos
debian de haber pasado algo por alto, porque de
no haberlo hecho simplemente no existirian.

El uso innovador del Principio Antropico por parte


de Hoyle provoco inevitablemente el
escepticismo: ?era seguro que la mera existencia
de vida no puede utilizarse para predecir una
propiedad fundamental de los atomos? Sin
embargo, Hoyle persistio y apenas una semana
despues un equipo llego con la noticia de que
habian encontrado la resonancia, justo donde
Hoyle habia dicho que estaria.

El Principio Antropico recibio otro espaldarazo


poco despues, cuando el fisico estadounidense

668
Robert Dicke lo utilizo como base de una manera
radicalmente diferente de considerar la Hipotesis
de los Numeros Grandes de Dirac. Dicke revelo
una laguna en los argumentos de Dirac: que la
similitud en tales numeros grandes dificilmente
puede ser una coincidencia. Apuntaba a que el
hecho de que pudieramos observar las
<<<coincidencias>>> significa que el Universo
debe de haber existido desde hace suficiente
tiempo para que las estrellas crearan los
elementos necesarios para la vida humana. Por
otra parte, el Universo no puede ser mucho mas
antiguo que esto, pues de otro modo las
materias primas necesarias para crear las
estrellas se habrian agotado. Utilizando un simple
modelo de reacciones nucleares estelares, Dicke
demostro que nuestra existencia garantiza que
los dos numeros grandes de Dirac deben ser
similares en este momento de la vida del
Universo. Dicho de otro modo, Dirac estaba en lo
cierto al decir que su similitud no es mera

669
coincidencia, aunque se equivocaba pensando
que, por tanto, debia persistir por siempre.

El argumento antropico de Dicke tambien socavo


la afirmacion de Dirac de que la gravedad tenia
que haberse debilitado para mantener intacta la
<<<coincidencia>>>. Ya en la decada de 1940
habian surgido dudas respecto a la prediccion de
Dirac; el teorico hungaro-estadounidense Edward
Teller habia demostrado que el debilitamiento de
la gravedad implicaba un Sol mas brillante y una
orbita terrestre menor en el pasado, haciendo
que la Tierra primitiva fuera imposiblemente
caliente82. El golpe de gracia lo asestaron los
astronautas del proyecto Apollo, que en 1969
dejaron en la Luna espejos especiales para
reflejar rayos laser. Estos permitian a los
astronomos medir la distancia a la Luna con una
precision sin precedentes —de unos pocos
centimetros— y, por tanto, detectar cualquier
signo de que se estuviera alejando a medida que

670
la gravedad reducia su capacidad de atraccion En
la decada de 1990, la conclusion era clara: si la
gravedad finalmente se debilitaba, lo hacia
mucho mas despacio de lo que habia predicho la
teoria de Dirac83.

Pese al creciente interes en el Principio Antropico,


no se le dio nombre hasta 1973, cuando Brandon
Carter, astrofisico de la Universidad de
Cambridge, acuno el termino a partir de la
palabra griega <<<anthropos>>>, ‘humanidad’.
Carter tambien disdn^uio dos variedades de la
idea basica. El Principio Antropico -/debil>>> —la
variedad que utilizaron Hoyle y Dicke— es hasta
cierto punto poco polemico y establece que el
hecho de que existamos pone limites a ciertas
propiedades del Universo y su contenido. Por el
contrario, el Principio Antropico <<<fuerte>>>
afirma que el Universo se ve realmente forzado
a tener propiedades compatibles con la vida
inteligente. Para muchos cientificos, esto huele al

671
conocido <<<argumento del diseno
[inteligente]>>> desarrollado pollos teologos
Victorianos, segun el cual los milagros de la
Naturaleza prueban la existencia de un disenador
supremo, esto es. Dios84.

Pocos cientificos aceptan la version fuerte del


Principio Antropico, e incluso la version debil ha
sido objeto de criticas. Los escepticos arguyen
que simplemente refleja lo que conocemos como
verdadero —que existimos— y, por tanto,
carece de contenido. Para algunos cientificos —
incluido sir Martin Rees, el actual astronomo real
—, en cambio, la version debil se queda corta.
En su lugar, promovieron un camino intermedio,
que lleva a una de las conclusiones mas
espectaculares del Principio Antropico: que
nuestro Universo no es mas que una parte,
diminuta pero habitable, de un
<<<multiverso>>> enorme.

672
Segun esta idea, preguntarse por que nuestro
Universo parece <<<ajustarse>>> a la vida es
como preguntarse por que los jugadores de
poquer a veces consiguen una escalera de color:
tiene que pasar en algun momento, en algun
lugar del multiverso85.

La posibilidad de que nuestro Universo sea solo


una parte diminuta de algo mucho mayor esta
sustentada por teorias desarrolladas para explicar
el Big Bang. En 1981, el fisico estadounidense
Alan Guth demostro que la expansion cosmica
podia haber sido desencadenada por una fuerza
subatomica que surge literalmente del espacio
vacio y actua como una forma de antigravedad.
Dos anos despues, el cosmologo ruso Andrei
Linde demostro que este efecto de
<<<inflacion>>> puede haber producido una
gran variedad de universos, siendo solo algunos
de ellos —como el que habitamos— adecuados
para el desarrollo de la vida.

673
En 1992, el fisico teorico estadounidense Lee
Smolin llevo esta idea mas lejos, proponiendo que
todos los universos participan en una suerte de
<<<supervivencia del mas apto>>> darwiniana,
lo que produce condiciones apropiadas para la
vida como subproducto. Smolin sostenia que
nuevos universos podian formarse por inflacion
dentro de los agujeros negros, los remanentes
super-densos de estrellas gigantes cuya
gravedad es tan intensa que ni siquiera la luz
puede escapar de ellos. Las condiciones en cada
uno de estos universos recien nacidos son
levemente diferentes, pero los que son capaces
de producir mas agujeros negros seran tambien
los que tendran mas descendencia y de este
modo se convertiran en la forma mas frecuente
de universo. Y esto lleva a una posible relacion
con la existencia de vida; como apunta Smolin,
los universos que producen mas agujeros negros
tambien produciran mas estrellas gigantes, que
son precisamente las mas aptas para crear los

674
elementos quimicos necesarios para la vida.

Aunque muy especulativa, la proposicion de


Smolin se ajusta en general a las conocidas leyes
de la fisica, y algun dia incluso sera posible
ponerla a prueba. De confirmarse, daria una
perspectiva totalmente nueva del Principio
Antropico, vinculando nuestra existencia en el
cosmos con la existencia del propio cosmos.

Esto, a su vez, conduce a la implicacion mas


asombrosa del Principio Antropico, que
mantendra a los cientificos argumentando al
respecto en los anos venideros: que necesitamos
al Universo para existir —y que el nos necesita.

LA FUERZA ELECTROSTATICA

675
Una de las fuerzas fundamentales del Universo,
la fuerza electrostatica, une objetos con cargas
opuestas —como los protones y los electrones—
y, por tanto, es responsable de la existencia de
los atomos. Tambien garantiza que cargas del
mismo signo se repelan, y desempena un papel
fundamental en las reacciones nucleares que se
producen en el interior de las estrellas, que solo
pueden comenzar cuando se ha superado esta
repulsion natural entre dos nucleos atomicos. El
mas leve cambio en la intensidad de la fuerza
electrostatica tendria un efecto profundo en la
naturaleza de nuestro Universo, impidiendo que
existan ciertos tipos de estrellas. A su vez, esto
supondria una ausencia de elementos quimicos
clave que normalmente se crean en el nucleo de
las estrellas gigantes, e impediria la existencia de
ingredientes para la formacion de vida inteligente,
como los seres humanos.

676
FRED HOY LE

Fred Hoyle, sin duda el astrofisico mas brillante


del siglo XX, revoluciono el conocimiento del
Universo y de su contenido. En 1948 planteo la
Teoria del Estado Estacionario, que afirmaba que
el cosmos siempre ha existido y que se mantiene
inalterado en las grandes escalas. Aunque fue
refutada por el descubrimiento del calor
remanente del Big Bang, la Teoria del Estado
Estacionario suscito muchos avances teoricos y
de observacion cosmica. Hoyle tambien resolvio
el problema del origen de los elementos quimicos
en las estrellas, pero le privaron
escandalosamente del Premio Nobel a raiz de sus
anteriores criticas al comite que otorga los
premios. Mas tarde, Hoyle defendio muchas
teorias impopulares, incluida la idea de que la vida
llego a la Tierra en forma de microbios

677
transportados por cometas.

Cronologia

1691 El cientifico ingles Robert Boyle


plantea que el mundo natural parece estar
especificamente disenado para sustentar y
beneficiar a los organismos vivos.

1903 El britanico Alfred Wallace,


naturalista y pionero de la Teoria de la
Evolucion, sostiene que la existencia de
vida exige que el Universo sea vasto y
complejo.

1929 El astronomo estadounidense Edwin


Hubble hace las primeras mediciones de las
propiedades de todo el Universo, incluida

678
su velocidad de expansion.

1937 El fisico ingles Paul Dirac,


galardonado con el Premio Nobel, revela las
misteriosas coincidencias de los numeros
grandes, afirmando que implican que la
fuerza de gravedad esta disminuyendo.

1953 El astrofisico Fred Hoyle


(Universidad de Cambridge) utiliza la
existencia de vida para predecir la
existencia de un nivel de energia
previamente no detectado en un isotopo
de carbono.

1957 El fisico Robert Dicke (Universidad


de Princeton) demuestra que las
coincidencias de los numeros grandes
pueden reflejar simplemente las
condiciones necesarias para que la vida
exista hoy en dia.

679
1969 Los astronautas del proyecto Apollo
despliegan en la Luna espejos reflectores
de rayos laser para determinar la distancia
a esta. En contra de la teoria de Dirac, las
mediciones desvelan que la gravedad no
esta debilitandose.

1973 El astrofisico Brandon Carter


(Universidad de Cambridge) es el primero
en acunar el termino de Principio Antropico
para la idea de que las propiedades del
Universo se relacionan con la existencia de
vida.

1981 Alan Guth (Massachusetts Institute


of Technology) plantea la Teoria de la
Inflacion para explicar la energia impulsora
del Big Bang.

1983 El cosmologo ruso Andrei Linde


(Universidad de Stanford) presenta la
Teoria de la Inflacion caotica, que produce

680
gran numero de universos, algunos de los
cuales inevitablemente sustentan la vida.

1992 El fisico estadounidense Lee Smolin


publica una teoria que sugiere que los
universos sufren una evolucion de tipo
darwiniano que los hace adecuados para la
existencia de vida.

Citas

79

Wallace, uno de los mas brillantes


naturalistas Victorianos, suele ser
considerado codescubridor de los principios
de la evolucion: su carta a Charles Darwin
sobre sus hallazgos en 1858 estimulo la
publicacion de El origen de las especies.
Mas tarde, Wallace se intereso en

681
aspectos mas espirituales de la biologia, lo
que puede haberle conducido a sus
escritos profeticos sobre las relaciones
entre la existencia de la vida y la
naturaleza del Universo.

80

Segun el Principio Antropico, el Universo


que vemos tiene propiedades coherentes
con la existencia de los seres humanos
porque, de lo contrario, no estariamos aqui
para contarlo. En 1980, el fisico
estadounidense William Press planteo un
ingenioso giro sobre este argumento que
predice cual es la maxima altura posible
para criaturas semejantes a los seres
humanos en nuestro Universo. El
argumento se centra en el hecho de que
las criaturas de dos piernas como los seres
humanos estan perpetuamente bajo la

682
amenaza de dano debido a una caida. Es
evidente que, si fueramos mucho mas
altos, caeriamos al suelo con tanta energia
que nos sobrevendria siempre la muerte.
Press apuntaba que la razon de que esto
no ocurra estriba en la potencia relativa de
dos fuerzas fundamentales que existen en
el Universo: la gravedad —que dicta la
fuerza con la que nos golpeamos contra el
suelo— y la fuerza electromagnetica —que
rige la fuerza de los enlaces atomicos que
constituyen nuestros huesos—. Este
argumento lleva a una formula para
calcular la maxima altura segura de los
seres humanos en la que se relacionan las
intensidades de estas dos fuerzas de
nuestro Universo, y da una cifra de
aproximadamente tres metros. De hecho,
el ser humano mas alto que ha existido —
Robert Wadlow (1918-1940)—, media 2,72
metros de altura, y no llegaba a superar

683
este limite.

81

El Premio Nobel Paul Dirac creia que la


similitud de ciertos numeros especiales
apuntaba a una relacion entre la fisica
subatomica y el Universo. Aunque ahora
se sabe que su teoria original era erronea,
la idea de tal conexion cosmica se ha
convertido hoy en dia en algo aceptado. Se
cree que la expansion de todo el Universo
esta impulsada por una fuerza generada
por procesos cuanticos —las leyes que
gobiernan el mundo subatomico—. Hasta
ahora, los teoricos han sido incapaces de
calcular la magnitud de esta fuerza
cosmica utilizando metodos
convencionales. Curiosamente, es posible
utilizar los <<<numeros grandes>>>
especiales de Dirac para presentar una

684
estimacion, y el resultado no dista mucho
del determinado por los astronomos. Asi
que es posible que, despues de todo, la
alocada idea de Dirac no estuviera
desencaminada.

82

En la teoria original de Dirac, el vinculo


entre la fisica subatomica y el cosmos
llevaba a una prediccion asombrosa: que la
fuerza de la gravedad debe estar
debilitandose. A los fisicos les llevo algun
tiempo entender las consecuencias de esta
prediccion, y se vio que eran desastrosas
para la teoria. Si la gravedad estaba
debilitandose, entonces la atraccion del Sol
sobre la Tierra habria sido mayor en el
pasado, acercandola y, por tanto,
haciendola mas caliente. Ademas, el
cambio en la intensidad de la gravedad

685
alteraria el equilibrio de las fuerzas en el
interior del Sol que rige sus reacciones de
fusion nuclear. Los calculos demuestran
que solo un aumento del 5% en la
intensidad de la gravedad incrementaria la
luminosidad del Sol un 40%. Esto, en
combinacion con la menor orbita, haria que
las temperaturas resultantes en la Tierra
superaran la de la ebullicion del agua solo
hace 600 millones de anos, lo cual se
contradice de plano con los registros
fosiles.

83

Entre los experimentos desarrollados


durante la primera mision lunar, en julio de
1969, habia un panel de 77 kilos con cien
espejos muy pulidos. Disenados por el
doctor Carroll Alley (Universidad de
Maryland), estos reflejan rayos laser

686
enviados desde la Tierra, y el tiempo que
tardan en hacer todo este recorrido,
combinado con la velocidad de la luz,
revela la distancia entre la Tierra y la Luna
con una precision de una parte por 10.000
millones, esto es, aproximadamente tres
centimetros.

84

El argumento del diseno inteligente, muy


utilizado por los creaeionistas en los
debates contra la Teoria de la Evolucion de
Darwin, suele atribuirse a William Paley,
teologo ingles del siglo XVII que afirmaba
que la existencia de organismos vivos
exquisitamente complejos se explica mejor
como resultado de acciones deliberadas de
un Creador. Los cientificos darwinianos
insisten en que la evolucion puede explicar
las maravillas de la vida sin necesidad de

687
un Creador.

85

Un ejemplo sorprendente de
<<<diseno>>> cosmico aparente se
centra en un numero denominado Omega,
que da la razon de la actual densidad de la
materia del Universo respecto a la
necesaria para que la gravedad sea
suficientemente intensa para detener la
expansion cosmica. Las observaciones
actuales demuestran que Omega vale
cerca de 0,3. Sin embargo, los calculos
revelan que esto significa que el valor
original de Omega en el momento del Big
Bang no pudo haber diferido de uno en
mas de una mil billonesima. Si no, la
expansion cosmica habria sido demasiado
rapida para que se formaran las galaxias, o
tan lenta que el Universo se habria

688
colapsado hace miles de millones de anos.
En resumen, debemos nuestra presencia a
algun <<<ajuste>>> increible.

689
Y despues, ?que?

El contenido de esta obra estaba actualizado en


el momento de redactarla, pero la ciencia no se
detiene. Quienes quieran estar al dia de los
ultimos descubrimientos a medida que tienen
lugar nunca han estado mejor servidos. Hay
muchas revistas de primer orden, como BBC
Focus (en la que aparecieron originalmente
versiones mas breves de algunos de estos
capitulos), Scientific American y New Scientist.
Para quienes no puedan esperar a los ultimos
avances, tambien hay muchos sitios web donde
se publican los descubrimientos mas recientes,

690
c o m o www.focusmag.co.uk, www.sciam.com y
www.newscientist.com. Sea cual fuere el camino
que escoja para estar al tanto de los ultimos
avances cientificos, espero que encuentre en
esta obra una guia practica para entender sus
implicaciones86.

Citas

86

Existe edicion en castellano de Scientific


American: Investigacion y Ciencia
(http://www.investigacionyciencia.es), y la
Universidad de Valencia edita Meto-de
(http://www.revistametode.com). (N. delE.)

691
Glosario

ADN mitocondrial (ADNmt): ADN extraido de


las mitocondrias, elementos celulares que
producen energia. Dado que en cada celula
existe una gran cantidad de mitocondrias, es facil
extraer su ADN de fragmentos antiguos. El ADN
tambien varia mucho de un individuo a otro, y se
hereda solo por via materna, haciendo que los
cambios sean mas faciles de interpretar.

Agricultura biologica: Este tipo de agricultura,


que dio sus primeros pasos en la decada de
1940, se centra en la salud del suelo en el que

692
crecen las plantas. Evitando el uso intensivo del
campo y los fertilizantes artificiales, los
agricultores biologicos afirman producir cosechas
mejores y productos mas sabrosos, aunque con
mayor costo. Muchos expertos creen que el
metodo es demasiado caro para la agricultura en
masa, y que los vegetales modificados
geneticamente tienen mas posibilidades.

Agrobacterium tumefaciens: Bacteria que se


encuentra en el suelo e infecta a las plantas con
su material genetico, causando enfermedades.
Eliminando los genes responsables de la
enfermedad, los cientificos utilizaron A.
tumefaciens para transportar genes de rasgos
deseados, produciendo variedades de vegetales
geneticamente modificados, como patatas,
tomates y semillas de soja.

Astenosfera: <<<Mar>>> de 300 kilometros


de profundidad de roca del manto parcialmente

693
fundida en el que flota la litosfera. Comienza a
unos 100 kilometros por debajo de la superficie.

Atractor extrano: En lineas generales,


obtencion de los posibles estados en los que
puede existir un fenomeno caotico. En el caso del
estado del tiempo, se puede pensar en un
atractor extrano como el clima, el cual garantiza
que los inviernos son caracteristicamente mas
frios que los veranos, aunque cada dia puede ser
radicalmente diferente. Pero basta un minusculo
cambio, como —al menos en teoria— el aleteo
de una mariposa, para que cambie el tiempo en
otra parte del atractor extrano, haciendo que la
prediccion a largo plazo sea imposible.

Automata celular: Patron reticular de celulas


cuyos detalles son controlados por conjuntos
simples de reglas. Cada celula del patron adopta
diversos estados (que oscilan entre
<<<negro>>> y <<<blanco>>>, a variedades

694
mucho mas complejas), segun el estado de sus
vecinas mas proximas.

Bayesanismo: Concepto de las probabilidades


como grados de creencia basados en todas las
pruebas disponibles. Segun esto, las afirmaciones
respecto a las probabilidades de que salga cara al
tirar una moneda al aire deben tener en cuenta
cualquier prueba de efectos que pudiera
afectarlas, como la manipulacion.

Bit: Termino acunado por primera vez por el


estadistico estadounidense John Tukey. Es la
menor unidad posible de informacion que
simplemente describe el estado de algo que
puede tener solo uno de dos estados (por
ejemplo, encendido y apagado).

Campo escalar: Tipo de campo de fuerza


cuantico que probablemente existio en el
Universo primitivo. Se ha predicho que tendria
efectos antigravitacionales, y permite la

695
expansion rapida del Universo conocida como
inflacion; su colapso desencadena la liberacion de
radiacion y de materia caracteristica del Big Bang.

Catastrofismo: Idea de que los


acontecimientos catastroficos de proporciones
biblicas, como el diluvio universal, desempenaron
una funcion clave en la historia pasada de la
Tierra. Aunque las raices del catastrofismo se
remontan a miles de anos, esta idea perdio
popularidad a principios del siglo XIX. El
reconocimiento reciente del papel de los impactos
cosmicos en la historia de la Tierra han
conllevado su reavivamiento, aunque en una
forma mucho mas cientifica.

Comportamiento altruista: Actos que no


benefician a los individuos, o incluso pueden
perjudicarles, aunque beneficien a otros. Tal
comportamiento, que se observa mucho tanto
en los animales como en los seres humanos,

696
plantea un problema importante a los biologos
especializados en la evolucion.

Compresion de datos: Tecnica utilizada para


eliminar los bits super-fluos
(<<<redundantes>>>) de los datos con el fin
de que puedan transmitirse con mayor rapidez y
compactarse mas para su almacenamiento. Esta
tecnica, investigada por Shannon en su primer
articulo, de 1949, se utiliza ahora ampliamente,
desde las comunicaciones via satelite hasta los
reproductores de DVD,

Computacion cuantica: Forma de computacion


que aprovecha el hecho de que las particulas
subatomicas pueden existir en combinaciones —
<<<superposiciones>>>— de diferentes
estados en el mismo momento. Expresando los
datos en terminos de estos multiples estados, la
computacion cuantica permite resolver problemas
muy complejos en paralelo, y por tanto a

697
enorme velocidad.

Computacion neuronal: Tecnica de


programacion de ordenadores ordinarios para
que se comporten como redes de <<<celulas
cerebrales>>> muy primitivas, que pueden ser
entrenadas para que reconozcan patrones. Se
utilizan mucho en la ejecucion de tareas como la
identificacion de caras en las imagenes de las
camaras de seguridad y en el reconocimiento del
habla.

Conductismo: Creencia de que el


comportamiento se debe practicamente en su
totalidad al aprendizaje de experiencias realizadas
en entornos particulares. Fue propuesto por vez
primera por el psicologo estadounidense John
Watson en 1913, y llevo a la idea de que
cualquier comportamiento puede alterarse
utilizando recompensas y castigos.

Constante de Hubble: Con frecuencia conocida

698
tambien como parametro de Hubble (H0) por no
ser realmente algo fijo, la constante de Hubble
mide la velocidad a la que se esta expandiendo el
Universo hoy en dia. Las determinaciones
actuales implican que el Universo comenzo a
expandirse hace aproximadamente 13.700
millones de anos.

Contraccion de FitzGerald-Lorentz:
Reduccion de las dimensiones de objetos en la
direccion de viaje que se hace aparente a
velocidades muy altas. Toma su hombre de los
dos fisicos que sugirieron el fenomeno para
explicar el resultado del experimento de
Michelson y Morley, antes de que Einstein
desarrollara la Relatividad.

Correlatos neurales: Partes reales del cerebro


y del sistema nervioso cuya funcion pueden
relacionarse directamente con aspectos de la
conciencia. Usando escaneres cerebrales y

699
experimentos de laboratorio, algunos cientificos
afirman que estas caracteristicas fundamentales
de la conciencia radican en partes primitivas del
encefalo, como el talamo y el tronco del
encefalo.

Dilatacion del tiempo: <<<Estiramiento>>>


del tiempo que se observa en los relojes en
movimiento, haciendo que parezcan ir mas
lentamente de lo que van cuando estan en
reposo. Esto se ha observado de forma
experimental en particulas subatomicas, que se
desintegran mas lentamente cuando viajan a
gran velocidad.

Distribucion de Gauss: Curva en forma de


campana que muestra la frecuencia relativa de,
por ejemplo, la altura de un grupo numeroso de
personas. Su forma refleja el hecho de que la
mayoria de la gente tiene una altura proxima a la
media, mientras que las personas muy altas o

700
muy bajas son relativamente raras.

Distribucion de valores extremos: Curva que


hace con los valores extremos lo que la
distribucion normal (<<<gaussiana>>>) hace
con los valores corrientes. La distribucion del valor
extremo, basada en datos pasados —por
ejemplo, los valores maximos de las
precipitaciones mensuales—, da lugar a una
curva que puede proporcionar estimaciones de la
probabilidad de que haya valores incluso mayores
de precipitaciones en cualquier ano dado.

Division de frecuencia espontanea


parametrica (SPDC): Metodo convencional de
desencadenar el entrelazamiento, en la que
algunos de los fotones de luz brillan en ciertos
cristales divididos en dos, creando pares de
fotones entrelazados.

Doble enmascaramiento: Procedimiento


disenado para proteger los ensayos medicos de

701
sesgos ocultos garantizando que ni los pacientes
ni los medicos que los tratan saben quien esta
recibiendo el nuevo tratamiento y quien el
placebo o el tratamiento antiguo.

Dorsal meso-oceanica: Region en la que dos


placas continentales se separan, lo que permite
que rocas basalticas nuevas suban a la superficie
desde las profundidades de la Tierra. El resultado
es la mayor cadena montanosa de la Tierra, con
una extension de 40.000 kilometros y los picos
mas elevados.

Dualismo: Consideracion de la mente consciente


como algo basicamente diferente del cerebro
vivo, que funciona. Originalmente la planteo el
filosofo frances del siglo XVII Rene Descartes —
de hecho se sigue denominado dualismo
cartesiano—. La idea de que la mente es mas
que la mera actividad cerebral no esta
plenamente aceptada en la actualidad.

702
Efecto de desplazamiento hacia el rojo:
Consecuencia de la expansion del Universo, en el
que la radiacion de fuentes distantes se -
<<<estira>>> hacia longitudes de onda
mayores. En el caso de la luz de las galaxias,
esto aparece como un desplazamiento hacia el
extremo rojo del espectro, de ahi el termino
<<<desplazamiento hacia el rojo>>>.

Efecto mariposa: Termino metaforico para lo


que los matematicos denominan
<<<dependencia sensible de las condiciones
iniciales>>>: la forma en que los fenomenos no
lineales, como el estado del tiempo, pueden ser
modificados incluso por los efectos mas minimos,
como el aleteo de una mariposa.

El Gran Problema: Segun muchos, es el


problema fundamental que cualquier teoria de la
conciencia debe resolver: como relacionar la
estructura objetiva, fisica, del cerebro con el

703
sentimiento subjetivo de ser consciente. El
termino fue acunado en 1994 por el filosofo
australiano David Chalmers en la Universidad de
Arizona.

Ensayo controlado aleatorio: Este tipo de


ensayo, que se considera el patron de referencia
de la medicina basada en pruebas cientificas, es
un estudio de algun tratamiento nuevo en el que
los pacientes son distribuidos al azar en dos
grupos: los que son elegidos para que reciban el
tratamiento en el <<<grupo de tratamiento>>>
y los que reciben el tratamiento habitual o un
placebo en el <<<grupo de referencia>>>.

Epidemiologia analitica: Investigacion de la


causa de efectos relacionados con la salud
usando analisis estadisticos de los resultados de
estudios de cohortes o de casos y controles.

Epidemiologia descriptiva: Estudio de las


causas de los efectos relacionados con la salud

704
usando analisis de datos simples basados en el
momento, el lugar y detalles personales.

Equilibrio de Nash: Conjunto de estrategias


que garantizan que cada jugador solo podria
jugar mal eligiendo alguna otra estrategia. Toma
su nombre de John Nash, quien probo que cada
juego tiene al menos tal conjunto de estrategias.

Escala del tiempo de Lyapunov:


Determinacion de la intensidad del caos y, por
tanto, del periodo maximo en el que siguen
siendo utiles las predicciones del tiempo. Cuanto
mayor sea, mas durara la fiabi-lidad de las
predicciones. Por ejemplo, el caos debido a la
atraccion gravitacional de los demas planetas
implica que la posicion de la Tierra no se puede
predecir mas alla de 100 millones de anos en el
futuro.

Eslabon perdido: Originalmente se considero


que era la criatura que salvo la brecha evolutiva

705
entre los chimpances y los seres humanos.
Ahora se sabe que los seres humanos no
proceden de los chimpances, sino que ambos
descendieron, hace al menos cinco millones de
anos, de un ancestro comun desconocido que se
ha convertido en el autentico <<<eslabon
perdido>>>.

Espin: Propiedad de las particulas subatomicas


con cierta semejanza con el giro de una pelota,
aunque como todas las ideas teoricas cuanticas
la analogia dista de ser perfecta. Todas las
particulas portadoras de energia, como los
fotones, son <<<bosones>>> con un numero
entero de unidades de espin (0, 1, 2, etc.),
mientras que las particulas de materia, como los
electrones, son <<<fermiones>>>, con valores
semienteros (1/2, 3/2, etc.).

Estados de espin: Muchas particulas atomicas,


incluidos los electrones, los protones y los

706
neutrones, poseen una propiedad cuantica
conocida como <<<espin>>>, que esta
lejanamente relacionada con la rotacion. La
principal diferencia es que solo puede adoptar
valores particulares, y si las particulas han sido
creadas de forma correcta, los denominados
estados de espin pueden entrelazarse.

Estrategia: Manera de jugar un determinado


juego, por ejemplo, marcarse un farol o pasar en
el poquer.

Estrategia estable evolutiva: En biologia, tipo


de comportamiento que no se puede vencer si lo
adopta la poblacion. Una vez adoptado, la
darwiniana <<<supervivencia del mas apto>>>
lo promovera.

Estudio de casos y controles: Otro metodo


para identificar las causas de la enfermedad en el
que las personas que ya tienen la afeccion —los
<<<casos>>>— se comparan con sujetos

707
sanos emparejados —los <<<controles>>>—,
indagando en sus antecedentes para identificar
causas probables.

Estudio de cohortes: Tecnica para revelar las


posibles causas de enfermedades en la que se
identifican dos grupos o <<<cohortes>>> de
personas, uno de los cuales ha estado expuesto
a un factor de riesgo sospechoso. Luego se hace
un seguimiento de la salud de cada grupo y se
comparan las tasas relativas de mortalidad o
morbilidad.

Estudios de mellizos: Utilizacion de mellizos —


generalmente identicos— para demostrar la
importancia relativa de la influencia genetica y
ambiental en un rasgo particular, como la altura,
el coeficiente intelectual y el tipo de personalidad.

Eter: Fluido que se suponia que llenaba todo el


espacio para que las ondas electromagneticas,
como la luz, viajaran a traves del vacio. Los

708
intentos fallidos de detectar el eter llevaron a
Einstein a desarrollar la Teoria Especial de la
Relatividad.

Eugenesia: Termino acunado por vez primera


por sir Francis Galton a partir del griego eu (‘bien’)
-genesis (‘engendramiento’) que significa ‘buen
engendramiento’. La eugenesia implica el uso
deliberado de la cria selectiva de los seres
humanos para mejorar la composicion genetica
de la poblacion, alentando a las personas que
desarrollan su maximo potencial a que tengan
mas hijos.

Experimento EPR: Experimento imaginario que


toma su nombre de las iniciales de sus inventores
—Einstein, Boris Podolsky y Nathan Rosen—, en
el que una particula unica se divide en dos,
creando pares entrelazados. El experimento EPR,
que se planteo en 1935 se realizo finalmente en
1982.

709
Factor de confusion: Factor que puede
enganar a los investigadores llevandoles a
relacionar una enfermedad con alguna causa
aparente cuando de hecho no existe dicha
relacion. Por ejemplo, hay estudios que han
demostrado que los vegetarianos son mas sanos
que los omnivoros. Aunque esto puede deberse
a la dieta, un posible <<<factor de
confusion>>> es el hecho de que los
vegetarianos que han participado en tales
estudios tienden a proceder de estratos
socioeconomicos mas altos y tienen en cualquier
caso un estilo de vida mas saludable.

Fluctuaciones cuanticas del vacio: Se


supone que un vacio esta completamente
desprovisto de contenido, pero en realidad el
Principio de Incertidumbre implica que esta lleno
de energia, particulas y antiparticulas que
constantemente aparecen y desaparecen de la
nada. Los efectos de estas fluctuaciones

710
cuanticas del vacio han sido medidos en el
laboratorio, y pueden relacionarse con la
<<<energia oscura>>>.

Fondo cosmico de microondas: Casi 14.000


millones de anos despues del Big Bang, el
Universo sigue conteniendo un debil remanente
del calor y de la radiacion de proporciones
colosales que se crearon durante su nacimiento.
Hoy en dia puede detectarse como un
<<<silbido>>> constante de microondas por
todo el cielo nocturno —siendo esto el remanente
de la radiacion infrarroja (calor) cuya longitud de
onda se ha desplazado hacia las microondas en
la expansion cosmica.

Frecuentismo: Concepto de las probabilidades


como la frecuencia de acontecimientos a largo
plazo. Por ejemplo, se dice que si la probabilidad
de que salga <<<cara>>> al tirar al aire una
moneda es del 50%, tendera a salir

711
<<<cara>>> en el 50% de las veces despues
de tirar muchas veces la moneda.

Fuerza de Casimir: Fuerza que aparece entre


dos placas de metal que se acercan mucho,
creada por energia cuantica del vacio que se
hace mayor fuera de las placas que entre ellas y
<<<golpea>>> en las placas, empujando una
contra otra. Predicha por vez primera en 1948,
es demasiado debil para determinarla, excepto
cuando los objetos estan separados entre si por
una distancia que sea una fraccion del grosor de
un pelo.

Funcion de onda: Cantidad matematica que


capta las propiedades fundamentales de una
particula o de un conjunto de particulas. Cada
particula tiene sus propias funciones de onda,
pero si se preparan de forma correcta, dos o
mas particulas pueden tener funciones de onda
que se entrelacen entre si, de forma que

712
compartan la misma funcion de onda.

Gas reticular: Forma de simulacion de la


complejidad del flujo de un fluido —por ejemplo,
la filtracion de un gas a traves de una roca—
utilizando automatas celulares para imitar el
comportamiento de las moleculas de gas. Las
reglas simples que gobiernan los automatas
celulares permiten resolver tales problemas,
cuyas ecuaciones son notablemente complejas.

Gen marcador: Gen utilizado exclusivamente


para revelar que plantas modificadas
geneticamente han adquirido satisfactoriamente
un nuevo rasgo. Los genes marcadores que mas
se utilizan son los correspondientes a la
resistencia a los antibioticos, que permitieron que
las plantas sobrevivieran al tratamiento con
antibioticos si ya habian sido correctamente
modificadas. La preocupacion por que la
resistencia los antibioticos se transfiriera a los

713
seres humanos hizo que tales marcadores se
retiraran.

Gen Terminator: Se trata de un proyecto


conjunto del Departamento de Agricultura de
Estados Unidos y Delta and Pine Land. El gen
Terminator se diseno para imitar una propiedad
de muchas plantas hibridas convencionales que
impide que las semillas de los vegetales
modificados geneticamente se usen mas de una
vez, manteniendo una calidad y un rendimiento
elevados. Pese a estas ventajas, la polemica que
suscito acabo con el proyecto en 1999.

Heredabilidad: Determinacion del grado en que


las diferencias en un rasgo particular se deben a
factores geneticos. Por ejemplo, la heredabilidad
del coeficiente intelectual es aproximadamente de
0,5, lo que implica que los efectos geneticos
suponen cerca del 50% de la variabilidad del
coeficiente intelectual entre las personas. Se

714
aplican cifras similares a las caracteristicas de la
personalidad y al exito en la vida.

Hipotesis de los Numeros Grandes: Idea de


que la similitud de los numeros grandes —cerca
de 1040— que surgen de ciertas combinaciones
de propiedades basicas del Universo no es mera
coincidencia, sino que refleja una conexion
profunda entre la fisica cosmica y la fisica
subatomica. Fue en su momento defendida por
lumbreras como el fisico britanico Paul Dirac,
galardonado con el Premio Nobel, pero hoy en
dia esta hipotesis practicamente se ha
abandonado.

Hipotesis del origen multirregional: Principal


rival de la teoria del origen africano (Out of
Africa) como explicacion de los origenes del
primer ser humano. Afirma que los miembros de
H. erectus evolucionaron hacia H. sapiens cuando
se asentaron despues de dejar Africa, hace

715
aproximadamente 1,8 millones de anos, en
algunos casos despues de pasar por una fase
neandertal.

Homo erectus: Especie de seres humanos que


abandonaron Africa y se diseminaron por Asia
hace aproximadamente 1,8 millones de anos.
Segun la hipotesis del origen africano, los que se
quedaron en Africa se convirtieron al final en H.
sapiens, y reemplazaron a H. erectus y sus
descendientes en Europa y Asia. Segun la
hipotesis multirregional, H. erectus evoluciono
hacia H. sapiens en diversas zonas del mundo.

Inflacion: Expansion explosiva del Universo


momentos despues de su creacion, impulsada
por la enorme cantidad de energia oscura que, al
parecer, existia entonces. Aunque la inflacion
resuelve algunos misterios cosmicos de otro
modo desconcertantes, la explicacion de por que
fue como fue constituye en si misma un

716
importante misterio.

Inflacion caotica: Version de la Teoria de la


Inflacion desarrollada por el cosmologo ruso
Andrei Linde, que lleva a la creacion de una gran
cantidad de regiones del Universo separadas,
siendo posible la vida solo en algunas de ellas.

Interferencia de particulas unicas: Extrano


efecto observado por primera vez casi hace un
siglo, en la que incluso fotones de luz o particulas
subatomicas unicas muestran efectos de
interferencia. Algunos fisicos creen que el efecto
revela la existencia de innumerables universos
paralelos, cuyas particulas interfieren con las de
nuestro propio Universo.

Invariancia de Lorentz: Propiedad de cualquier


teoria, si debe ser coherente con la Relatividad,
que permite que sus predicciones sean las
mismas (<<<invariantes>>>) para todos los
observadores, independientemente de su

717
velocidad. Las leyes simples del movimiento no
son invariantes de Lorentz.

Inversion geomagnetica: Inversion subita del


campo magnetico terrestre, intercambiandose los
lugares de los polos magneticos norte y sur. Sus
efectos se manifiestan en la roca fundida,
desempenando un papel fundamental en la
confirmacion de la deriva continental. La inversion
mas reciente se produjo hace 250.000 anos;
pero, pese a haber sido reconocida hace casi un
siglo, siguen sin conocerse sus causas precisas.

Juego de Kevin Bacon: Juego en el que se


ponen a prueba los conocimientos de los
aficionados a las peliculas, en el que uno de los
participantes intenta relacionar un actor conocido
con la estrella de Hollywood Kevin Bacon a traves
del menor numero posible de intermediarios. Por
ejemplo, Arnold Schwarzenegger puede
relacionarse en un solo paso a traves de Colleen

718
Camp, que aparecio en El ultimo heroe americano
y, con Bacon, en Atrapada.

Juego de suma nula: Juego en el que cualquier


resultado positivo del jugador se produce a
expensas del resto de los jugadores, de modo
que la suma total de todos los resultados,
positivos y negativos, es siempre cero.

Limite de Bekenstein: Cantidad maxima


absoluta de informacion —expresada como
<<<bits>>>— que puede almacenarse o
transmitirse en cualquier region del espacio.
Calculos aproximados sugieren que el limite es
aproximadamente de 1070 bits por metro
cuadrado —como referencia, los CD solo
almacenan 1013 bits por metro cuadrado.

Litosfera: Capa mas superficial de la Tierra, que


incluye la corteza y la parte superior rigida del
manto. Esta dividida en nueve <<<placas>>>

719
principales mas unas catorce placas mas
pequenas.

Logica de predicados: Extension de las reglas


ordinarias de la logica, que se centra en
afirmaciones de tipo <<<verdadero-falso>>>,
para captar las relaciones entre conceptos y
objetos. Se utiliza mucho para dar a los
ordenadores la capacidad de razonar sobre
situaciones complejas, por ejemplo, por que se
debe dar un credito a alguien.

Longitud de Planck: Escala en la que las


nociones habituales de espacio y tiempo se
rompen bajo los efectos cuanticos. Nos puede
parecer que el espacio es liso y continuo, pero la
teoria demuestra que si pudieramos observar en
escalas de 10”35 metros (una escala tan
pequena que los atomos parecerian tener el
tamano de cumulos de galaxias), observariamos
el espacio como algo mas semejante a un

720
oceano sacudido por una tormenta.

Longitud de recorrido caracteristica:


Numero medio de saltos que se necesitan para ir
de una parte de una red a otra. Por ejemplo, el
<<<pequeno mundo>>> de las peliculas tiene
una longitud de recorrido caracteristica de cuatro,
lo que significa que, por termino medio, cualquier
actor puede estar relacionado normalmente con
cualquier otro a traves de otros tres actores
solamente.

Maquina de Von Neumann: Maquina


programada con reglas que le permiten auto
replicarse usando los componentes que hay a su
alrededor. Estas maquinas, que toman su
nombre del matematico hungaro-estadounidense
Von Neumann, muestran que todos los procesos
claves de la vida son posibles en una maquina
cuya complejidad supere cierto nivel.

Matriz de resultados: Tabla de valores que

721
muestran los resultados asociados a cada
estrategia de juego de la que dispone el jugador.

Memes: Equivalente cultural de los genes, que


transmiten ideas o tecnicas entre las mentes. Se
puede considerar que las modas, las religiones y
los movimientos politicos se basan en memes
que los ninos pueden <<<heredar>>> de sus
padres.

<<<Metaanalisis>>>: Tecnica matematica


promovida por sir George Airy, astronomo real
Victoriano, en la que los resultados de los datos
de ensayos distintos pero similares se combinan
para imitar el efecto de un unico ensayo de
grandes proporciones.

Metodos de lenguaje natural: Tecnicas que


permiten que los seres humanos interactuen con
ordenadores como si fueran humanos, usando el
lenguaje ordinario en lugar de lenguajes de
programacion especializados. Requiere que el

722
ordenador haga frente a las ambiguedades y la
dependencia del contexto de las conversaciones
ordinarias.

Multiverso: El autentico <<<Universo>>>, del


que nuestro Universo constituye solo una region
diminuta. El multiverso, de extension infinita,
contiene todas las formas de universo
concebibles, incluido un numero infinito de
universos .como el nuestro. Sin embargo, la
mayoria son totalmente distintos y contienen
diferentes leyes de la fisica —practicamente
todos ellos son incompatibles con la existencia de
vida.

NEO: Objetos cercanos a la Tierra (del ingles


Near-Earth Objects), en forma de cometas y
asteroides cuyas orbitas alrededor del Sol hacen
que esten mas cerca de la Tierra de lo habitual
(en un radio de unos 50 millones de kilometros).
Empujados por la gravedad de los planetas, los

723
NEO pueden acabar en recorridos de colision con
la Tierra, haciendo que sean el posible origen de
catastrofes mundiales.

Neutrinos: Particulas fantasmales cuya


existencia fue predicha teoricamente en 1931,
siendo descubiertos en 1959. Los neutrinos, que
apenas interactuan con la materia, no tienen
carga y, segun el Modelo Estandar, carecen de
masa. En 1998, los cientificos anunciaron que
habian encontrado pruebas de una masa que era
aproximadamente una millonesima de la masa
del electron: era la primera prueba de efectos
mas alla del Modelo Estandar.

No linealidad: Propiedad de algunos


fenomenos —como el estado del tiempo o ir al
trabajo— en los que pequenos cambios no
siempre tienen consecuencias pequenas. Por
ejemplo, un error de solo un minimo porcentaje
en los datos del tiempo puede echar totalmente

724
por tierra una prediccion a largo plazo, mientras
que remolonear en la cama 10 minutos puede
hacer que se pierda el autobus y se llegue una
hora tarde al trabajo.

Ordenador universal: Dispositivo que puede


realizar cualquier computacion concebible, desde
la aritmetica al razonamiento logico. Se cree que
es un requisito clave para cualquier sistema
capaz de imitar la vida. Incluso el automata
celular mas simple ha demostrado poseer la
capacidad de realizar la computacion universal.

Pangea: Vasto supercontinente formado hace


unos 320 millones de anos por la colision de dos
grandes areas de rocas continentales. Hace
aproximadamente 200 millones de anos, Pangea
se dividio de nuevo en dos: Laurasia en el norte,
que finalmente formaria America y Europa, y
Gondwana en el sur, que daria lugar a Africa,
Sura-merica, India y la Antartida.

725
Pequeno mundo: Tipo de red cuyas conexiones
son en parte regulares y en parte aleatorias.
Normalmente, el resultado son montones de
grupos estrechamente relacionados (debido a los
vinculos regulares), a las que se puede llegar
mediante una cantidad relativamente reducida de
pasos gracias a los vinculos aleatorios.

Principio Antropico: Idea de que la naturaleza


de nuestro Universo se relaciona intimamente
con la existencia de observadores —
concretamente los seres humanos— en el.

Principio Antropico debil: Version


relativamente modesta del Principio Antropico,
que fue identificada por primera vez por el fisico
Brandon Carter (Universidad de Cambridge) y
que es la que la mayoria de los cientificos estan
dispuestos a aceptar. Segun el Principio Antropico
debil, el hecho de que al menos parte del
Universo contenga observadores plantea

726
limitaciones a como puede ser el Universo como
un todo.

Principio Antropico fuerte: Version todavia


mas polemica del Principio Antropico, que
establece que el Universo debe tener
propiedades que permitan la aparicion de vida en
algun momento de su historia. Para muchos
cientificos, esto esta peligrosamente cerca de
constituir una afirmacion de tipo religioso.

Principio de Incertidumbre: Relacion entre


ciertas propiedades de las particulas subatomicas
—como su posicion y su velocidad— que implica
que cuanto mayor es la certeza con la que se
conoce una propiedad, menor es la certeza
respecto a las demas. Se cree que la
incertidumbre sobre el contenido de energia del
espacio vacio es responsable de la <<<energia
oscura>>>.

Probabilidad posterior: Probabilidades

727
actualizadas de que una teoria o una creencia
sea verdadera, despues de tener en cuenta
nuevas pruebas. Por ejemplo, las pruebas de
deteccion del cancer de mama.

Probabilidad previa: Probabilidades de que


una teoria o creencia sea verdadera, antes de
tener en cuenta nuevas pruebas. Por ejemplo, la
estadistica demuestra que una mujer promedio
tiene una probabilidad de uno entre cien de sufrir
cancer de mama a lo largo de su vida. Por tanto,
su probabilidad previa de padecer la enfermedad
antes de realizar cualquier prueba es de uno
entre cien.

Prueba de Turing: Polemica prueba de la


inteligencia de un ordenador que se basa en las
ideas planteadas en 1950 por Alan Turing,
pionero britanico de la ciencia computacional.
Segun esta prueba, si se utiliza un ordenador y
no se puede diferenciar entre sus respuestas y

728
las que se esperarian de un ser humano,
entonces se puede considerar al ordenador como
un ente <<<pensante>>>.

Quale: La experiencia subjetiva de, por ejemplo,


la rojez o la suavidad de la lana o el sabor de los
limones. Imposible de describir, aunque se
considera esencial para el concepto de ser
consciente, algunos filosofos niegan que exista
algo como un quale (en plural, qualia).

Quarks: Atrapados dentro de todas las


particulas que sienten la fuerza nuclear fuerte —
como protones y neutrones—, los quarks tienen
seis <<<sabores>>>, y las diferentes
combinaciones de estos dan a sus particulas
huespedes las propiedades que se observan.
Hay particulas, conocidas como gluones, que
impiden que los quarks se escapen; su sujecion
aumenta cuanto mas se intentan alejar los
quarks.

729
Razon de verosimilitud: Determinacion de la
solidez de las pruebas que apoyan una teoria o
creencia. Cuanto mas solida sea la prueba,
mayor sera la razon de verosimilitud: por
ejemplo, las pruebas de ADN pueden dar
razones de verosimilitud de 100.000 o mas.

Red aleatoria: Conjunto de objetos o de


individuos que estan relacionados entre si de una
forma completamente aleatoria (por ejemplo, los
signos zodiacales de las personas que aparecen
por orden alfabetico en el listin telefonico). Las
conexiones aleatorias suelen suponer que sea
necesario un pequeno numero de pasos para
relacionar a cualquier persona con cualquier otra.

Red regular: Conjunto de objetos o de


individuos que estan relacionados entre si de una
forma completamente regular (por ejemplo,
conociendo solo al vecino de al lado).
Normalmente hacen falta muchos pasos para

730
relacionar a una persona de un
<<<vecindario>>> con cualquier otra.

Redundancia: Bits extra en la comunicacion que


aportan poca informacion adicional. Aunque
aparentemente carece de utilidad, tal
redundancia es importante para combatir los
efectos del ruido. Por ejemplo, aunque las
vocales son a menudo <<<redundantes>>> en
ingles, incluirlas ayuda a impedir que los
mensajes sean indescifrables.

Resultado: Ganancia o perdida resultante de


elegir una determinada estrategia para jugar un
juego. A veces es sustituido por el orden de
preferencia, por ejemplo siendo uno el mas
favorecido, hasta cuatro en un juego de dos
jugadores y doble estrategia.

Seleccion de grupos: Concepto de que los


rasgos que son perjudiciales para los individuos
pueden seguir transmitiendose por la poblacion si

731
son beneficiosos para los demas individuos de un
grupo. Este termino se invento para explicar
como pueden desarrollarse determinados
comportamientos, como el altruismo. La ausencia
de un vinculo genetico claro implica que no se
considere que la seleccion de grupos es muy
eficaz en la transmision de tales rasgos.

Seleccion por parentesco: Idea de que un


rasgo que es perjudicial para los individuos puede
seguir transmitiendose por una poblacion si
beneficia a otros individuos con cierto grado de
parentesco genetico. Por ejemplo, si una persona
altruista muere mientras rescata a tres parientes
cercanos, un grupo de genes del altruismo se ha
perdido, pero otros tres grupos se han salvado,
lo que supone una ganancia neta.

Series temporales: Obtencion de datos que se


remontan en el tiempo, a partir de los cuales
puede extraerse una distribucion de valores

732
extremos. Por ejemplo, estudiando los registros
historicos de los mayores niveles fluviales
alcanzados en varios siglos, los encargados de la
planificacion pueden estimar la altura de las
defensas necesarias para proteger las casas de
los peores excesos previsibles en los siguientes
siglos.

Sesgo y confusion: Dos efectos clave que


pueden hacer que los investigadores medicos
extraigan conclusiones erroneas de los ensayos
medicos. El sesgo es una desviacion sistematica
de los resultados de la verdad que esta causada,
por ejemplo, por revistas que se niegan a
publicar resultados negativos <<<aburridos>>>.
La confusion es el efecto sobre el resultado de
un ensayo de algun factor —por ejemplo el
tabaquismo o el estatus social— que los
investigadores no logran tener en cuenta cuando
disenan los ensayos.

733
Sistemas expertos: Ordenadores programados
para aprehender la capacidad de un experto
humano y usar esa experiencia para realizar
razonamientos <<<inteligentes>>> usando la
logica matematica. Las capacidades del experto
humano se almacenan en la denominada
<<<base de conocimiento>>>, que el
ordenador explota para llegar a sus conclusiones.
Se utiliza en tareas como el diagnostico de
enfermedades a partir de los sintomas.

Supersimetria: Vinculo matematico entre los


dos tipos basicos de particulas subatomicas: los
fermiones (como el electron), a partir de los
cuales se forma toda la materia, y los bosones
(como el foton), que transmiten las fuerzas
fundamentales. El descubrimiento, a principios de
la decada de 1970, de esta relacion inesperada
ha desempenado un papel clave en el desarrollo
de una Teoria del Todo unificada.

734
Tabla rasa: Idea de que los seres humanos
nacen sin rasgos innatos, de modo que su
comportamiento, sus habilidades y su
personalidad son por completo el resultado de la
interaccion con su entorno.

Teorema de Bell: Resultado matematico que


encontro el fisico irlandes John Bell en 1964, que
demuestra que el entrelazamiento produce
mayor grado de correlacion entre particulas
separadas que el que puede explicarse por el
sentido comun.

Teorema de la capacidad de informacion:


Resultado clave de la Teoria de la Informacion
probado por Shannon, que demuestra que la
comunicacion supone siempre el compromiso
entre enviar los mensajes rapidamente y
garantizar que carezcan de errores.

Teorema Minimax: Metodo para encontrar la


mejor estrategia en juegos de suma nula con

735
dos jugadores. Suponiendo que ambos jugadores
quieran jugar lo mejor posible, la estrategia mas
racional a elegir es la que de el mejor resultado
incluso en las peores circunstancias.

Teoria de Cuerdas: Descripcion de las


particulas y de las fuerzas que operan entre ellas
basada en la idea de que las particulas no son
meros puntos, sino que se parecen mas a
diminutas <<<cuerdas>>> de diez dimensiones
cuyo tamano se acerca a la longitud de Planck.
Cuando se combina con la idea de la
supersimetria, las entidades resultantes se
conocen como <<<supercuerdas>>>.

Teoria Electrodebil: Primera unificacion


satisfactoria de dos fuerzas fundamentales de la
naturaleza: el electromagnetismo y la interaccion
nuclear debil. Desarrollada durante la decada de
1960, es uno de los exitos mas espectaculares
del Modelo Estandar.

736
Teoria del Espacio Global de Trabajo:
Hipotesis sobre como funciona el cerebro, segun
la cual existe un tipo de <<<escenario>>>
mental —el area de trabajo— en el que se reune
la informacion recibida de otras partes
independientes del cerebro que trabajan
inconscientemente, La Teoria del Espacio Global
de Trabajo fue propuesta en 1988 por el
psicologo holandes Bernard Baars, del Instituto
de Neurociencias en San Diego.

Teoria de los genes y la cultura: Teoria de


que los seres humanos se benefician de dos
tipos de herencia: la herencia genetica y la
cultural. Por ejemplo, nuestros ancestros, asi
como adquirieron genes que les llevaron a hacer
herramientas de piedra, tambien
<<<heredaron>>> el conocimiento sobre como
usar tales herramientas.

Teoria de la Inflacion: Principal rival para

737
explicar la fuerza explosiva del Big Bang hace
14.000 millones de anos, que atribuye la
expansion rapida a la denominada energia
cuantica del vacio. Esta energia, que surge
literalmente de la nada, actua como una forma
de antigravedad, <<<inflando>>> el Universo a
partir de su tamano subatomico original.

Teoria M: Principal candidata para recibir el titulo


de Teoria del Todo. La Teoria M, que comenzo a
adquirir importancia en 1995, parece ser la teoria
principal, siendo las supercuerdas solo una parte
de ella. La M suele hacer referencia a la
<<<membrana>>>, de la que las supercuerdas
decadimensionales pueden considerarse como un
simple <<<borde>>>.

Teoria de los Multiples Mundos:


Interpretacion de la Teoria Cuantica por la que
las particulas subatomicas mantienen todos sus
posibles estados cuando son observadas, en

738
lugar de deshacerse de todos salvo el que
realmente se ve. Estos otros estados existen en
universos paralelos al nuestro; su existencia se
revela a traves de la famosa <<<in-
certidumbre>>> que se asocia a los intentos de
determinar las propiedades precisas de los
sistemas subatomicos.

Teorias de Kaluza-Klein: Teorias que unifican


las fuerzas y las particulas de la Naturaleza
usando mas dimensiones espaciales aparte de
las tres habituales. Los teoricos creen
actualmente que la autentica Teoria del Todo
sera una teoria de Kaluza-Klein con once
dimensiones, de las que solo cuatro tienen el
tamano suficiente para poder observarlas.

Toxina Bt: Abreviatura de la toxina de Bacillus


thurigiensis. Es una proteina mortal para ciertos
insectos que destruyen las plantas, como las de
algodon y maiz. Insertando el gen responsable

739
de crear la toxina en las plantas, estas adquieren
su propio insecticida, disminuyendo drasticamente
la necesidad de rociar las plantas con sustancias
quimicas.

Uniformitarismo: Idea sobre la historia de la


Tierra —que planteo en el siglo XV III el geologo
escoces James Hutton— de que los procesos
que conforman hoy nuestro planeta, como la
erosion y el vulcanis-mo, tambien tuvieron una
importancia crucial en tiempos remotos. El
uniformitarismo, retomado mas tarde por los
geologos, afianzo la idea de que las catastrofes
mundiales eran poco mas que supersticiones
alarmantes.

Valor en riesgo: Mayor perdida que es


probable que afecte a una institucion financiera a
lo largo de un periodo dado con cierta
probabilidad. El valor en riesgo (VaR), una
cuestion de gran importancia para las companias

740
aseguradoras, es ahora una aplicacion
importante de la Teoria del Valor Extremo.

Velocidad relativista: Velocidad de un objeto


a la que los efectos de la Relatividad Especial se
hacen significativos. Incluso para una nave
espacial que viajara a 1.000.000 kilometros por
hora, son despreciables, pero son cruciales para
particulas que viajan a velocidades
<<<relativistas>>> del 90-99% de la velocidad
de la luz (casi 300.000 kilometros por segundo).

Zona de subduccion: Region en la que una


placa se desliza bajo otra creando una fisura
oceanica.

741
Referencias
bibliograficas

CAPITULO 1

- Blackmore, Susan, Conciousness: An Introduction, Odre &


Stoughton, 2003.
- Carter, Rita, Mapping the Mind, Weidenfeld & Nicolson, 1998.
- Crick, Francis, La busqueda cientifica del alma: una
revolucionaria hipotesis, Debate, 1994.
- Norretranders, Torr, The User Illusion, Penguin, 1998.
- Pinker, Steven, Como funciona la mente, Destino, 2004.
- Velmans, Max, Understanding Conciousness, Roudedge, 2000.

742
CAPITULO 2

- Blass, Thomas, The Man who Shocked the World: The Life and
Legacy of Stanley Milgram, Basic Books, 2004.
- Strogatz, Steven, y Watts, Duncan, <<<Collective
dynamics of “small world” networks>>>, Nature, vol. 393 (1998),
pags. 440-442.
- Watts, Duncan, Seis grados de separacion: la ciencia de las
redes en la era del acceso, Paidos Iberica, 2006.
- Small Worlds, Princeton University Press, 1999.

CAPITULO 3

- Brams, Steven J., Theory of Moves, Cambridge University


Press, 1994.
- Poundstone, William, El dilema del prisionero: John von
Neumann, la teoria de juegos y la bomba, Alianza Editorial, 2005.
- Taylor, Alan D., Mathematics and Politics: Strategy, Voting,
Power and Proof, Springer, 1995.

CAPITULO 4

- Johnson, R. Colin, y Brown, Chappell, Cognizers: Neural


Networks and Machines that Think, Wiley, 1988.
- Newquist, H. P., The Brain Makers, Sams Publishing, 1994.

743
- Whitby, Blay, Artificial Intelligence: A Beginner’s Guide,
Oneworld, 2003.

CAPITULO 5

- Frieden, Roy, Physics from Fisher Information, Cambridge


University Press, 1999.
- Smolin, Lee, Three Roads to Quantum Gravity, Weidenfeld and
Nicol-son, 2001.
- http://cm.bell-labs.com/cm/ms/what/shannonday/
- http://researchnews.osu.edu/archive/fuzzball.htm
- www.lucent.com/minds/infotheo

CAPITULO 6

- McHughen, Alan, A Consumer s Guide to Genetically Modified


Food, Oxford University Press, 2000.
- Nestle, Marion, Safe Food, University of California Press, 2003.
- Nottingham, Stephen, Come tus genes: como los alimentos
transgenicos estan en nuestra dieta, Paidos Iberica, 2004.
- www.bbc.co.uk/science/genes/gm_genie/
- www.colostate.edu/programs/lifesciences/TransgenicCrops

CAPITULO 7

- Leakey, Richard, El origen de la humanidad, Debate, 2000.

744
- Reader, John, Missing Links: The Hunt for Earliest Man,
Penguin, 1988.
- Stringer, Cris, y McKie, Robin, African Exodus, Owl Books,
1998.

CAPITULO 8

- Plnker, Steven, La tabla rasa: la negacion moderna de la


naturaleza humana, Paidos Iberica, 2003.
- Ridley, Matt, Nature via Nurture, HarperCollins, 2003.
- Wright Gillham, Nicholas, A Life of Sir Francis Galton, Oxford
University Press, 2001.
- http://www.psy.fsu.edu/history/wnk/ape.html

CAPITULO 9

- Brown, Andrew, The Darwin Wars, Simon & Schuster, 1999.


- Dawkins, Richard, El gen egoista, Salvat Editores, 2003.
- Evans, Dylan, y Selina, Howard, Introducing Evolution, Icon,
2001.

CAPITULO 10

- Clube, Victor, y Napier, Bill, El invierno cosmico, Alianza


Editorial, 1995.
- Fortey, Richard, La vida: una biografia no autorizada, Taurus,
1999.

745
- Huggett, Richard, Catastrophism: Killer Asteroids in the Making
of the Natural World, Verso, 1997.

CAPITULO 11

- Fortey, Richard, The Earth: An Intimate History, Perennial,


2005.
- Lewis, Cherry, The Dating Game: One Man’s Search for the Age
of the Earth, Cambridge University Press, 2000.
- Stanley, Steven M., Earth System History, W. H. Freeman,
1999.

CAPITULO 12

- Howson, Colin, y Urbach, Peter, Scientific Reasoning: The


Bayesian Approach, Open Court, 1993.
- Matthews, Robert, <<<Facts and Factions: The Use and
Abuse of Subjectivity in Scientific Research>>>, en Rethinking
Risk and the Precautionary Principle, editado por Julian Morris,
Oxford, 2000. Disponible en linea en www.tinynrl.com/4atbd
- <<<Why should clinicians care about Bayesian methods?>>>,
en Journal of Statistical Planning & Inference, vol. 94, pags. 43-58
(2001). Disponible en linea en www.tinyurl.com/aympu

CAPITULO 13

- Gleick, James, Caos, la creacion de una ciencia, Seix Barral,

746
1998.
- Lorenz, Edward, La esencia del caos: un modelo cientifico para
la disparidad de la naturaleza, Debate, 1995.
- Peterson, Ivars, El reloj de Newton: caos en el Sistema Solar,
Alianza Editorial, 1995.

CAPITULO 14

- Levy, Steven, Artificial Life: The Quest for a New Creation,


Penguin, 1993.
- Wolfram, Stephen, A New Kind of Science, Wolfram Publishing,
2002. Disponible en linea en
www.wolframscience.com/nksonline/toc.html Se pueden consultar
varias simulaciones en linea en www.collidoscope.com/modernca/

CAPITULO 15

- Flnkenstadt, Barbel, y Rootzen, Holger, Extreme Values in


finance, Telecommunications and the Environment , Chapman &
Hall, 2003.
- Kotz, Samuel, y Nadarajah, Saralees, Extreme Value
Distributions, World Scientific, 2000.
- http://www.nottingham.ac.uk/~lizkd/ewar.doc
-
http://www.mathworld.wolfram.com/ExtremeValueDistribution.html
- http://www.library.adelaide.edu.au/digitised/fisher/63.pdf

747
CAPITULO 16

- www.people.virginia.edu/~rjh9u/scurvy.html
- www.cochrane.org
- www.nice.org.uk
- www.cebm.net/background.asp

CAPITULO 17

- www.epidemiology.ch/history/
- www.framingham.com/heart/
- www.ph.ucla.edu/epi/snow.html

CAPITULO 18

- Glulini, Domenico, Special Relativity: A First Encounter, Oxford


University Press, 2005.
- Pais, Abraham, El senor es sutil: la ciencia y la vida de Albert
Einstein, Ariel, 1984.
- Stachel, John (ed.), Einstein 1905: un ano milagroso. Cinco
articulos que cambiaron la fisica, Critica, 2001.
- <<<Seeing Relativity>>>. Demostraciones en linea de extranos
efectos opticos de la Relatividad Especial, Dr. Antony Searle y
colaboradores de la Australian National University:
http://www.anu.edu.au/Physics/Searle/

CAPITULO 19

748
- Aczel, Amir, Entrelazamiento: el mayor misterio de la fisica,
Critica, 2004.
- Al-Khalili, Tim, Quantum: A Guide for the Perplexed,
Weidenfeld & Nicolson, 2003.
- Bell, John, Speakable and Unspeakable in Quantum Mechanics,
Cambridge University Press, 1989.
- Davies, Paul, Dios y la nueva fisica, Salvat Editores, 1988.
- http://www.auqntum.univie.ac.at/
- http://www.plato.stanford.edu/entries/qt-entangle/

CAPITULO 20

- Close, Frank, et al., The Particle Explosion, Oxford University


Press, 1994.
- Davies, Paul, Dios y la nueva fisica, Salvat Editores, 1988.
- Lawrie, Ian, A Unified Grand Tour of Theoretical Physics, Adam
Hil-ger, 1990.
- http://www.particleadventure.org/particleadventure/
- http://www.cern.ch/
- http://www2.slac.stanford.edu/wc/theory/model.html

CAPITULO 21

- Crease, Robert, y Mann, Charles, The Second Creation,


Quartet, 1997.
- Greene, Brian, El tejido del cosmos: espacio, tiempo y la
textura de la realidad, Critica, 2006.
- Smolin, Lee, Three Roads to Quantum Gravity, Weidenfeld &

749
Nicol-son, 2000.

CAPITULO 22

- Coles, Peter, Cosmology: A Very Short Introduction, Oxford


University Press, 2001.
- Greene, Brian, El tejido del cosmos: espacio, tiempo y la
textura de la realidad, Critica, 2006.
- Hawking, Stephen, El Universo en una cascara de nuez,
Critica, 2002.
- Peacock, John A., Cosmological Physics, Cambridge University
Press, 1999.

CAPITULO 23

- Barrow, John D., Conciousness: An Introduction, Odre &


Stoughton, 2003.
- Da Vies, Paul, Los ultimos tres minutos: conjeturas acerca del
destino final del Universo, Debate, 2001.
- Rees, Martin, Seis numeros nada mas: las fuerzas profundas
que ordenan el Universo, Debate, 2001.

CAPITULO 24

- Al-Khalili, Tim, Quantum: A Guide for the Perplexed,


Weidenfeld & Nicolson, 2003.
- Deutsch, David, La estructura de la realidad, Anagrama, 1999.

750
- Le Poidevin, Robin, Travels in Four Dimensions, Oxford
University Press, 2004.

CAPITULO 25

- Barrow, John, y Tipler, Frank, The Anthropic Cosmological


Principle, Oxford University Press, 1988.
- Da Vies, Paul, El Universo accidental, Salvat Editores, 1986.
- Rees, Martin, Seis numeros nada mas: las fuerzas profundas
que ordenan el Universo, Debate, 2001.
- Smolin, Lee, The Life of the Cosmos, Oxford University Press,
1999.

751
Indice onomastico

(Numeros de pagina del libro impreso)


Aarsen, Karin: 178.
Agustin de Hipona, San: 26.
Airy, George: 301.
Alcubierre, Miguel: 209, 212.
Alpher, Ralph: 255.
Alvarez, Luis: 122, 126.
Ambrose, Stanley: 94.
Amelino-Camelia, Giovanni: 242, 243.
Aravind, Padmanabhan: 221.
Aristoteles: 248, 269.
Aspect, Alain: 213, 214, 216, 217, 220, 221.
Avery, Oswald: 64, 81.
Baars, Bernard: 22, 26, 305.
Bacon, Francis: 129, 135.
Barringer, Daniel: 121, 125.
Bayes, Thomas: 139-141, 143-148.
Beal, William James: 73, 81.

752
Bekenstein, Jacob: 66, 69, 300.
Bell, John: 216, 217, 220, 221, 305.
Bennet, Charles: 222.
Berger, Hans: 19,20, 25, 26.
Bernoulli, Nicolas: 171, 177.
Berrou, Claude: 68.
Bethe, Hans: 208, 212.
Biot, Jean: 120.
Blackmore, Susan: 113.
Bohr, Niels: 220, 271.
Bondi, Hermann: 250, 255.
Borel, Emile: 41, 47.
Boyle, Robert: 102, 286.
Brams, Steven: 45, 46, 48.
Burbidge, Geoffrey: 254.
Burks, Arthur: 162.
Burt, Cyril: 100, 103.
Carroll, Sean: 254.
Carson, Rachel: 76.
Carter, Brandon: 283, 287, 302.
Casimir, Hendrick: 260, 265, 266, 297.
Cavalli-Sforza, Luigi: 110, 113.
Chadwick, Edwin: 194, 199.
Chalmers, David: 295.
Chalmers, Ian: 186.
Chen, Jennifer: 254.
Chuang, Isaac: 273, 276.
Cochrane. Archie: 189, 190.
Cohen, Harold: 52, 60.

753
Colman, Andrew: 44, 46.
Conway, John Horton: 162-164, 167.
Crick, Francis: 113.
Cuvier, Georges: 119, 120,125.
Dart, Raymond: 89, 94.
Darwin, Charles: 85, 86, 88, 90, 92, 94, 97, 98, 105-109, 111,
113, 160, 278, 283.
Darwin, Leonard: 98.
Dawkins, Richard: 105, 106, 109-113.
Descartes, Rene: 18, 26, 294.
Deutsch, David: 217, 221, 272, 273,
275,276.
Dicke, Robert: 261, 281-283, 286.
Dingle, Herbert: 209, 210.
Dirac, Paul: 208, 212, 225, 232, 280283,286,287,298.
Ditto, William: 156,158.
Doll, Richard: 196, 199, 200.
Dubois, Eugene: 88, 90, 94.
Einstein, Albert: 65, 66, 203-217 , 220, 221, 224, 225, 235, 237-
241, 243, 247-250, 253-255, 258-261, 263-265, 269, 270, 275,
277, 279, 293, 296.
Ekert, Artur: 218, 219.
Embrechts, Paul: 173.
Erdos, Paul: 29, 36.
Essen, Louis: 209.
Everett, Hugh III: 271, 275.
Faraday, Michael: 236, 237,243.
Fastovsky, David: 123.
Feldman, Marc: 110, 113.

754
Fermi, Enrico: 209.
Fisher, Ronald. A.: 147, 148, 171, 177, 184,189.
FitzGerald, George Francis: 205, 211, 293.
Fredkin, Ed: 163.
Frieden, Roy: 66, 67, 69.
Friedmann, Alexander: 249, 250, 254.
Frisch, Uriel: 164, 167.
Gabor, Denis: 166.
Galilei, Galileo: 203, 211.
Galton, Fjfancis: 97, 98, 102, 103, 109, 296.
Gamow, George: 251, 255.
Gauss, Carl: 171, 175, 176, 293.
Gautama, Siddartha: 18, 25.
Gell-Mann, Murray: 226, 227, 231, 232.
Georgi, Howard: 232, 239.
Gilbert, Grove: 121.
Gini, Carrodo: 148.
Glashow, Sheldon: 232, 238.
Glass, Gene: 189.
Glavieux, Alain: 68.
Gleik, James: 158.
Gnedenko, Boris: 172.
Gold, Thomas: 250, 255.
Goldbach, Christian: 57.
Good, Jack: 142.
Gordon, Richard: 182.
Green, Michael: 240,243.
Guare, John: 31, 36.
Gumbel, Emil: 172, 177.

755
Guth, Alan: 155, 260, 261, 265, 284, 287.
Gyllensten, Ulf: 94.
Haan, Laurens de: 173, 175, 178.
Haldane, J. B. S.: 108.
Hall, James: 120.
Halley, Edmond: 119, 125.
Hamerhoff, Stuart: 23.
Hamilton, William: 108, 109, 113.
Hanna, Keith: 57.
Harlow, Harry: 99, 100, 103.
Harris, Judith Rich: 101, 104.
Hawking, Stephen: 67 , 69, 262 , 263, 265.
Heffernan, Janet: 176.
Heisenberg, Werner: 215, 260, 264, 265.
Henneberg, Maciej: 92.
Herman, Robert: 255.
Hess, Harry: 132,133, 135.
Higgs, Peter: 227, 228, 230, 232.
Hill, Austin Bradford: 185, 189, 196,
199, 200.
Holmes, Arthur: 131, 132, 135.
Hooft, Gerardus: 232.
Hopfield, John: 56, 60.
Howard, Nigel: 45, 48.
Hoyle, Fred: 250, 251, 253-255, 281, 283,286.
Hubble, Edwin: 249-251, 255, 265, 286, 293.
Hume, David: 205.
Hutton, James: 117, 120, 125,306.
James, William: 19, 26.

756
Jeffreys, Harold: 148.
Johannsen, Wilhelm: 113.
Kaluza, Theodor: 237, 238, 243, 306.
Karman, Mor: 166.
Kaufmann, Walter: 211.
Keller, Gerta: 123.
Kellogg, Winthrop: 99, 103.
Kirshner, Robert: 257, 258, 262.
Klein, Oskar: 237, 238, 306.
Kleinfeld, Judith: 31.
Kochen, Manfred: 30.
Kogut, Bruce: 34.
Kornhuber, Hans: 21.
Kusky, Timothy: 132.
Lamoreaux, Steve: 266.
Lampa, Anton: 210.
Lane-Claypon, Janet Elizabeth: 195, 196, 199.
Langton, Christopher: 164, 167.
Laplace, Pierre-Simon: 141, 147.
Laskar, Jaques: 158.
Laubenfels, M. W.: 126.
Laurer, George: 69.
Leakey, Louis: 90.
Leakey, Mary: 90.
Leakey, Richard: 90,
Leibovici, Leonard: 143.
Lemaitre, Georges: 249, 250, 255.
Lenat, Douglas: 57, 58, 60.
Libet, Benjamin: 20-22, 26.

757
Lind, James: 183, 184, 188, 189.
Linde, Andrei: 255, 274, 284, 287, 299.
Locke, John: 18, 26, 97, 102, 103.
Lorentz, Hendrik: 205, 211, 299.
Lorenz, Ed: 150-152, 156, 157.
Lucrecio: 268, 270, 275.
Lyell, Charles: 117, 120, 125.
Mach, Ernst: 205.
Marie, Mileva: 206.
Mathur, Samir: 67, 69.
Matthews, Drummond: 132, 135.
Maupertuis, Pierre: 68.
Maxwell, James Clerk: 205-207, 211, 235-239,243.
May, Robert: 157.
Mazur, Stanislaw: 159, 161, 166.
McCarthy, John: 59.
McCulloch, Warren: 53, 59.
Mendel, Gregor: 107,113.
Merriam, Tom: 59.
Michelson, Albert: 205 , 207 , 211, 293.
Milgram, Stanley: 30,31, 36, 37.
Minsky, Marvin: 53-56,59, 60.
Mochen, Manfred: 36.
Moivre, Abraham de: 176.
Morgenstern, Oscar: 42, 47.
Morley, Edward: 205, 207, 211, 293.
Narlikar, Jayant: 254.
Nash, John: 39, 42-44, 46-48, 295.
Newton, Isaac: 66, 118, 119, 160, 204, 216, 230, 248,257-259,

758
278.
Neyman, Jerzy: 148.
Nimmo, Andy: 275.
Nininger, Harvey: 121, 126.
Nuttall, George: 88, 91, 94.
Ormerod, Paul: 155.
Orrel, David: 153, 154.
Ortelius, Abraham: 128,135.
Packard, Norman: 164, 167.
Panum, Peter: 194, 199.
Papert, Seymour: 55,56, 60.
Pasteur, Louis: 194.
Pearson, Egon: 148.
Penrose, Roger: 23, 210, 211.
Penzias, Arno: 255.
Perlmutter, Saul: 263.
Pitts, Walter: 53, 59.
Planck, Max: 66, 243, 300, 305.
Pocock, Stuart: 144.
Podolsky, Boris: 215, 296.
Polzik, Eugene: 219, 222.
Pott, Percivall: 193,199.
Preskill, John: 69.
Press, William: 279.
Price, George: 109.
Ramsey, Frank: 147, 148.
Rapoport, Anatole: 28, 36.
Rees, Martin: 275, 284.
Renyi, Alfred: 29, 36.

759
Riess, Adam: 262.
Ritchie, Graeme: 57.
Robinson, Michael: 177.
Rosen, Nathan: 215, 296.
Rosenblatt, Frank: 54,55, 59.
Rubbia, Carlo: 223, 224, 232.
Rutherford, Ernest: 209.
Sackett, David: 189.
Salam, Abdus: 228, 232, 238.
Schell, Jeff, 81.
Scherk, Joel: 243.
Schrodinger, Erwin: 215, 221, 271, 275.
Schwarz, John: 240, 243.
Scotese, Christopher: 133.
Shannon, Claude: 61-64, 68, 292, 305.
Simon, Herbert: 54,57,59.
Sitter, Willem de: 249.
Skinner, B. F.: 99.
Slipher, Vesto: 249.
Smith, John Maynard: 44, 47.
Smolin, Lee: 284, 285, 287.
Snider-Pellegrini, Antonio: 129, 135.
Snow, John: 194, 195, 198, 199.
Soddy, Frederick: 209.
Sol, Daniel: 92.
Sola Pool, Ithiel de: 30,36.
Spector, Tim: 96.
Spencer, Herbert: 97, 103.
Spiegelhalter, David: 144.

760
Spinoza, Baruch: 18, 19.
Stanley, Eugene: 65, 69.
Stoneking, Mark: 94.
Strogatz, Steve: 27, 32-34, 37.
Szilard, Leo: 165.
Taylor, Frank: 129, 135, 271, 272.
Taylor, Geoffrey Ingram: 267, 268, 275.
Tawn, Jonathan: 176, 177.
Teller, Edward: 166, 282.
Terrell, James: 210, 211.
Thomson, Joseph: 268.
Thome, Kip: 69.
Tippett, L. H. C.: 171, 177.
Toffoli, Tommaso: 163, 167.
Tonry, John: 266.
Tukey, John: 68, 292.
Turing, Alan: 51-53, 57, 59, 142, 148, 303.
Ulam, Stanislaw: 159,161,162,166.
Van der Meer, Simon: 224.
Van Nieuwenhuizen, Peter: 243.
Vine, Fred: 132.
Von Karman, Theodore: 166.
Von Neumann, John: 39, 41, 42, 44-47, 159,161-163,165-
167,300.
Waldegrave, James: 40, 41, 47.
Walker, Evan: 206.
Walter, Gordon: 34.
Wallace, Alfred Russel: 278, 286.
Watson, James: 113,293.

761
Watson, John B.: 26, 99, 103.
Watts, Duncan: 27, 32-34, 37.
Wegener, Alfred: 127-132, 134, 135.
Weinberg, Steven: 228, 232, 238, 243, 262, 265.
Weizenbaum, Joseph: 57, 58.
Whipple, Arthur: 154.
Whiston, William: 119.
Wigner, Eugene: 166.
Williams, George C.: 109, 113.
Wilson, Allan: 91, 94.
Wilson, Edward O.: 101, 103,104.
Wilson, Robert: 255.
Wisdom, Jack: 156, 157.
Witten, Edward: 240, 241, 243.
Wolfram, Stephen: 159, 160, 164-167.
Wundt, Wilhelm: 19, 23, 26.
Wynne-Edwards, Vero: 107, 108, 113.
Yorke, James: 152, 157.
Yukawa, Hideki: 226, 227, 232.
Zanette, Damian: 35, 37.
Zeilinger, Anton: 218,219, 222.
Zel’dovich, Yakov: 263.
Zweig, George: 227,232

762
Índice
Introducción 9
NOSOTROS Y LOS OTROS 18
1 19
2 47
3 77
HACER LO IMPOSIBLE 103
4 104
5 129
6 153
VIDA 184
7 185
8 214
9 240

763
10 265
11 291
MATEMÁTICAS QUE CUENTAN 315
12 316
13 343
14 369
15 394
EN LA SALUD Y EN LA
420
ENFERMEDAD
16 421
17 448
LA FÍSICA DE LA REALIDAD 475
18 476
19 503
20 529

764
21 559
EL UNIVERSO Y NUESTRO
584
LUGAR EN ÉL
22 585
23 609
24 634
25 660
Y después, ¿qué? 690
Glosario 692
Referencias bibliográficas 742
Indice onomástico 752

765

También podría gustarte