Está en la página 1de 108

FÍSICA CUÁNTICA PARA PRINCIPIANTES:

Los conceptos más interesantes de la Física Cuántica hechos


simples y prácticos | Sin matemáticas difíciles
Capítulo 1
UNA AGRADABLE SORPRESA

ntes de la era cuántica, la ciencia vivía de pronunciamientos


A decisivos sobre las causas y efectos de los movimientos:
objetos bien definidos se movían a lo largo de trayectorias
precisas, en respuesta a la acción de varias fuerzas. Pero la ciencia
que ahora llamamos clásica, que surgió de las nieblas de una larga
historia y duró hasta finales del siglo XIX, pasó por alto el hecho
de que cada objeto estaba realmente compuesto por un número
gigantesco de átomos. En un grano de arena, por ejemplo, hay
varios miles de millones de ellos.

Antes de la era cuántica, cualquiera que observara un fenómeno era como un


extraterrestre del espacio, mirando a la Tierra desde arriba y sólo notando los
movimientos de grandes multitudes de miles y miles de personas. Tal vez los vieron
marchando en filas compactas, o aplaudiendo, o apurando el trabajo, o dispersándose
por las calles. Pero nada de lo que observaron podría prepararlos para lo que verían al
centrar su atención en los individuos. A nivel individual, los humanos mostraron un
comportamiento que no podía ser deducido del de las multitudes - cosas como la risa, el
afecto, la compasión y la creatividad. Los extraterrestres, tal vez las sondas robóticas o
los insectos evolucionados, pueden no haber tenido las palabras adecuadas para
describir lo que vieron cuando nos observaron de cerca. Por otro lado, incluso nosotros
hoy, con toda la literatura y la poesía acumulada a lo largo de milenios, a veces no
podemos comprender plenamente las experiencias individuales de otros seres
humanos.

A principios del siglo XX ocurrió algo similar. El complejo edificio de la física, con sus
predicciones exactas sobre el comportamiento de los objetos, es decir, las multitudes de
átomos, se derrumbó de repente. Gracias a nuevos y sofisticados experimentos,
realizados con gran habilidad, fue posible estudiar las propiedades no sólo de los
átomos individuales, sino también de las partículas más pequeñas de las que estaban
hechas. Era como pasar de escuchar un conjunto orquestal a cuartetos, tríos y solos. Y
los átomos parecían comportarse de manera desconcertante a los ojos de los más
grandes físicos de la época, que despertaban del sueño de la época clásica. Fueron
exploradores de un mundo sin precedentes, el equivalente a la vanguardia poética,
artística y musical de la época. Entre ellos se encontraban los más famosos: Heinrich
Hertz, Ernest Rutherford, J. J. Thomson, Niels Bohr, Marie Curie, Werner Heisenberg,
Erwin Schrödinger, Paul Dirac, Louis-Victor de Broglie, Albert Einstein, Max Born, Max
Planck y Wolfgang Pauli. La conmoción que sintieron después de hurgar en el interior
de los átomos fue igual a la que la tripulación de la Enterprise debió experimentar en su
primer encuentro con una civilización alienígena encontrada en la inmensidad del
cosmos. La confusión producida por el examen de los nuevos datos estimuló
gradualmente los primeros intentos desesperados de los físicos de restaurar cierto
orden y lógica en su ciencia. A finales de la década de 1920 se podía decir que la
estructura fundamental del átomo era ampliamente conocida, y se podía aplicar a la
química y la física de la materia ordinaria. La humanidad había comenzado a entender
realmente lo que estaba sucediendo en el nuevo y extraño mundo cuántico.

Pero mientras que la tripulación de la Enterprise siempre podía ser teletransportada


lejos de los mundos más hostiles, los físicos de principios del siglo XX no retrocedieron:
se dieron cuenta de que las extrañas leyes que estaban descubriendo eran
fundamentales y subyacentes al comportamiento de toda la materia del universo. Dado
que todo, incluidos los humanos, está hecho de átomos, es imposible escapar a las
consecuencias de lo que ocurre a nivel atómico. Descubrimos un mundo alienígena, y
ese mundo está dentro de nosotros!

Las impactantes consecuencias de sus descubrimientos molestaron a no pocos


científicos de la época. Un poco como las ideologías revolucionarias, la física cuántica
consumió a muchos de sus profetas. En este caso la ruina no vino de maquinaciones
políticas o conspiraciones de los adversarios, sino de desconcertantes y profundos
problemas filosóficos que tenían que ver con la idea de la realidad. Cuando, hacia
finales de la década de 1920, quedó claro para todos que se había producido una
verdadera revolución en la física, muchos de los que le habían dado el empujón inicial,
incluida una figura del calibre de Albert Einstein, se arrepintieron y dieron la espalda a
la teoría que habían contribuido significativamente a crear. Sin embargo, hoy, bien
entrado el siglo XXI, usamos la física cuántica y la aplicamos a mil situaciones. Gracias a
ustedes, por ejemplo, hemos inventado los transistores, los láseres, la energía atómica y
un sinfín de cosas más. Algunos físicos, incluso físicos destacados, continúan usando
toda su fuerza para encontrar una versión más suave de la mecánica cuántica para
nuestro sentido común, menos destructiva que la idea común de la realidad. Pero sería
bueno contar con la ciencia, no con algún paliativo.

Antes de la era cuántica, la física había logrado muy bien describir los fenómenos que
ocurren ante nuestros ojos, resolver problemas en un mundo de escaleras firmemente
apoyadas en las paredes, flechas y balas de cañón lanzadas según trayectorias precisas,
planetas que orbitan y giran sobre sí mismos, cometas que regresan al tiempo esperado,
máquinas de vapor que hacen su trabajo útil, telégrafos y motores eléctricos. En
resumen, a principios del siglo XX casi todos los fenómenos macroscópicos observables
y medibles habían encontrado una explicación coherente dentro de la llamada física
clásica. Pero el intento de aplicar las mismas leyes al extraño mundo microscópico de
los átomos resultó increíblemente difícil, con profundas implicaciones filosóficas. La
teoría que parecía surgir, la teoría cuántica, iba completamente en contra del sentido
común.

Nuestra intuición se basa en experiencias pasadas, por lo que podemos decir que
incluso la ciencia clásica, en este sentido, fue a veces contraintuitiva, al menos para la
gente de la época. Cuando Galileo descubrió las leyes del movimiento ideal en ausencia
de fricción, sus ideas se consideraron extremadamente atrevidas (en un mundo en el
que nadie o casi nadie había pensado en descuidar los efectos de la fricción)2. Pero la
física clásica que surgió de sus intuiciones logró redefinir el sentido común durante tres
siglos, hasta el siglo XX. Parecía ser una teoría sólida, resistente a los cambios radicales -
hasta que la física cuántica irrumpió en escena, llevando a un choque existencial como
nunca antes.

Para entender realmente el comportamiento de los átomos, para crear una teoría que
estuviera de acuerdo con los datos aparentemente contradictorios que salieron de los
laboratorios en los años 30, era necesario actuar de manera radical, con una nueva
audacia. Las ecuaciones, que hasta entonces calculaban con precisión la dinámica de los
acontecimientos, se convirtieron en instrumentos para obtener abanicos de
posibilidades, cada una de las cuales podía ocurrir con una probabilidad determinada.
Las leyes de Newton, con sus certezas (de ahí el término "determinismo clásico") fueron
sustituidas por las ecuaciones de Schrödinger y las desconcertantes construcciones
matemáticas de Heisenberg, que hablaban el lenguaje de la indeterminación y el matiz.

¿Cómo se manifiesta esta incertidumbre en la naturaleza, a nivel atómico? En varias


áreas, de las cuales podemos dar un primer y simple ejemplo aquí. La física atómica nos
dice que dada una cierta cantidad de material radiactivo, digamos uranio, la mitad se
transformará por un proceso llamado "decadencia" y desaparecerá antes de un período
fijo de tiempo, llamado "vida media" o "vida media". Después de otro intervalo de
tiempo igual a la vida media, los átomos restantes se reducirán de nuevo a la mitad (así,
después de un tiempo hasta dos vidas medias, la cantidad de uranio presente al
principio se reducirá a un cuarto del original; después de tres vidas medias, a un
octavo; y así sucesivamente). Gracias a la mecánica cuántica y a algunas ecuaciones
complicadas, somos capaces de calcular en principio el valor de la vida media del
uranio, y de muchas otras partículas fundamentales. Podemos poner a trabajar a
equipos de físicos teóricos y obtener muchos resultados interesantes. Sin embargo,
somos absolutamente incapaces de predecir cuando un átomo de uranio en particular se
descompondrá.

Este es un resultado asombroso. Si los átomos de uranio siguieran las leyes de la física
clásica newtoniana, habría algún mecanismo en funcionamiento que, siempre que
hagamos los cálculos con precisión, nos permitiría predecir exactamente cuándo
decaerá un determinado átomo. Las leyes cuánticas no ofrecen mecanismos
deterministas y nos proporcionan probabilidades y datos borrosos no por simple
desconocimiento del problema, sino por razones más profundas: según la teoría, la
probabilidad de que el decaimiento de ese átomo se produzca en un determinado
período es todo lo que podemos conocer.

Pasemos a otro ejemplo. Consideremos dos fotones idénticos (las partículas de las que
está hecha la luz) y disparémoslos en dirección a una ventana. Hay varias alternativas:
ambos rebotan en el vidrio, ambos lo cruzan, uno rebota y el otro lo cruza. Bueno, la
física cuántica no es capaz de predecir cómo se comportarán los fotones individuales,
cuyo futuro ni siquiera conocemos en principio. Sólo podemos calcular la probabilidad
con la que las diversas alternativas sucederán - por ejemplo, que el fotón sea rechazado
en un 10% y aumente al 90%, pero nada más. La física cuántica puede parecer vaga e
imprecisa en este punto, pero en realidad proporciona los procedimientos correctos (los
únicos procedimientos correctos, para ser precisos) que nos permiten comprender cómo
funciona la materia. También es la única manera de entender el mundo atómico, la
estructura y el comportamiento de las partículas, la formación de las moléculas, el
mecanismo de la radiación (la luz que vemos proviene de los átomos). Gracias a ella
pudimos, en un segundo tiempo, penetrar en el núcleo, entender cómo los quarks que
forman protones y neutrones se unen, cómo el Sol obtiene su gigantesca energía, y más.

Pero ¿cómo es posible que la física de Galileo y Newton, tan trágicamente inadecuada
para describir los movimientos atómicos, pueda predecir con unas pocas y elegantes
ecuaciones los movimientos de los cuerpos celestes, fenómenos como los eclipses o el
regreso del cometa Halley en 2061 (un jueves por la tarde) y las trayectorias de las naves
espaciales? Gracias a la física clásica podemos diseñar las alas de aviones, rascacielos y
puentes capaces de soportar fuertes vientos y terremotos, o robots capaces de realizar
cirugías de alta precisión. ¿Por qué todo funciona tan bien, si la mecánica cuántica nos
muestra tan claramente que el mundo no funciona en absoluto como pensábamos?

Esto es lo que sucede: cuando enormes cantidades de átomos se unen para formar
objetos macroscópicos, como en los ejemplos que acabamos de hacer (aviones, puentes
y robots), los inquietantes y contra-intuitivos fenómenos cuánticos, con su carga de
incertidumbre, parecen anularse entre sí y devuelven los fenómenos a los cimientos de
la precisa previsibilidad de la física newtoniana. La razón por la que esto sucede, en el
dinero, es de naturaleza estadística. Cuando leemos que el promedio de miembros de
las familias americanas es igual a 2.637 individuos nos enfrentamos a un dato preciso y
determinístico. Lástima, sin embargo, que ninguna familia tenga exactamente 2.637
miembros.

En el siglo XXI la mecánica cuántica se ha convertido en la columna vertebral de todas


las investigaciones en el mundo atómico y subatómico, así como de amplios sectores de
las ciencias de los materiales y la cosmología. Los frutos de la nueva física generan
miles de miles de millones de dólares cada año, gracias a la industria electrónica, y otros
tantos se derivan de las mejoras en la eficiencia y la productividad que son posibles
gracias al uso sistemático de las leyes cuánticas. Sin embargo, algunos físicos algo
rebeldes, impulsados por los vítores de cierto tipo de filósofos, siguen buscando un
significado más profundo, un principio oculto dentro de la mecánica cuántica en el que
se encuentra el determinismo. Pero es una minoría.

¿Por qué la física cuántica es perturbadora desde el punto de vista psicológico?

En un famoso pasaje de una carta a Max Born, Einstein escribió: "Usted cree que Dios
juega a los dados con el mundo, yo creo en cambio que todo obedece a una ley, en un
mundo de realidad objetiva que trato de captar por medios furiosamente especulativos
[...] Ni siquiera el gran éxito inicial de la teoría cuántica logra convencerme de que en la
base de todo hay azar, aunque sé que los colegas más jóvenes consideran esta actitud
como un efecto de la esclerosis. 3 Erwin Schrödinger pensaba de manera similar: "Si
hubiera sabido que mi ecuación de onda se usaría de esta manera, habría quemado el
artículo antes de publicarlo [...] No me gusta y me arrepiento de haber tenido algo que
ver con ello".4 ¿Qué perturbó a estas eminentes figuras, tanto que se vieron obligadas a
negar su hermosa creación? Entremos en un pequeño detalle sobre estas lamentaciones,
en la protesta de Einstein contra un Dios que "juega a los dados". El punto de inflexión
de la teoría cuántica moderna se remonta a 1925, precisamente a las solitarias
vacaciones que el joven físico alemán Werner Heisenberg pasó en Helgoland, una
pequeña isla del Mar del Norte donde se había retirado para encontrar alivio a la fiebre
del heno. Allí tuvo una idea revolucionaria.

La comunidad científica apoyó cada vez más la hipótesis de que los átomos estaban
compuestos por un núcleo central más denso rodeado por una nube de electrones,
similar a los planetas que orbitan el Sol. Heisenberg examinó el comportamiento de
estos electrones y se dio cuenta de que para sus cálculos no era necesario conocer sus
trayectorias precisas alrededor del núcleo. Las partículas parecían saltar
misteriosamente de una órbita a otra y en cada salto los átomos emitían luz de un cierto
color (los colores reflejan la frecuencia de las ondas de luz). Desde un punto de vista
matemático, Heisenberg había logrado encontrar una descripción sensata de estos
fenómenos, pero involucraba un modelo de átomo diferente al de un diminuto sistema
solar, con los planetas confinados en órbitas inmutables. Al final abandonó el cálculo de
la trayectoria de un electrón que se mueve de la posición observada A a B, porque se
dio cuenta de que cualquier medida de la partícula en ese tiempo interferiría
necesariamente con su comportamiento. Así que Heisenberg elaboró una teoría que
tomaba en cuenta los colores de la luz emitida, pero sin requerir el conocimiento de la
trayectoria precisa seguida por el electrón. Al final sólo importaba que un determinado
evento fuera posible y que sucediera con una cierta probabilidad. La incertidumbre se
convirtió en una característica intrínseca del sistema: nació la nueva realidad de la física
cuántica.

La revolucionaria solución de Heisenberg a los problemas planteados por una serie de


desconcertantes datos experimentales desató la imaginación de su mentor, Niels Bohr,
padre, abuelo y obstetra de la nueva teoría. Bohr llevó las ideas del joven colega al
extremo, tanto que el propio Heisenberg se vio inicialmente perturbado. Finalmente
cambió de opinión y se convirtió al nuevo verbo, lo que muchos de sus eminentes
colegas se negaron a hacer. Bohr había razonado de esta manera: si conocer el camino
que ha recorrido un determinado electrón no es relevante para el cálculo de los
fenómenos atómicos, entonces la idea misma de "órbita", de una trayectoria establecida
como la de un planeta alrededor de una estrella, debe ser abandonada por carecer de
sentido. Todo se reduce a la observación y a la medición: el acto de medir obliga al
sistema a elegir entre las distintas posibilidades. En otras palabras, no es la
incertidumbre de la medición lo que oculta la realidad; por el contrario, es la realidad
misma la que nunca proporciona certeza en el sentido clásico-galileo del término,
cuando se examinan los fenómenos a escala atómica.

En la física cuántica parece haber un vínculo mágico entre el estado físico de un sistema
y su percepción consciente por parte de un observador sensible. Pero es el mismo acto
de medir, es decir, la llegada de otro sistema a la escena, lo que restablece todas las
posibilidades menos una, haciendo que el estado cuántico "colapse", como se dice, en
una de las muchas alternativas. Veremos cuán inquietante puede ser esto más adelante,
cuando nos encontremos con electrones que pasan de uno en uno a través de dos
rendijas en una pantalla y que forman configuraciones que dependen del conocimiento
de la rendija precisa por la que pasaron, es decir, si alguien o algo ha hecho una
medición en el sistema. Parece que un solo electrón, como por arte de magia, pasa por
las dos rendijas al mismo tiempo si nadie lo está observando, mientras que elige un
posible camino si alguien o algo lo está observando! Esto es posible porque los
electrones no son ni partículas ni ondas: son algo más, completamente nuevo. Han sido
cuánticos.6

No es de extrañar que muchos de los pioneros de la nueva física, que habían


participado en la creación de la ciencia atómica, fueran reacios a aceptar estas extrañas
consecuencias. La mejor manera de dorar la píldora y hacer que las tesis de Heisenberg
y Bohr sean aceptadas es la llamada "interpretación de Copenhague". Según esta
versión de los hechos, cuando medimos un sistema a escala atómica introducimos en el
propio sistema una importante interferencia, dada por los instrumentos de medición.
Pero cualquiera que sea la interpretación que demos, la física cuántica no corresponde a
nuestras ideas intuitivas de la realidad. Debemos aprender a vivir con ella, a jugar con
ella, a verificar su bondad con experimentos, a imaginar problemas teóricos que
ejemplifiquen diversas situaciones, a hacerla cada vez más familiar. De esta manera
podríamos desarrollar una nueva "intuición cuántica", por muy contraria al sentido
común que pueda parecer en un principio.

En 1925, independientemente de las ideas de Heisenberg, otro físico teórico tenía otra
idea fundamental, también mientras estaba de vacaciones (aunque no solo). Fue el
vienés Erwin Schrödinger, quien había formado un vínculo de amistad y colaboración
científica con su colega Hermann Weyl. Este último fue un matemático de gran valor,
que desempeñó un papel decisivo en el desarrollo de la teoría de la relatividad y la
versión relativista de la teoría del electrón. Weyl ayudó a Schrödinger con los cálculos y
como compensación pudo dormir con su esposa Anny. No sabemos qué pensaba la
mujer sobre el asunto, pero experimentos sociales de este tipo no eran infrecuentes en el
crepúsculo de la sociedad intelectual vienesa. Este acuerdo también incluía la
posibilidad de que Schrödinger se embarcara en mil aventuras extramatrimoniales, una
de las cuales condujo (en cierto sentido) a un gran descubrimiento en el campo
cuántico7.

En diciembre de 1925, Schrödinger se fue de vacaciones durante veinte días a Arosa, un


pueblo de los Alpes suizos. Dejando a Anny en casa, fue acompañado por una vieja
llama vienesa. También puso un artículo científico de su colega francés Louis de Broglie
y tapones para los oídos en su maleta. Mientras se concentraba en su escritura, al abrigo
de ruidos molestos (y quién sabe qué hacía la señora mientras tanto), se le ocurrió la
idea de la llamada "mecánica de las olas". Era una forma nueva y diferente de
formalizar la naciente teoría cuántica en términos matemáticamente más sencillos,
gracias a ecuaciones que eran generalmente bien conocidas por los principales físicos de
la época. Esta revolucionaria idea fue un gran apoyo para la entonces frágil teoría
cuántica, que llegó a ser conocida por un número mucho mayor de personas . La nueva
ecuación, que en honor a su descubridor se llama "ecuación de Schrödinger", por un
lado, aceleró el camino de la mecánica cuántica, pero por otro, volvió loco a su inventor
por la forma en que fue interpretada. Es sorprendente leer el arrepentimiento de
Schrödinger, debido a la revolución científica y filosófica provocada por sus ideas.

La idea era esta: describir el electrón con las herramientas matemáticas utilizadas para
las ondas. Esta partícula, que antes se pensaba que estaba modelada como una bola
microscópica, a veces se comporta como una onda. La física de las ondas (fenómenos
que se encuentran en muchas áreas, desde el agua hasta el sonido, desde la luz hasta la
radio, etc.) era entonces bien conocida. Schrödinger estaba muy convencido de que una
partícula como el electrón era realmente una onda de un nuevo tipo, una "onda de
materia", por así decirlo. Parecía una hipótesis de bizcocho, pero la ecuación resultante
era útil en los cálculos y proporcionaba resultados concretos de manera relativamente
sencilla. La mecánica ondulatoria de Schrödinger dio consuelo a aquellos sectores de la
comunidad científica cuyos miembros tenían grandes dificultades para comprender la
aparentemente imparable teoría cuántica y que encontraban la versión de Heisenberg
demasiado abstracta para su gusto.

El punto central de la idea de Schrödinger es el tipo de solución de la ecuación que


describe la onda. Está escrito por convención con la letra griega mayúscula psi, Ψ - la
llamada "función de onda". Ψ es una función en las variables espacio y tiempo que
contiene toda la información sobre el electrón. La ecuación de Schrödinger, por lo tanto,
nos dice cómo varía la función de la onda a medida que cambia el espacio y el tiempo.

Aplicada al átomo de hidrógeno, la ecuación de Schrödinger permitió descubrir el


comportamiento del electrón alrededor del núcleo. Las ondas electrónicas determinadas
por Ψ se asemejaban a las ondas sonoras producidas por una campana o algún otro
instrumento musical. Es como tocar las cuerdas de un violín o una guitarra: el resultado
son vibraciones que corresponden de manera precisa y observable a varios niveles de
energía. La ecuación de Schrödinger proporcionó los valores correctos de estos niveles
correspondientes a las oscilaciones del electrón. Los datos en el caso del átomo de
hidrógeno ya habían sido determinados por Bohr en su primer intento de arreglo
teórico (que hoy en día se denomina con cierta suficiencia "vieja teoría cuántica"). El
átomo emite luz con niveles de energía bien definidos (las llamadas "líneas espectrales")
que gracias a la mecánica cuántica hoy sabemos que están conectadas a los saltos del
electrón, que pasa de un estado de movimiento asociado a la onda digamos Ψ2 al
asociado a la onda Ψ1.

La ecuación de Schrödinger demostró ser una herramienta poderosa, gracias a la cual


las funciones de onda pueden ser determinadas a través de métodos puramente
matemáticos. La misma idea podría aplicarse no sólo a los electrones, sino a cualquier
fenómeno que requiriera un tratamiento a nivel cuántico: sistemas compuestos por
varios electrones, átomos enteros, moléculas, cristales, metales conductores, protones y
neutrones en el núcleo. Hoy hemos extendido el método a todas las partículas
compuestas por quarks, los bloques de construcción fundamentales de la materia
nuclear.

Para Schrödinger, los electrones eran ondas puras y simples, similares a las ondas
marinas o de sonido, y su naturaleza de partículas podía ser pasada por alto como
ilusoria. Ψ representaba ondas de un nuevo tipo, las de la materia. Pero al final, esta
interpretación suya resultó ser errónea. ¿Qué era realmente Ψ? Después de todo, los
electrones siguieron comportándose como si fueran partículas puntuales, que se podían
ver cuando chocaban con una pantalla fluorescente, por ejemplo. ¿Cómo se reconcilió
este comportamiento con la naturaleza ondulatoria?

Otro físico alemán, Max Born (quien, por cierto, fue un antepasado de la cantante Olivia
Newton-John), propuso una nueva interpretación de la ecuación de Schrödinger, que
sigue siendo una piedra angular de la física actual. Según él, la onda asociada con el
electrón era la llamada "onda de probabilidad "10 . Para ser precisos, el cuadrado de
Ψ(x, t), es decir, Ψ2(x, t), era la probabilidad de encontrar el electrón en el punto x en el
tiempo t. Cuando el valor de Ψ2 es alto, hay una fuerte probabilidad de encontrar el
electrón. Donde Ψ2=0, por otro lado, no hay ninguna posibilidad. Fue una propuesta
impactante, similar a la de Heisenberg, pero tuvo el mérito de ser más fácil de entender,
porque fue formulada dentro del terreno más familiar de la ecuación de Schrödinger.
Casi todo el mundo estaba convencido y el asunto parecía cerrado.

La hipótesis de Born establece claramente que no sabemos y nunca podremos saber


dónde está el electrón. ¿Está ahí? Bueno, hay un 85% de probabilidades de que así sea.
¿Está en el otro lado? No podemos descartarlo, hay un 15% de posibilidades. La
interpretación de Born también define sin vacilación lo que puede o no puede
predecirse en los experimentos, y no excluye el caso de que dos pruebas aparentemente
idénticas den resultados muy diferentes. Parece que las partículas pueden permitirse el
lujo de estar donde están en un momento determinado sin tener que obedecer las
estrictas reglas de causalidad que suelen asociarse a la física clásica. La teoría cuántica
parece como si Dios estuviera jugando a los dados con el universo.

Schrödinger no estaba contento de haber sido protagonista de esa inquietante


revolución. Junto con Einstein, quien irónicamente escribió un artículo en 1911 que dio
a Born la inspiración para su idea, permaneció en el campo de los disidentes toda su
vida. Otro "transeúnte" fue el gran Max Planck, quien escribió: "La interpretación
probabilística propuesta por el grupo de Copenhague debe ser condenada sin falta, por
alta traición contra nuestro querido físico".

Planck era uno de los más grandes físicos teóricos activos a principios de siglo, y a él
tampoco le gustaba el pliegue que había tomado la teoría cuántica. Era la paradoja
suprema, ya que él había sido el verdadero progenitor de la nueva física, además de
haber acuñado el término "cuántico" ya a finales del siglo XIX.

Tal vez podamos entender al científico que habla de "traición" con respecto a la entrada
de la probabilidad en las leyes de la física en lugar de certezas sólidas de causa y efecto.
Imaginemos que tenemos una pelota de tenis normal y la hacemos rebotar contra un
muro de hormigón liso. No nos movemos del punto donde lo lanzamos y seguimos
golpeándolo con la misma fuerza y apuntando en la misma dirección. Bajo las mismas
condiciones de límite (como el viento), un buen jugador de tenis debe ser capaz de
llevar la pelota exactamente al mismo lugar, tiro tras tiro, hasta que se canse o la pelota
(o la pared) se rompa. Un campeón como André Agassi contaba con estas características
del mundo físico para desarrollar en el entrenamiento las habilidades que le
permitieron ganar Wimbledon. ¿Pero qué pasaría si el rebote no fuera predecible? ¿O si
en alguna ocasión la bola pudo incluso cruzar la pared? ¿Y si sólo se conoce la
probabilidad del fenómeno? Por ejemplo, cincuenta y cinco veces de cada cien la pelota
regresa, las otras cuarenta y cinco pasan a través de la pared. Y así sucesivamente, para
todo: también hay una probabilidad de que pase a través de la barrera formada por la
raqueta. Sabemos que esto nunca sucede en el mundo macroscópico y newtoniano de
los torneos de tenis. Pero a nivel atómico todo cambia. Un electrón disparado contra el
equivalente de una pared de partículas tiene una probabilidad diferente de cero de
atravesarla, gracias a una propiedad conocida como "efecto túnel". Imagine el tipo de
dificultad y frustración que un jugador de tenis encontraría en el mundo subatómico.

Sin embargo, hay casos en los que se observa un comportamiento no determinante en la


realidad cotidiana, especialmente en la de los fotones. Miras a través del escaparate de
una tienda llena de ropa interior sexy, y te das cuenta de que se ha formado una imagen
descolorida de ti mismo en los zapatos del maniquí. ¿Por qué? El fenómeno se debe a la
naturaleza de la luz, una corriente de partículas (fotones) con extrañas propiedades
cuánticas. Los fotones, que suponemos que vienen del Sol, en su mayoría rebotan en tu
cara, atraviesan el cristal y muestran una imagen clara de ti (pero no eres malo) a la
persona que está dentro de la tienda (tal vez el escaparatista que está vistiendo el
maniquí). Pero una pequeña parte de los fotones se refleja en el vidrio y proporciona a
los ojos el tenue retrato de su rostro perdido en la contemplación de esas ropas
microscópicas. ¿Pero cómo es posible, ya que todos los fotones son idénticos?
Incluso con los experimentos más sofisticados, no hay manera de predecir lo que pasará
con los fotones. Sólo conocemos la probabilidad del evento: aplicando la ecuación de
Schrödinger, podemos calcular que las partículas luminosas pasan a través de la
ventana 96 veces de cada 100 y rebotan las 4 veces restantes. ¿Somos capaces de saber lo
que hace el fotón único? No, de ninguna manera, ni siquiera con los mejores
instrumentos imaginables. Dios tira los dados cada vez para decidir por dónde pasar la
partícula, o al menos eso es lo que nos dice la física cuántica (tal vez prefiere la ruleta...
lo que sea, está claro que juega con probabilidades).

Para replicar la situación de la vitrina en un contexto experimental (y mucho más


costoso), disparamos electrones contra una barrera formada por una red de cables
conductores dentro de un contenedor al vacío, conectados al polo negativo de una
batería con un voltaje igual, por ejemplo, a 10 voltios. Un electrón con una energía
equivalente a un potencial de 9 voltios debe ser reflejado, porque no puede
contrarrestar la fuerza de repulsión de la barrera. Pero la ecuación de Schrödinger nos
dice que una parte de la onda asociada con el electrón todavía se las arregla para pasar
a través de ella, tal como lo hizo con los fotones con el vidrio. Pero en nuestra
experiencia no hay "fracciones" de fotón o electrón: estas partículas no están hechas de
plastilina y no se pueden desprender pedazos de ellas a voluntad. Así que el resultado
final siempre debe ser uno, es decir, la reflexión o el cruce. Si los cálculos nos dicen que
la primera eventualidad ocurre en el 20 por ciento de los casos, esto significa que todo el
electrón o fotón se refleja con una probabilidad del 20 por ciento. Lo sabemos gracias a
la ecuación de Schrödinger, que nos da el resultado en términos de Ψ2.

Fue precisamente con la ayuda de experimentos análogos que los físicos abandonaron
la interpretación original de Schrödinger, que preveía electrones de "plastilina", es decir,
ondas de materia, para llegar a la mucho menos intuitiva probabilística, según la cual
una cierta función matemática, Ψ2, proporcionaba la probabilidad de encontrar
partículas en una determinada posición en un instante dado. Si disparamos mil
electrones contra una pantalla y comprobamos con un contador Geiger cuántos de ellos
pasan por ella, podemos encontrar que 568 han pasado y 432 se han reflejado. ¿A cuál
de ellos le afectó esto? No hay forma de saberlo, ni ahora ni nunca. Esta es la frustrante
realidad de la física cuántica. Todo lo que podemos hacer es calcular la probabilidad del
evento, Ψ2.

Schrödinger tenía un gatito...

Al examinar las paradojas filosóficas que aporta la teoría cuántica no podemos pasar
por alto el ya famoso caso del gato de Schrödinger, en el que el divertido mundo
microscópico con sus leyes probabilísticas está ligado al macroscópico con sus precisos
pronunciamientos newtonianos. Al igual que Einstein, Podolsky y Rosen, Schrödinger
no quería aceptar el hecho de que la realidad objetiva no existía antes de la observación,
sino que se encontraba en una maraña de estados posibles. Su paradoja del gato fue
originalmente pensada como una forma de burlarse de una visión del mundo que era
insostenible para él, pero ha demostrado ser una de las pesadillas más tenaces de la
ciencia moderna hasta el día de hoy. Esto también, como el EPR, es un experimento
mental o conceptual, diseñado para hacer que los efectos cuánticos se manifiesten de
manera resonante incluso en el campo macroscópico. Y también hace uso de la
radiactividad, un fenómeno que implica el decaimiento de la materia según una tasa
predecible, pero sin saber exactamente cuándo se desintegrará la única partícula (es
decir, como hemos visto anteriormente, podemos decir cuántas partículas decaerán en
una hora, por ejemplo, pero no cuándo lo hará una de ellas).

Esta es la situación imaginada por Schrödinger. Encerramos un gato dentro de una caja
junto con un frasco que contiene un gas venenoso. Por otro lado, ponemos una pequeña
y bien sellada cantidad de material radioactivo para tener un 50% de posibilidades de
ver una sola descomposición en el espacio de una hora. Inventemos algún tipo de
dispositivo que conecte el contador Geiger que detecta la descomposición a un
interruptor, que a su vez activa un martillo, que a su vez golpea el vial, liberando así el
gas y matando al gato (por supuesto estos intelectuales vieneses de principios del siglo
XX eran muy extraños...).

Dejemos pasar una hora y preguntémonos: ¿el gato está vivo o muerto? Si describimos
el sistema con una función de onda, obtenemos un estado "mixto "15 como el que se ha
visto anteriormente, en el que el gato es "embadurnado" (pedimos disculpas a los
amantes de los gatos) a partes iguales entre la vida y la muerte. En los símbolos
podríamos escribir Ψgatto-vivo + Ψgatto-morto. A nivel macroscópico, sólo podemos
calcular la probabilidad de encontrar al gato vivo, igual a (Ψgatto-live)2, y la de
encontrarlo muerto, igual a (Ψgatto-dead)2.

Pero aquí está el dilema: ¿el colapso del estado cuántico inicial en el "gato vivo" o en el
"gato muerto" está determinado por el momento en que alguien (o algo) se asoma a la
caja? ¿No podría ser el propio gato, angustiado al mirar el contador Geiger, la entidad
capaz de tomar la medida? O, si queremos una crisis de identidad más profunda: la
desintegración radiactiva podría ser monitoreada por una computadora, que en
cualquier momento es capaz de imprimir el estado del gato en una hoja de papel dentro
de la caja. Cuando la computadora registra la llegada de la partícula, ¿el gato está
definitivamente vivo o muerto? ¿O es cuando la impresión del estado está terminada?
¿O cuando un observador humano lo lee? ¿O cuando el flujo de electrones producido
por la descomposición se encuentra con un sensor dentro del contador Geiger que lo
activa, es decir, cuando pasamos del mundo subatómico al macroscópico? La paradoja
del gato de Schrödinger, como la del EPR, parece a primera vista una fuerte refutación
de los principios fundamentales de la física cuántica. Está claro que el gato no puede
estar en un estado "mixto", mitad vivo y mitad muerto. ¿O puede?

Como veremos mejor más adelante, algunos experimentos han demostrado que el gato
visible de Schrödinger, que representa a todos los sistemas macroscópicos, puede estar
realmente en un estado mixto; en otras palabras, la teoría cuántica implica la existencia
de estas situaciones también a nivel macroscópico. Otra victoria para la nueva física.

Los efectos cuánticos, de hecho, pueden ocurrir a varias escalas, desde el más pequeño
de los átomos hasta el más grande de los sistemas. Un ejemplo de ello es la llamada
"superconductividad", por la que a muy bajas temperaturas ciertos materiales no tienen
resistencia eléctrica y permiten que la corriente circule infinitamente sin la ayuda de
baterías, y que los imanes permanezcan suspendidos sobre los circuitos para siempre.
Lo mismo ocurre con la "superfluidez", un estado de la materia en el que, por ejemplo,
un flujo de helio líquido puede subir por las paredes de un tubo de ensayo o alimentar
fuentes perpetuas, sin consumir energía. Y lo mismo ocurre con el misterioso fenómeno
gracias al cual todas las partículas adquieren masa, el llamado "mecanismo de Higgs".
No hay forma de escapar de la mecánica cuántica: al final, todos somos gatos
encerrados en alguna caja.

No hay matemáticas, lo prometo, pero sólo unos pocos números...

Con este libro queremos dar una idea de las herramientas que la física ha desarrollado
para intentar comprender el extraño mundo microscópico habitado por los átomos y las
moléculas. Pedimos a los lectores sólo dos pequeños esfuerzos: tener un sano sentido de
la curiosidad por el mundo y dominar las técnicas avanzadas de resolución de
ecuaciones diferenciales con derivadas parciales. Muy bien, bromeamos. Después de
años de dar cursos de física elemental a estudiantes de facultades no científicas,
sabemos lo extendido que está el terror a las matemáticas entre la población. No hay
fórmulas, entonces, o al menos el mínimo, unas pocas y dispersas aquí y allá.

La visión científica del mundo debería ser enseñada a todo el mundo. La mecánica
cuántica, en particular, es el cambio de perspectiva más radical que se ha producido en
el pensamiento humano desde que los antiguos griegos comenzaron a abandonar el
mito en favor de la búsqueda de principios racionales en el universo. Gracias a la nueva
teoría, nuestra comprensión del mundo se ha ampliado enormemente. El precio pagado
por la ciencia moderna por esta ampliación de los horizontes intelectuales ha sido la
aceptación de muchas ideas aparentemente contrarias a la intuición. Pero recuerden que
la culpa de esto recae principalmente en nuestro viejo lenguaje newtoniano, que es
incapaz de describir con precisión el mundo atómico. Como científicos, prometemos
hacer lo mejor posible.

Como estamos a punto de entrar en el reino de lo infinitamente pequeño, es mejor que


usemos la conveniente notación de los "poderes de diez". No se asuste por esta
taquigrafía científica que a veces usaremos en el libro: es sólo un método para registrar
sin esfuerzo números muy grandes o muy pequeños. Si ves escrito por ejemplo 104
("diez elevado a la cuarta potencia", o "diez a la cuarta"), todo lo que tienes que hacer es
traducirlo como "uno seguido de cuatro ceros": 104=10000. Por el contrario, 10-4 indica
"uno precedido de cuatro ceros", uno de los cuales debe estar obviamente antes de la
coma: 10-4=0,0001, es decir, 1/10000, una diezmilésima.

Usando este simple lenguaje, veamos cómo expresar las escalas en las que ocurren
varios fenómenos naturales, en orden descendente.

- 100 m=1 m, es decir un metro: es la típica escala humana, igual a la altura de un niño,
la longitud de un brazo o un escalón; - 10-2 m=1 cm, es decir un centímetro: es el ancho
de una pulgada, el largo de una abeja o una avellana.

- 10-4 m, un décimo de milímetro: es el grosor de un alfiler o de las patas de una


hormiga; hasta ahora siempre estamos en el dominio de aplicación de la física clásica
newtoniana.

- 10-6 m, una micra o millonésima de metro: estamos al nivel de las mayores moléculas
que se encuentran en las células de los organismos, como el ADN; también estamos en
la longitud de onda de la luz visible; aquí empezamos a sentir los efectos cuánticos.

- 10-9 m, un nanómetro o una milmillonésima parte de un metro: este es el diámetro de


un átomo de oro; el más pequeño de los átomos, el átomo de hidrógeno, tiene un
diámetro de 10-10 m.

- 10-15 m: estamos en las partes del núcleo atómico; los protones y los neutrones tienen
un diámetro de 10-16 m, y por debajo de esta longitud encontramos los quarks.

- 10-19 m: es la escala más pequeña que se puede observar con el acelerador de


partículas más potente del mundo, el LHC del CERN en Ginebra.

- 10-35 m: es la escala más pequeña que creemos que existe, bajo la cual la misma idea
de "distancia" pierde su significado debido a los efectos cuánticos.
Los datos experimentales nos dicen que la mecánica cuántica es válida y fundamental
para la comprensión de los fenómenos de 10-9 a 10-15 metros, es decir, de los átomos a
los núcleos (en palabras: de una milmillonésima a una millonésima de una
milmillonésima de metro). En algunas investigaciones recientes, gracias al Tevatrón del
Fermilab, hemos podido investigar distancias del orden de 10-18 metros y no hemos
visto nada que nos convenza del fracaso a esa escala de la mecánica cuántica. Pronto
penetraremos en territorios más pequeños por un factor de diez, gracias al colosal LHC,
el acelerador del CERN que está a punto de empezar a funcionar.* La exploración de
estos nuevos mundos no es similar a la geográfica, al descubrimiento de un nuevo
continente hasta ahora desconocido. Es más bien una investigación dentro de nuestro
mundo, porque el universo se compone de la colección de todos los habitantes del
dominio microscópico. De sus propiedades, y sus consecuencias, depende nuestro
futuro.

¿Por qué necesitamos una "teoría"?

Algunos de ustedes se preguntarán si una simple teoría vale la pena. Bueno, hay teorías
y teorías, y es culpa de nosotros los científicos que usamos la misma palabra para
indicar contextos muy diferentes. En sí misma, una "teoría" no está ni siquiera
científicamente bien definida.

Tomemos un ejemplo un tanto trivial. Una población que vive a orillas del Océano
Atlántico nota que el Sol sale en el horizonte todas las mañanas a las 5 a.m. y se pone en
dirección opuesta todas las tardes a las 7 p.m. Para explicar este fenómeno, un
venerable sabio propone una teoría: hay un número infinito de soles ocultos bajo el
horizonte, que aparecen cada 24 horas. Sin embargo, hay una hipótesis que requiere
menos recursos: todo lo que se necesita es un solo Sol girando alrededor de la Tierra,
supuestamente esférico, en 24 horas. Una tercera teoría, la más extraña y contraria a la
intuición, argumenta en cambio que el Sol se queda quieto y la Tierra gira sobre sí
misma en 24 horas. Así que tenemos tres ideas contradictorias. En este caso la palabra
"teoría" implica la presencia de una hipótesis que explica de manera racional y
sistemática por qué ocurre lo que observamos.

La primera teoría es fácilmente refutada, por muchas buenas razones (o simplemente


porque es idiota). Es más difícil deshacerse del segundo; por ejemplo, se podría
observar que los otros planetas del cielo giran sobre sí mismos, así que por analogía la
Tierra debería hacer lo mismo. Sea como fuere, al final, gracias a precisas mediciones
experimentales, comprobamos que es nuestro mundo el que gira. Así que sólo una
teoría sobrevive, que llamaremos rotación axial o RA.
Sin embargo, hay un problema: en toda la discusión anterior nunca hablamos de
"verdades" o "hechos", sólo de "teorías". Sabemos muy bien que la RA tiene siglos de
antigüedad, y sin embargo todavía la llamamos "teoría copernicana", aunque estamos
seguros de que es verdad, que es un hecho establecido. En realidad, queremos subrayar
el hecho de que la hipótesis de la AR es la mejor, en el sentido de que encaja mejor con
las observaciones y pruebas, que son muy diferentes e incluso realizadas en
circunstancias extremas. Hasta que tengamos una mejor explicación, nos quedaremos
con ésta. Sin embargo, seguimos llamándolo teoría. Tal vez porque hemos visto en el
pasado que las ideas dadas por sentadas en algunas áreas han requerido cambios en el
cambio a diferentes áreas.

Así que hoy en día hablamos de "teoría de la relatividad", "teoría cuántica", "teoría del
electromagnetismo", "teoría darwiniana de la evolución" y así sucesivamente, aunque
sabemos que todas ellas han alcanzado un mayor grado de credibilidad y aceptación
científica. Sus explicaciones de los diversos fenómenos son válidas y se consideran
"verdades objetivas" en sus respectivos ámbitos de aplicación. También hay teorías
propuestas pero no verificadas, como la de las cuerdas, que parecen excelentes intentos,
pero que podrían ser aceptadas como rechazadas. Y hay teorías que se abandonan
definitivamente, como la del flogisto (un misterioso fluido responsable de la
combustión) y la calórica (un fluido igualmente misterioso responsable de la
transmisión del calor). Sin embargo, hoy en día, la teoría cuántica es la mejor verificada
de todas las teorías científicas jamás propuestas. Aceptémoslo como un hecho: es un
hecho.

Basta con lo intuitivo, hurra por lo contrario.

A medida que nos acercamos a los nuevos territorios atómicos, todo lo que la intuición
sugiere se vuelve sospechoso y la información acumulada hasta ahora puede ya no
sernos útil. La vida cotidiana tiene lugar dentro de una gama muy limitada de
experiencias. No sabemos, por ejemplo, lo que se siente al viajar un millón de veces más
rápido que una bala, o al soportar temperaturas de miles de millones de grados;
tampoco hemos bailado nunca en la luna llena con un átomo o un núcleo. La ciencia, sin
embargo, ha compensado nuestra limitada experiencia directa con la naturaleza y nos
ha hecho conscientes de lo grande y lleno de cosas diferentes que es el mundo ahí fuera.
Para usar la metáfora querida por un colega nuestro, somos como embriones de gallina
que se alimentan de lo que encuentran en el huevo hasta que se acaba la comida, y
parece que nuestro mundo también debe acabar; pero entonces intentamos darle un
pico a la cáscara, salir y descubrir un universo inmensamente más grande e interesante.
Entre las diversas intuiciones típicas de un ser humano adulto está la de que los objetos
que nos rodean, ya sean sillas, lámparas o gatos, existen independientemente de
nosotros y tienen ciertas propiedades objetivas. También creemos, basándonos en lo
que estudiamos en la escuela, que si repetimos un experimento en varias ocasiones (por
ejemplo, si dejamos que dos coches diferentes circulen por una rampa) deberíamos
obtener siempre los mismos resultados. También es obvio, intuitivo, que una pelota de
tenis que pasa de una mitad de la cancha a otra tiene una posición y velocidad definidas
en todo momento. Basta con filmar el evento, es decir, obtener una colección de
instantáneas, conocer la situación en varios momentos y reconstruir la trayectoria
general del balón.

Estas intuiciones siguen ayudándonos en el mundo macroscópico, entre máquinas y


bolas, pero como ya hemos visto (y volveremos a ver en el curso del libro), si bajamos al
nivel atómico vemos que ocurren cosas extrañas, que nos obligan a abandonar los
preconceptos que nos son tan queridos: prepárense para dejar sus intuiciones en la
entrada, queridos lectores. La historia de la ciencia es una historia de revoluciones, pero
no tiran todo el conocimiento previo. El trabajo de Newton, por ejemplo, comprendió y
amplió (sin destruirlos) las investigaciones previas de Galileo, Kepler y Copérnico.
James Clerk Maxwell, inventor de la teoría del electromagnetismo en el siglo XIX17 ,
tomó los resultados de Newton y los usó para extender ciertos aspectos de la teoría a
otros campos. La relatividad einsteniana incorporó la física de Newton y amplió su
dominio hasta incluir casos en los que la velocidad es muy alta o el espacio muy
extendido, campos en los que las nuevas ecuaciones son válidas (mientras que las
antiguas siguen siendo válidas en los demás casos). La mecánica cuántica partió de
Newton y Maxwell para llegar a una teoría coherente de los fenómenos atómicos. En
todos estos casos, el paso a las nuevas teorías se hizo, al menos al principio, utilizando
el lenguaje de las antiguas; pero con la mecánica cuántica vemos el fracaso del lenguaje
clásico de la física anterior, así como de los lenguajes humanos naturales.

Einstein y sus colegas disidentes se enfrentaron a nuestra propia dificultad, es decir,


entender la nueva física atómica a través del vocabulario y la filosofía de los objetos
macroscópicos. Tenemos que aprender a entender que el mundo de Newton y Maxwell
se encuentra como consecuencia de la nueva teoría, que se expresa en el lenguaje
cuántico. Si fuéramos también tan grandes como los átomos, habríamos crecido
rodeados de fenómenos que nos serían familiares; y tal vez un día un alienígena tan
grande como un quark nos preguntaría, "¿Qué clase de mundo crees que obtenemos si
juntamos 1023 átomos y formamos un objeto que yo llamo una "bola"?

Tal vez sean los conceptos de probabilidad e indeterminación los que desafían nuestras
habilidades lingüísticas. Este no es un pequeño problema que permanece en nuestros
días y frustra incluso a las grandes mentes. Se dice que el famoso físico teórico Richard
Feynman se negó a responder a un periodista que, durante una entrevista, le pidió que
explicara al público qué fuerza actuaba entre dos imanes, alegando que era una tarea
imposible. Más tarde, cuando se le pidió una aclaración, dijo que era debido a
preconceptos intuitivos. El periodista y una gran parte de la audiencia entienden la
"fuerza" como lo que sentimos si recompensamos la palma de tu mano contra la mesa.
Este es su mundo, y su lenguaje. Pero en realidad el acto de poner la mano contra la
mesa implica fuerzas electromagnéticas, la cohesión de la materia, la mecánica cuántica,
es muy complicado. No fue posible explicar la fuerza magnética pura en términos
familiares a los habitantes del "viejo mundo".

Como veremos, para entender la teoría cuántica debemos entrar en un nuevo mundo.
Es ciertamente el fruto más importante de las exploraciones científicas del siglo XX, y
será esencial a lo largo del nuevo siglo. No está bien dejar que sólo los profesionales lo
disfruten.

Incluso hoy, a principios de la segunda década del siglo XXI, algunos científicos ilustres
siguen buscando con gran esfuerzo una versión más "amistosa" de la mecánica cuántica
que perturbe menos nuestro sentido común. Pero estos esfuerzos hasta ahora parecen
no llevar a ninguna parte. Otros científicos simplemente aprenden las reglas del mundo
cuántico y hacen progresos, incluso importantes, por ejemplo adaptándolas a nuevos
principios de simetría, utilizándolas para formular hipótesis sobre un mundo en el que
las cuerdas y las membranas sustituyen a las partículas elementales, o imaginando lo
que ocurre a escalas miles de millones de veces más pequeñas que las que hemos
alcanzado hasta ahora con nuestros instrumentos. Esta última línea de investigación
parece la más prometedora y podría darnos una idea de lo que podría unificar las
diversas fuerzas y la propia estructura del espacio y el tiempo.

Nuestro objetivo es hacerles apreciar la inquietante rareza de la teoría cuántica, pero


sobre todo las profundas consecuencias que tiene en nuestra comprensión del mundo.
Por nuestra parte, creemos que el malestar se debe principalmente a nuestros prejuicios.
La naturaleza habla en un idioma diferente, que debemos aprender, así como sería
bueno leer a Camus en el francés original y no en una traducción llena de argot
americano. Si unos pocos pasos nos hacen pasar un mal rato, tomemos unas buenas
vacaciones en Provenza y respiremos el aire de Francia, en lugar de quedarnos en
nuestra casa de los suburbios y tratar de adaptar el lenguaje que usamos cada día a ese
mundo tan diferente. En los próximos capítulos intentaremos transportarle a un lugar
que es parte de nuestro universo y que al mismo tiempo va más allá de la imaginación,
y en los próximos capítulos también le enseñaremos el lenguaje para entender el nuevo
mundo.
Capítulo 2
El comienzo Un factor de complicación

A esntes de intentar comprender el vertiginoso universo cuántico,


necesario familiarizarse con algunos aspectos de las teorías
científicas que lo precedieron, es decir, con la llamada física
clásica. Este conjunto de conocimientos es la culminación de
siglos de investigación, iniciados incluso antes de la época de
Galileo y completados por genios como Isaac Newton, Michael
Faraday, James Clerk Maxwell, Heinrich Hertz y muchos otros2.
La física clásica, que reinó sin cuestionamientos hasta principios
del siglo XX, se basa en la idea de un universo de relojería:
ordenado, predecible, gobernado por leyes causales.

Para tener un ejemplo de una idea contraria a la intuición, tomemos nuestra Tierra, que
desde nuestro típico punto de vista parece sólida, inmutable, eterna. Somos capaces de
equilibrar una bandeja llena de tazas de café sin derramar una sola gota, y sin embargo
nuestro planeta gira rápido sobre sí mismo. Todos los objetos de su superficie, lejos de
estar en reposo, giran con él como los pasajeros de un colosal carrusel. En el Ecuador, la
Tierra se mueve más rápido que un jet, a más de 1600 kilómetros por hora; además,
corre desenfrenadamente alrededor del Sol a una increíble velocidad media de 108.000
kilómetros por hora. Y para colmo, todo el sistema solar, incluyendo la Tierra, viaja
alrededor de la galaxia a velocidades aún mayores. Sin embargo, no lo notamos, no
sentimos que estamos corriendo. Vemos el Sol saliendo por el este y poniéndose por el
oeste, y nada más. ¿Cómo es posible? Escribir una carta mientras se monta a caballo o se
conduce un coche a cien millas por hora en la autopista es una tarea muy difícil, pero
todos hemos visto imágenes de astronautas haciendo trabajos de precisión dentro de
una estación orbital, lanzada alrededor de nuestro planeta a casi 30.000 millas por hora.
Si no fuera por el globo azul que cambia de forma en el fondo, esos hombres que flotan
en el espacio parecen estar quietos.

La intuición generalmente no se da cuenta si lo que nos rodea se mueve a la misma


velocidad que nosotros, y si el movimiento es uniforme y no acelerado no sentimos
ninguna sensación de desplazamiento. Los griegos creían que había un estado de
reposo absoluto, relativo a la superficie de la Tierra. Galileo cuestionó esta venerable
idea aristotélica y la reemplazó por otra más científica: para la física no hay diferencia
entre quedarse quieto y moverse con dirección y velocidad constantes (incluso
aproximadas). Desde su punto de vista, los astronautas están quietos; vistos desde la
Tierra, nos están rodeando a una loca velocidad de 28.800 kilómetros por hora.

El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos de diferente peso
caen a la misma velocidad y llegan al suelo al mismo tiempo. Para casi todos sus
contemporáneos, sin embargo, estaba lejos de ser obvio, porque la experiencia diaria
parecía decir lo contrario. Pero el científico hizo los experimentos correctos para probar
su tesis, y también encontró una justificación racional: era la resistencia del aire que
barajaba las cartas. Para Galileo esto era sólo un factor de complicación, que ocultaba la
profunda simplicidad de las leyes naturales. Sin aire entre los pies, todos los cuerpos
caen con la misma velocidad, desde la pluma hasta la roca colosal.

Se descubrió entonces que la atracción gravitatoria de la Tierra, que es una fuerza,


depende de la masa del objeto que cae, donde la masa es una medida de la cantidad de
materia contenida en el propio objeto.

El peso, por otro lado, es la fuerza ejercida por la gravedad sobre los cuerpos dotados
de masa (recordarán que el profesor de física en el instituto repetía: "Si transportas un
objeto a la Luna, su masa permanece igual, mientras que el peso se reduce". Hoy en día
todo esto está claro para nosotros gracias al trabajo de hombres como Galileo). La fuerza
de gravedad es directamente proporcional a la masa: dobla la masa y también dobla la
fuerza. Al mismo tiempo, sin embargo, a medida que la masa crece, también lo hace la
resistencia a cambiar el estado de movimiento. Estos dos efectos iguales y opuestos se
anulan mutuamente y así sucede que todos los cuerpos caen al suelo a la misma
velocidad - como de costumbre descuidando ese factor de fricción que se complica.

Para los filósofos de la antigua Grecia el estado de descanso parecía obviamente el más
natural para los cuerpos, a los que todos tienden. Si pateamos una pelota, tarde o
temprano se detiene; si nos quedamos sin combustible en un auto, también se detiene;
lo mismo sucede con un disco que se desliza sobre una mesa. Todo esto es
perfectamente sensato y también perfectamente aristotélico (esto del aristotelismo debe
ser nuestro instinto innato).

Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho, de que si se abisagraba
la superficie de la mesa y se alisaba el disco, continuaría funcionando durante mucho
más tiempo; podemos verificarlo, por ejemplo, deslizando un disco de hockey sobre un
lago helado. Eliminemos toda la fricción y otros factores complicados, y veamos que el
disco sigue deslizándose interminablemente a lo largo de una trayectoria recta a una
velocidad uniforme. Esto es lo que causa el final del movimiento, dijo Galileo: la fricción
entre el disco y la mesa (o entre el coche y la carretera), es un factor que complica.

Normalmente en los laboratorios de física hay una larga pista metálica con numerosos
pequeños agujeros por los que pasa el aire. De esta manera, un carro colocado en el riel,
el equivalente a nuestro disco, puede moverse flotando en un cojinete de aire. En los
extremos de la barandilla hay parachoques de goma. Todo lo que se necesita es un
pequeño empujón inicial y el carro comienza a rebotar sin parar entre los dos extremos,
de ida y vuelta, a veces durante toda la hora. Parece animado con su propia vida, ¿cómo
es posible? El espectáculo es divertido porque va en contra del sentido común, pero en
realidad es una manifestación de un principio profundo de la física, que se manifiesta
cuando eliminamos la complicación de la fricción. Gracias a experimentos menos
tecnológicos pero igualmente esclarecedores, Galileo descubrió una nueva ley de la
naturaleza, que dice: "Un cuerpo aislado en movimiento mantiene su estado de
movimiento para siempre. Por "aislado" nos referimos a que la fricción, las diversas
fuerzas, o lo que sea, no actúan sobre él. Sólo la aplicación de una fuerza puede cambiar
un estado de movimiento.

Es contraintuitivo, ¿no? Sí, porque es muy difícil imaginar un cuerpo verdaderamente


aislado, una criatura mitológica que no se encuentra en casa, en el parque o en cualquier
otro lugar de la Tierra. Sólo podemos acercarnos a esta situación ideal en un laboratorio,
con equipos diseñados según las necesidades. Pero después de presenciar alguna otra
versión del experimento de la pista de aire, los estudiantes de física de primer año
suelen dar por sentado el principio.

El método científico implica una cuidadosa observación del mundo. Una de las piedras
angulares de su éxito en los últimos cuatro siglos es su capacidad para crear modelos
abstractos, para referirse a un universo ideal en nuestras mentes, desprovisto de las
complicaciones del real, donde podemos buscar las leyes de la naturaleza. Después de
haber logrado un resultado en este mundo, podemos ir al ataque del otro, el más
complicado, después de haber cuantificado los factores de complicación como la
fricción.

Pasemos a otro ejemplo importante. El sistema solar es realmente intrincado. Hay una
gran estrella en el centro, el Sol, y hay nueve (o más bien ocho, después de la
degradación de Plutón) cuerpos más pequeños de varias masas que giran a su
alrededor; los planetas a su vez pueden tener satélites. Todos estos cuerpos se atraen
entre sí y se mueven según una compleja coreografía. Para simplificar la situación,
Newton redujo todo a un modelo ideal: una estrella y un solo planeta. ¿Cómo se
comportarían estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un sistema complejo
(ocho planetas y el Sol) y consideremos un subconjunto más manejable del mismo (un
planeta y el Sol). Ahora quizás el problema pueda ser abordado (en este caso sí).
Resuélvelo y trata de entender qué características de la solución se conservan en el
retorno al sistema complejo de partida (en este caso vemos que cada planeta se
comporta prácticamente como si estuviera solo, con mínimas correcciones debido a la
atracción entre los propios planetas).

El reduccionismo no siempre es aplicable y no siempre funciona. Por eso todavía no


tenemos una descripción precisa de objetos como los tornados o el flujo turbulento de
un fluido, sin mencionar los complejos fenómenos a nivel de moléculas y organismos
vivos. El método resulta útil cuando el modelo ideal no se desvía demasiado de su
versión fea y caótica, en la que vivimos. En el caso del sistema solar, la masa de la
estrella es tan grande que es posible pasar por alto la atracción de Marte, Venus, Júpiter
y la compañía cuando estudiamos los movimientos de la Tierra: el sistema estrella +
planeta proporciona una descripción aceptable de los movimientos de la Tierra. Y a
medida que nos familiarizamos con este método, podemos volver al mundo real y hacer
un esfuerzo extra para tratar de tener en cuenta el siguiente factor de complicación en
orden de importancia.

La parábola y el péndulo La física clásica, o física precuántica, se basa en dos piedras


angulares. La primera es la mecánica galileo-newtoniana, inventada en el siglo XVII. La
segunda está dada por las leyes de la electricidad, el magnetismo y la óptica,
descubiertas en el siglo XIX por un grupo de científicos cuyos nombres, quién sabe por
qué, todos recuerdan algunas unidades de cantidad física: Coulomb, Ørsted, Ohm,
Ampère, Faraday y Maxwell. Comencemos con la obra maestra de Newton, la
continuación de la obra de nuestro héroe Galileo.

Los cuerpos salieron en caída libre, con una velocidad que aumenta a medida que pasa
el tiempo según un valor fijo (la tasa de variación de la velocidad se llama aceleración).
Una bala, una pelota de tenis, una bala de cañón, todas describen en su movimiento un
arco de suprema elegancia matemática, trazando una curva llamada parábola. Un
péndulo, es decir, un cuerpo atado a un cable colgante (como un columpio hecho por un
neumático atado a una rama, o un viejo reloj), oscila con una regularidad notable, de
modo que (precisamente) se puede ajustar el reloj. El Sol y la Luna atraen las aguas de
los mares terrestres y crean mareas. Estos y otros fenómenos pueden ser explicados
racionalmente por las leyes de movimiento de Newton.

Su explosión creativa, que tiene pocos iguales en la historia del pensamiento humano, lo
llevó en poco tiempo a dos grandes descubrimientos. Para describirlos con precisión y
comparar sus predicciones con los datos, utilizó un lenguaje matemático particular
llamado cálculo infinitesimal, que tuvo que inventar en su mayor parte desde cero. El
primer descubrimiento, normalmente denominado "las tres leyes del movimiento", se
utiliza para calcular los movimientos de los cuerpos una vez conocidas las fuerzas que
actúan sobre ellos (Newton podría haber presumido así: "Dame las fuerzas y un
ordenador lo suficientemente potente y te diré lo que ocurrirá en el futuro". Pero parece
que nunca lo dijo).

Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil maneras: a través de
cuerdas, palos, músculos humanos, viento, presión del agua, imanes y así
sucesivamente. Una fuerza natural particular, la gravedad, fue el centro del segundo
gran descubrimiento de Newton. Describiendo el fenómeno con una ecuación de
asombrosa sencillez, estableció que todos los objetos dotados de masa se atraen entre sí
y que el valor de la fuerza de atracción disminuye a medida que aumenta la distancia
entre los objetos, de esta manera: si la distancia se duplica, la fuerza se reduce en una
cuarta parte; si se triplica, en una novena parte; y así sucesivamente. Es la famosa "ley
de la inversa del cuadrado", gracias a la cual sabemos que podemos hacer que el valor
de la fuerza de gravedad sea pequeño a voluntad, simplemente alejándonos lo
suficiente. Por ejemplo, la atracción ejercida sobre un ser humano por Alfa Centauri,
una de las estrellas más cercanas (a sólo cuatro años luz), es igual a una diez milésima
de una milmillonésima, o 10-13, de la ejercida por la Tierra. Por el contrario, si nos
acercáramos a un objeto de gran masa, como una estrella de neutrones, la fuerza de
gravedad resultante nos aplastaría hasta el tamaño de un núcleo atómico. Las leyes de
Newton describen la acción de la gravedad sobre todo: manzanas que caen de los
árboles, balas, péndulos y otros objetos situados en la superficie de la Tierra, donde casi
todos pasamos nuestra existencia. Pero también se aplican a la inmensidad del espacio,
por ejemplo entre la Tierra y el Sol, que están en promedio a 150 millones de kilómetros
de distancia.

¿Estamos seguros, sin embargo, de que estas leyes todavía se aplican fuera de nuestro
planeta? Una teoría es válida si proporciona valores de acuerdo con los datos
experimentales (teniendo en cuenta los inevitables errores de medición). Piensa: la
evidencia muestra que las leyes de Newton funcionan bien en el sistema solar. Con muy
buena aproximación, los planetas individuales pueden ser estudiados gracias a la
simplificación vista anteriormente, es decir, descuidando los efectos de los demás y sólo
teniendo en cuenta el Sol. La teoría newtoniana predice que los planetas giran alrededor
de nuestra estrella siguiendo órbitas perfectamente elípticas. Pero si examinamos bien
los datos, nos damos cuenta de que hay pequeñas discrepancias en el caso de Marte,
cuya órbita no es exactamente la predicha por la aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente pequeños) efectos
en el planeta rojo de cuerpos como la Tierra, Venus, Júpiter y así sucesivamente. Este
último, en particular, es muy grande y le da a Marte un buen golpe cada vez que se
acerca a sus órbitas. A largo plazo, estos efectos se suman. No es imposible que dentro
de unos pocos miles de millones de años Marte sea expulsado del sistema solar como
un concursante de un reality show. Así que vemos que el problema de los movimientos
planetarios se vuelve más complejo si consideramos los largos intervalos de tiempo.
Pero gracias a los ordenadores modernos podemos hacer frente a estas pequeñas (y no
tan pequeñas) perturbaciones - incluyendo las debidas a la teoría de la relatividad
general de Einstein, que es la versión moderna de la gravitación newtoniana. Con las
correcciones correctas, vemos que la teoría siempre está en perfecto acuerdo con los
datos experimentales. Sin embargo, ¿qué podemos decir cuando entran en juego
distancias aún mayores, como las que hay entre las estrellas? Las mediciones
astronómicas más modernas nos dicen que la fuerza de gravedad está presente en todo
el cosmos y, por lo que sabemos, se aplica en todas partes.

Tomemos un momento para contemplar una lista de fenómenos que tienen lugar según
la ley de Newton. Las manzanas caen de los árboles, en realidad se dirigen hacia el
centro de la Tierra. Las balas de artillería siembran la destrucción después de los arcos
de parábola. La Luna se asoma a sólo 384.000 kilómetros de nosotros y causa mareas y
languidez romántica. Los planetas giran alrededor del Sol en órbitas ligeramente
elípticas, casi circulares. Los cometas, por otro lado, siguen trayectorias muy elípticas y
tardan cientos o miles de años en dar un giro y volver a mostrarse. Desde el más
pequeño al más grande, los ingredientes del universo se comportan de manera
perfectamente predecible, siguiendo las leyes descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz

ntes de dejar atrás la física clásica, tenemos que pasar unos


A minutos hablando sobre la luz y jugando con ella, porque será
la protagonista de muchas cuestiones importantes (y al
principio desconcertantes) cuando empecemos a entrar en el
mundo cuántico. Así que ahora haremos una mirada histórica a la
teoría de la luz en el mundo clásico.1

La luz es una forma de energía. Puede producirse de diversas maneras, ya sea


transformando la energía eléctrica (como se ve, por ejemplo, en una bombilla, o en el
enrojecimiento de las resistencias de las tostadoras) o la energía química (como en las
velas y los procesos de combustión en general). La luz solar, consecuencia de las altas
temperaturas presentes en la superficie de nuestra estrella, proviene de procesos de
fusión nuclear que tienen lugar en su interior. E incluso las partículas radiactivas
producidas por un reactor nuclear aquí en la Tierra emiten una luz azul cuando entran
en el agua (que se ionizan, es decir, arrancan electrones de los átomos).

Todo lo que se necesita es una pequeña cantidad de energía inyectada en cualquier


sustancia para calentarla. A pequeña escala, esto puede sentirse como un aumento
moderado de la temperatura (como saben los que disfrutan del bricolaje los fines de
semana, los clavos se calientan después de una serie de martillazos, o si se arrancan de
la madera con unas pinzas). Si suministramos suficiente energía a un trozo de hierro,
éste comienza a emitir radiación luminosa; inicialmente es de color rojizo, luego a
medida que aumenta la temperatura vemos aparecer en orden los tonos naranja,
amarillo, verde y azul. Al final, si el calor es lo suficientemente alto, la luz emitida se
convierte en blanca, el resultado de la suma de todos los colores.

La mayoría de los cuerpos que nos rodean, sin embargo, son visibles no porque emitan
luz, sino porque la reflejan. Excluyendo el caso de los espejos, la reflexión es siempre
imperfecta, no total: un objeto rojo se nos aparece como tal porque refleja sólo este
componente de la luz y absorbe naranja, verde, violeta y así sucesivamente. Los
pigmentos de pintura son sustancias químicas que tienen la propiedad de reflejar con
precisión ciertos colores, con un mecanismo selectivo. Los objetos blancos, en cambio,
reflejan todos los componentes de la luz, mientras que los negros los absorben todos:
por eso el asfalto oscuro de un aparcamiento se calienta en los días de verano, y por eso
en los trópicos es mejor vestirse con ropas de colores claros. Estos fenómenos de
absorción, reflexión y calentamiento, en relación con los diversos colores, tienen
propiedades que pueden ser medidas y cuantificadas por diversos instrumentos
científicos.

La luz está llena de rarezas. Aquí estás, te vemos porque los rayos de luz reflejados por
tu cuerpo llegan a nuestros ojos. ¡Qué interesante! Nuestro amigo mutuo Edward está
observando el piano en su lugar: los rayos de la interacción entre tú y nosotros
(normalmente invisibles, excepto cuando estamos en una habitación polvorienta o llena
de humo) se cruzan con los de la interacción entre Edwar y el piano sin ninguna
interferencia aparente. Pero si concentramos en un objeto los rayos producidos por dos
linternas, nos damos cuenta de que la intensidad de la iluminación se duplica, por lo
que hay una interacción entre los rayos de luz.

Examinemos ahora la pecera. Apagamos la luz de la habitación y encendemos una


linterna. Ayudándonos con el polvo suspendido en el aire, tal vez producido por el
golpeteo de dos borradores de pizarrón o un trapo de polvo, vemos que los rayos de luz
se doblan cuando golpean el agua (y también que el pobre pececillo nos observa
perplejo, esperando con esperanza el alimento). Este fenómeno por el cual las sustancias
transparentes como el vidrio desvían la luz se denomina refracción. Cuando los Boy
Scouts encienden un fuego concentrando los rayos del sol en un trozo de madera seca a
través de una lente, aprovechan esta propiedad: la lente curva todos los rayos de luz
haciendo que se concentren en un punto llamado "fuego", y esto aumenta la cantidad de
energía hasta el punto en que desencadena la combustión.

Un prisma de vidrio es capaz de descomponer la luz en sus componentes, el llamado


"espectro". Estos corresponden a los colores del arco iris: rojo, naranja, amarillo, verde,
azul, índigo y violeta (para memorizar la orden recuerde las iniciales RAGVAIV).
Nuestros ojos reaccionan a este tipo de luz, llamada "visible", pero sabemos que
también hay tipos invisibles. En un lado del espectro se encuentra el llamado rango de
onda larga "infrarrojo" (de este tipo, por ejemplo, es la radiación producida por ciertos
calentadores, por resistencias tostadoras o por las brasas de un fuego moribundo); en el
otro lado están los rayos "ultravioleta", de onda corta (un ejemplo de esto es la radiación
emitida por una máquina de soldadura de arco, y por eso quienes la usan deben usar
gafas protectoras). La luz blanca, por lo tanto, es una mezcla de varios colores en partes
iguales. Con instrumentos especiales podemos cuantificar las características de cada
banda de color, más adecuadamente su longitud de onda, y reportar los resultados en
un gráfico. Al someter cualquier fuente de luz a esta medición, encontramos que el
gráfico asume una forma de campana (véase la fig. 4.1), cuyo pico se encuentra a una
cierta longitud de onda (es decir, de color). A bajas temperaturas, el pico corresponde a
las ondas largas, es decir, a la luz roja. A medida que el calor aumenta, el máximo de la
curva se desplaza hacia la derecha, donde se encuentran las ondas cortas, es decir, la luz
violeta, pero hasta ciertos valores de temperatura la cantidad de otros colores es
suficiente para asegurar que la luz emitida permanezca blanca. Después de estos
umbrales, los objetos emiten un brillo azul. Si miramos el cielo en una noche clara,
notaremos que las estrellas brillan con colores ligeramente diferentes: las que tienden a
ser rojizas son más frías que las blancas, que a su vez son más frías que las azules. Estos
tonos corresponden a diferentes etapas de la evolución en la vida de las estrellas a
medida que consumen su combustible nuclear. Este simple documento de identidad de
la luz fue el punto de partida de la teoría cuántica, como veremos con más detalle en un
momento.

¿A qué velocidad viaja la luz?

El hecho de que la luz sea una entidad que "viaja" por el espacio, por ejemplo de una
bombilla a nuestra retina, no es del todo intuitivo. En los ojos de un niño, la luz es algo
que brilla, no que se mueve. Pero eso es exactamente lo que es. Galileo fue uno de los
primeros en tratar de medir su velocidad, con la ayuda de dos asistentes colocados en la
cima de dos colinas cercanas que pasaron la noche cubriendo y descubriendo dos
linternas a horas predeterminadas. Cuando veían la otra luz, tenían que comunicarla en
voz alta a un observador externo (el propio Galileo), que tomaba sus medidas
moviéndose a varias distancias de las dos fuentes. Esta es una excelente manera de
medir la velocidad del sonido, de acuerdo con el mismo principio de que hay una cierta
cantidad de tiempo entre ver un rayo y escuchar un trueno. El sonido no es muy rápido,
va a unos 1200 por hora (o 330 metros por segundo), por lo que el efecto es perceptible a
simple vista: por ejemplo, se tarda 3 segundos antes de que el rayo venga de un
relámpago que cae a un kilómetro de distancia. Pero el simple experimento de Galileo
no era adecuado para medir la velocidad de la luz, que es enormemente mayor.

En 1676 un astrónomo danés llamado Ole Römer, que en ese momento trabajaba en el
Observatorio de París, apuntó con su telescopio a los entonces conocidos satélites de
Júpiter (llamados "galileos" o "Médicis" porque habían sido descubiertos por el habitual
Galileo menos de un siglo antes y dedicados por él a Cosme de' Médicis). 2 Se concentró
en sus eclipses y notó un retraso con el que las lunas desaparecían y reaparecían detrás
del gran planeta; este pequeño intervalo de tiempo dependía misteriosamente de la
distancia entre la Tierra y Júpiter, que cambia durante el año (por ejemplo, Ganímedes
parecía estar a principios de diciembre y a finales de julio). Römer entendió que el
efecto se debía a la velocidad finita de la luz, según un principio similar al del retardo
entre el trueno y el relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia entre los dos
planetas, que combinados con las precisas observaciones de Römer permitieron calcular
la velocidad de la luz: dio como resultado un impresionante valor de 300.000 kilómetros
por segundo, inmensamente superior al del sonido. En 1850 Armand Fizeau y Jean
Foucault, dos hábiles experimentadores franceses en feroz competencia entre sí, fueron
los primeros en calcular esta velocidad usando métodos directos, en la Tierra, sin
recurrir a mediciones astronómicas. Fue el comienzo de una carrera de persecución
entre varios científicos en busca del valor más preciso posible, que continúa hasta hoy.
El valor más acreditado hoy en día, que en la física se indica con la letra c, es de
299792,45 kilómetros por segundo. Observamos incidentalmente que esta c es la misma
que aparece en la famosa fórmula E=mc2. Lo encontraremos varias veces, porque es una
de las piezas principales de ese gran rompecabezas llamado universo.

cambiado.

Thomas Young En ese año un médico inglés con muchos intereses, incluyendo la física,
realizó un experimento que pasaría a la historia. Thomas Young (1773-129) fue un niño
prodigio: aprendió a leer a los dos años, y a los seis ya había leído la Biblia entera dos
veces y había empezado a estudiar latín3 . Pronto se enfrentó a la filosofía, la historia
natural y el análisis matemático inventado por Newton; también aprendió a construir
microscopios y telescopios. Antes de los veinte años aprendió hebreo, caldeo, arameo, la
variante samaritana del hebreo bíblico, turco, parsis y amárico. De 1792 a 1799 estudió
medicina en Londres, Edimburgo y Göttingen, donde, olvidando su educación
cuáquera, también se interesó por la música, la danza y el teatro. Se jactaba de que
nunca había estado ocioso un día. Obsesionado con el antiguo Egipto, este
extraordinario caballero, aficionado y autodidacta, fue uno de los primeros en traducir
jeroglíficos. La compilación del diccionario de las antiguas lenguas egipcias fue una
hazaña que lo mantuvo literalmente ocupado hasta el día de su muerte.

Su carrera como médico fue mucho menos afortunada, quizás porque no infundía
confianza a los enfermos o porque carecía del je ne sais quoi que necesitaba en sus
relaciones con los pacientes. La falta de asistencia a su clínica de Londres, sin embargo,
le permitió tomar tiempo para asistir a las reuniones de la Royal Society y discutir con
las principales figuras científicas de la época. Por lo que nos interesa aquí, sus mayores
descubrimientos fueron en el campo de la óptica. Empezó a investigar el tema en 1800 y
en siete años estableció una extraordinaria serie de experimentos que parecían
confirmar la teoría ondulatoria de la luz con creciente confianza. Pero antes de llegar a
la más famosa, tenemos que echar un vistazo a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los poetas románticos.
Veámoslos en la costa, libres para viajar. La distancia entre dos crestas consecutivas (o
entre dos vientres) se denomina longitud de onda, mientras que la altura de la cresta en
relación con la superficie del mar en calma se denomina amplitud. Las ondas se mueven
a una cierta velocidad, que en el caso de la luz, como ya hemos visto, se indica con c.
Fijémoslo en un punto: el período entre el paso de una cresta y la siguiente es un ciclo.
La frecuencia es la velocidad a la que se repiten los ciclos; si, por ejemplo, vemos pasar
tres crestas en un minuto, digamos que la frecuencia de esa onda es de 3 ciclos/minuto.
Tenemos que la longitud de onda multiplicada por la frecuencia es igual a la velocidad
de la onda misma; por ejemplo, si la onda de 3 ciclos/minuto tiene una longitud de onda
de 30 metros, esto significa que se está moviendo a 90 metros por minuto, lo que
equivale a 5,4 kilómetros por hora.

Ahora vemos un tipo de ondas muy familiares, esas ondas de sonido. Vienen en varias
frecuencias. Los audibles para el oído humano van desde 30 ciclos/segundo de los
sonidos más bajos hasta 17000 ciclos/segundo de los de arriba. La nota "la centrale", o
la3, está fijada en 440 ciclos/segundo. La velocidad del sonido en el aire, como ya hemos
visto, es de unos 1200 km/h. Gracias a simples cálculos y recordando que la longitud de
onda es igual a la velocidad dividida por la frecuencia, deducimos que la longitud de
onda de la3 es (330 metros/segundo): (440 ciclos/segundo) = 0,75 metros. Las longitudes
de onda audibles por los humanos varían de (330 metros/segundo) : (440
ciclos/segundo) = 0,75 metros: (17 000 ciclos/segundo) = 2 centímetros a (330
metros/segundo) : (30 ciclos/segundo) = 11 metros. Es este parámetro, junto con la
velocidad del sonido, el que determina lo que ocurre con las ondas sonoras cuando
resuenan en un desfiladero, o se propagan en un gran espacio abierto como un estadio,
o llegan al público en un teatro.

En la naturaleza hay muchos tipos de ondas: además de las ondas marinas y sonoras,
recordamos, por ejemplo, las vibraciones de las cuerdas y las ondas sísmicas que
sacuden la tierra bajo nuestros pies. Todos ellos pueden describirse bien con la física
clásica (no cuántica). Las amplitudes se refieren de vez en cuando a diferentes
cantidades mensurables: la altura de la ola sobre el nivel del mar, la intensidad de las
ondas sonoras, el desplazamiento de la cuerda desde el estado de reposo o la
compresión de un resorte. En cualquier caso, siempre estamos en presencia de una
perturbación, una desviación de la norma dentro de un medio de transmisión que antes
era tranquilo. La perturbación, que podemos visualizar como el pellizco dado a una
cuerda, se propaga en forma de onda. En el reino de la física clásica, la energía
transportada por este proceso está determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su línea. En la
superficie se puede ver un flotador, que sirve tanto para evitar que el anzuelo llegue al
fondo como para señalar que algo ha picado el cebo. El agua se ondula, y el flotador
sube y baja siguiendo las olas. Su posición cambia regularmente: del nivel cero a una
cresta, luego de vuelta al nivel cero, luego de vuelta a un vientre, luego de vuelta al
nivel cero y así sucesivamente. Este movimiento cíclico está dado por una onda llamada
armónica o sinusoidal. Aquí lo llamaremos simplemente una ola.

Problemas abiertos La teoría, en ese momento, no podía responder satisfactoriamente a


varias preguntas: ¿cuál es exactamente el mecanismo por el cual se genera la luz? ¿cómo
tiene lugar la absorción y por qué los objetos de color absorben sólo ciertas longitudes
de onda precisas, es decir, los colores? ¿qué misteriosa operación en el interior de la
retina nos permite "ver"? Todas las preguntas que tenían que ver con la interacción
entre la luz y la materia. En este sentido, ¿cuál es la forma en que la luz se propaga en el
espacio vacío, como entre el Sol y la Tierra? La analogía con las ondas sonoras y
materiales nos llevaría a pensar que existe un medio a través del cual se produce la
perturbación, una misteriosa sustancia transparente e ingrávida que impregna el
espacio profundo. En el siglo XIX se planteó la hipótesis de que esta sustancia existía
realmente y se la llamó éter.

Entonces todavía hay un misterio sobre nuestra estrella. Este colosal generador de luz
produce tanto luz visible como invisible, entendiéndose por "luz invisible" la luz con
una longitud de onda demasiado larga (desde el infrarrojo) o demasiado corta (desde el
ultravioleta hacia abajo) para ser observada. La atmósfera de la Tierra, principalmente
la capa de ozono de la estratosfera superior, bloquea gran parte de los rayos
ultravioletas y ondas aún más cortas, como los rayos X. Ahora imaginemos que hemos
inventado un dispositivo que nos permite sin demasiadas complicaciones absorber la
luz selectivamente, sólo en ciertas frecuencias, y medir su energía.

Este dispositivo existe (incluso está presente en los laboratorios mejor equipados de las
escuelas secundarias) y se llama espectrómetro. Es la evolución del prisma newtoniano,
capaz de descomponer la luz en varios colores desviando selectivamente sus
componentes según varios ángulos. Si insertamos un mecanismo que permita una
medición cuantitativa de estos ángulos, también podemos determinar las respectivas
longitudes de onda (que dependen directamente de los propios ángulos).

Concentrémonos ahora en el punto donde el rojo oscuro se desvanece en negro, es


decir, en el borde de la luz visible. La escala del espectrómetro nos dice que estamos en
7500 Å, donde la letra "Å" es el símbolo del angstrom, una unidad de longitud
nombrada en honor al físico sueco Anders Jonas Ångström, uno de los pioneros de la
espectroscopia. Un angstrom es de 10-8 centímetros, que es una cienmillonésima parte
de un centímetro. Por lo tanto, hemos descubierto que entre dos crestas de ondas de luz
en el borde de la pista visible corren 7500 Å, o 7,5 milésimas de centímetro. Para
longitudes mayores necesitamos instrumentos sensibles a los infrarrojos y a las ondas
largas. Si, por otro lado, vamos al otro lado del espectro visible, en el lado violeta,
vemos que la longitud de onda correspondiente es de unos 3500 Å. Por debajo de este
valor los ojos no vienen en nuestra ayuda y necesitamos usar otros instrumentos.

Hasta ahora todo bien, sólo estamos aclarando los resultados obtenidos por Newton
sobre la descomposición de la luz. En 1802, sin embargo, el químico inglés William
Wollaston apuntó un espectrómetro en la dirección de la luz solar y descubrió que
además del espectro de colores ordenados de rojo a violeta había muchas líneas oscuras
y delgadas. ¿Qué era esto?

En este punto entra en escena Joseph Fraunhofer (1787-1826), un bávaro con gran
talento y poca educación formal, hábil fabricante de lentes y experto en óptica10 .
Después de la muerte de su padre, el enfermizo encontró un empleo no cualificado
como aprendiz en una fábrica de vidrio y espejos en Munich. En 1806 logró unirse a una
compañía de instrumentos ópticos en la misma ciudad, donde con la ayuda de un
astrónomo y un hábil artesano aprendió los secretos de la óptica a la perfección y
desarrolló una cultura matemática. Frustrado por la mala calidad del vidrio que tenía a
su disposición, el perfeccionista Fraunhofer rompió un contrato que le permitía espiar
los secretos industriales celosamente guardados de una famosa cristalería suiza, que
recientemente había trasladado sus actividades a Munich. Esta colaboración dio como
resultado lentes técnicamente avanzadas y sobre todo, por lo que nos interesa aquí, un
descubrimiento fundamental que aseguraría a Fraunhofer un lugar en la historia de la
ciencia.

En su búsqueda de la lente perfecta, se le ocurrió la idea de usar el espectrómetro para


medir la capacidad de refracción de varios tipos de vidrio. Al examinar la
descomposición de la luz solar, notó que las líneas negras descubiertas por Wollaston
eran realmente muchas, alrededor de seiscientas. Empezó a catalogarlas
sistemáticamente por longitud de onda, y para 1815 ya las había examinado casi todas.
Las más obvias estaban etiquetadas con las letras mayúsculas de la A a la I, donde la A
era una línea negra en la zona roja y yo estaba en el límite extremo del violeta. ¿Por qué
fueron causadas? Fraunhofer conocía el fenómeno por el cual ciertos metales o sales
emitían luz de colores precisos cuando se exponían al fuego; midió estos rayos con el
espectrómetro y vio aparecer muchas líneas claras en la región de las longitudes de
onda correspondientes al color emitido.
Lo interesante fue que su estructura era idéntica a la de las líneas negras del espectro
solar. La sal de mesa, por ejemplo, tenía muchas líneas claras en la región que
Fraunhofer había marcado con la letra D. Un modelo explicativo del fenómeno tuvo que
esperar un poco más. Como sabemos, cada longitud de onda bien definida corresponde
únicamente a una frecuencia igualmente definida. Tenía que haber un mecanismo en
funcionamiento que hiciera vibrar la materia, presumiblemente a nivel atómico, de
acuerdo con ciertas frecuencias establecidas. Los átomos (cuya existencia aún no había
sido probada en la época de Fraunhofer) dejaron huellas macroscópicas.

Las huellas de los átomos Como hemos visto arriba, un diapasón ajustado para "dar la
señal" vibra a una frecuencia de 440 ciclos por segundo. En el ámbito microscópico de
los átomos las frecuencias son inmensamente más altas, pero ya en la época de
Fraunhofer era posible imaginar un mecanismo por el cual las misteriosas partículas
estaban equipadas con muchos equivalentes de diapasón muy pequeños, cada uno con
su propia frecuencia característica y capaces de vibrar y emitir luz con una longitud de
onda correspondiente a la propia frecuencia.

¿Y por qué entonces aparecen las líneas negras? Si los átomos de sodio excitados por el
calor de la llama vibran con frecuencias que emiten luz entre 5911 y 5962 Å (valores que
corresponden a tonos de amarillo), es probable que, a la inversa, prefieran absorber la
luz con las mismas longitudes de onda. La superficie al rojo vivo del Sol emite luz de
todo tipo, pero luego pasa a través de la "corona", es decir, los gases menos calientes de
la atmósfera solar. Aquí es donde se produce la absorción selectiva por parte de los
átomos, cada uno de los cuales retiene la luz de la longitud de onda que le conviene;
este mecanismo es responsable de las extrañas líneas negras observadas por Fraunhofer.
Una pieza a la vez, las investigaciones posteriores han revelado que cada elemento,
cuando es excitado por el calor, emite una serie característica de líneas espectrales,
algunas agudas y nítidas (como las líneas de neón de color rojo brillante), otras débiles
(como el azul de las lámparas de vapor de mercurio). Estas líneas son las huellas
dactilares de los elementos, y su descubrimiento fue una primera indicación de la
existencia de mecanismos similares a los "diapasones" que se ven arriba (o alguna otra
diablura) dentro de los átomos.

Las líneas espectrales están muy bien definidas, por lo que es posible calibrar el
espectrómetro para obtener resultados muy precisos, distinguiendo por ejemplo una luz
con una longitud de onda de 6503,2 Å (rojo oscuro) de otra de 6122,7 Å (rojo claro). A
finales del siglo XIX, se publicaron gruesos tomos que enumeraban los espectros de
todos los elementos entonces conocidos, gracias a los cuales los más expertos en
espectroscopia pudieron determinar la composición química de compuestos
desconocidos y reconocer hasta la más mínima contaminación. Sin embargo, nadie tenía
idea de cuál era el mecanismo responsable de producir mensajes tan claros. Cómo
funcionaba el átomo seguía siendo un misterio.

Otro éxito de la espectroscopia fue de una naturaleza más profunda. En la huella del
Sol, increíblemente, se podían leer muchos elementos en la Tierra: hidrógeno, helio,
litio, etc. Cuando la luz de estrellas y galaxias distantes comenzó a ser analizada, el
resultado fue similar. El universo está compuesto de los mismos elementos en todas
partes, siguiendo las mismas leyes de la naturaleza, lo que sugiere que todo tuvo un
origen único gracias a un misterioso proceso físico de creación.

Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba resolver otro
problema: ¿cómo transmiten las fuerzas, y en particular la gravedad, su acción a
grandes distancias? Si unimos un carruaje a un caballo, vemos que la fuerza utilizada
por el animal para tirar del vehículo se transmite directamente, a través de los arneses y
las barras. ¿Pero cómo "siente" la Tierra al Sol, que está a 150 millones de kilómetros de
distancia? ¿Cómo atrae un imán a un clavo a cierta distancia? En estos casos no hay
conexiones visibles, por lo que se debe asumir una misteriosa "acción a distancia".
Según la formulación de Newton, la gravedad actúa a distancia, pero no se sabe cuál es
la "varilla" que conecta dos cuerpos como la Tierra y el Sol. Después de haber luchado
en vano con este problema, incluso el gran físico inglés tuvo que rendirse y dejar que la
posteridad se ocupara de la materia.

¿Qué es un cuerpo negro y por qué estamos tan interesados en él?

Todos los cuerpos emiten energía y la absorben de sus alrededores. Aquí por "cuerpo"
nos referimos a un objeto grande, o macroscópico, compuesto de muchos miles de
millones de átomos. Cuanto más alta es su temperatura, más energía emite.

Los cuerpos calientes, en todas sus partes (que podemos considerar a su vez como
cuerpos), tienden a alcanzar un equilibrio entre el valor de la energía dada al ambiente
externo y la absorbida. Si, por ejemplo, tomas un huevo de la nevera y lo sumerges en
una olla llena de agua hirviendo, el huevo se calienta y la temperatura del agua
disminuye. Por el contrario, si se tira un huevo caliente en agua fría, la transferencia de
calor se produce en la dirección opuesta. Si no se proporciona más energía, después de
un tiempo el huevo y el agua estarán a la misma temperatura. Este es un experimento
casero fácil de hacer, que ilustra claramente el comportamiento de los cuerpos con
respecto al calor. El estado final en el que las temperaturas del huevo y del agua son
iguales se llama equilibrio térmico, y es un fenómeno universal: un objeto caliente
sumergido en un ambiente frío se enfría, y viceversa. En el equilibrio térmico, todas las
partes del cuerpo están a la misma temperatura, por lo que emiten y absorben energía
de la misma manera.

Cuando se está tumbado en una playa en un día hermoso, el cuerpo está emitiendo y
absorbiendo radiación electromagnética: por un lado se absorbe la energía producida
por el radiador primitivo, el Sol, y por otro lado se emite una cierta cantidad de calor
porque el cuerpo tiene mecanismos de regulación que le permiten mantener la
temperatura interna correcta1 . Las diversas partes del cuerpo, desde el hígado hasta el
cerebro, desde el corazón hasta las puntas de los dedos, se mantienen en equilibrio
térmico, de modo que los procesos bioquímicos se desarrollan sin problemas. Si el
ambiente es muy frío, el organismo debe producir más energía, o al menos no
dispersarla, si quiere mantener la temperatura ideal. El flujo sanguíneo, que es
responsable de la transferencia de calor a la superficie del cuerpo, se reduce por lo tanto
para que los órganos internos no pierdan calor, por lo que sentimos frío en los dedos y
la nariz. Por el contrario, cuando el ambiente es muy caliente, el cuerpo tiene que
aumentar la energía dispersa, lo que sucede gracias al sudor: la evaporación de este
líquido caliente sobre la piel implica el uso de una cantidad adicional de energía del
cuerpo (una especie de efecto de acondicionamiento del aire), que luego se dispersa
hacia el exterior. El hecho de que el cuerpo humano irradia calor es evidente en las
habitaciones cerradas y abarrotadas: treinta personas apiladas en una sala de reuniones
producen 3 kilovatios, que son capaces de calentar el ambiente rápidamente. Por el
contrario, en la Antártida esos mismos colegas aburridos podrían salvarle la vida si los
abraza con fuerza, como hacen los pingüinos emperadores para proteger sus frágiles
huevos de los rigores del largo invierno.

Los humanos, los pingüinos e incluso las tostadoras son sistemas complejos que
producen energía desde el interior. En nuestro caso, el combustible es dado por la
comida o la grasa almacenada en el cuerpo; una tostadora en cambio tiene como fuente
de energía las colisiones de los electrones de la corriente eléctrica con los átomos de
metales pesados de los cuales se hace la resistencia. La radiación electromagnética
emitida, en ambos casos, se dispersa en el ambiente externo a través de la superficie en
contacto con el aire, en nuestro caso la piel. Esta radiación suele tener un color que es la
huella de determinadas "transiciones atómicas", es decir, es hija de la química. Los
fuegos artificiales, por ejemplo, cuando explotan están ciertamente calientes y la luz que
emiten depende de la naturaleza de los compuestos que contienen (cloruro de estroncio,
cloruro de bario y otros),2 gracias a cuya oxidación brillan con colores brillantes y
espectaculares.

Estos casos particulares son fascinantes, pero la radiación electromagnética se comporta


siempre de la misma manera, en cualquier sistema, en el caso más simple: aquel en el
que todos los efectos cromáticos debidos a los distintos átomos se mezclan y se borran,
dando vida a lo que los físicos llaman radiación térmica. El objeto ideal que lo produce
se llama cuerpo negro. Por lo tanto, es un cuerpo que por definición sólo produce
radiación térmica cuando se calienta, sin que prevalezca ningún color en particular, y
sin los efectos especiales de los fuegos artificiales. Aunque es un concepto abstracto, hay
objetos cotidianos que se pueden aproximar bastante bien a un cuerpo negro ideal. Por
ejemplo, el Sol emite luz con un espectro bien definido (las líneas de Fraunhofer),
debido a la presencia de varios tipos de átomos en la corona gaseosa circundante; pero
si consideramos la radiación en su conjunto vemos que es muy similar a la de un cuerpo
negro (muy caliente). Lo mismo puede decirse de las brasas calientes, las resistencias de
las tostadoras, la atmósfera de la Tierra, el hongo de una explosión nuclear y el universo
primordial: todas aproximaciones razonables de un cuerpo negro.

Un muy buen modelo lo da una caldera de carbón anticuada, como la que se encuentra
en los trenes de vapor, que, al aumentar la temperatura, produce en su interior una
radiación térmica prácticamente pura. De hecho, este fue el modelo utilizado por los
físicos a finales del siglo XIX para el estudio del cuerpo negro. Para tener una fuente de
radiación térmica pura, debe estar aislada de alguna manera de la fuente de calor, en
este caso el carbón en combustión. Para ello construimos un robusto contenedor de
paredes gruesas, digamos de hierro, en el que hacemos un agujero para observar lo que
ocurre en su interior y tomar medidas. Pongámoslo en la caldera, dejémoslo calentar y
asomarse por el agujero. Detectamos radiación de calor puro, que llena toda la nave.
Esto se emite desde las paredes calientes y rebota de un extremo al otro; una pequeña
parte sale del agujero de observación.

Con la ayuda de unos pocos instrumentos podemos estudiar la radiación térmica y


comprobar en qué medida están presentes los distintos colores (es decir, las distintas
longitudes de onda). También podemos medir cómo cambia la composición cuando
cambia la temperatura de la caldera, es decir, estudiar la radiación en equilibrio térmico.

Al principio el agujero emite sólo la radiación infrarroja cálida e invisible. Cuando


subimos la calefacción vemos una luz roja oscura que se parece a la luz visible dentro de
la tostadora. A medida que la temperatura aumenta más, el rojo se vuelve más brillante,
hasta que se vuelve amarillo. Con una máquina especialmente potente, como el
convertidor Bessemer en las acerías (donde se inyecta el oxígeno), podemos alcanzar
temperaturas muy altas y ver cómo la radiación se vuelve prácticamente blanca. Si
pudiéramos usar una fuente de calor aún más fuerte (por lo tanto no una caldera
clásica, que se derretiría), observaríamos una luz brillante y azulada saliendo del
agujero a muy alta temperatura. Hemos alcanzado el nivel de explosiones nucleares o
estrellas brillantes como Rigel, la supergigante azul de la constelación de Orión que es
la fuente de energía más alta de radiación térmica en nuestra vecindad galáctica.3

El estudio de las radiaciones térmicas era un importante campo de investigación, en


aquel momento completamente nuevo, que combinaba dos temas diferentes: el estudio
del calor y el equilibrio térmico, es decir, la termodinámica, y la radiación
electromagnética. Los datos recogidos parecían completamente inofensivos y daban la
posibilidad de hacer investigaciones interesantes. Nadie podía sospechar que eran
pistas importantes en lo que pronto se convertiría en el amarillo científico del milenio:
las propiedades cuánticas de la luz y los átomos (que al final son los que hacen todo el
trabajo).
Capítulo 4
SU MAESTREADO SR. PLANCK

L
a teoría clásica de la luz y los cálculos de Planck llevaron no sólo a la conclusión de
que la distribución de las longitudes de onda se concentraba en las partes azul-violeta,
sino incluso (debido a la desesperación de los físicos teóricos, que estaban cada vez más
perplejos) que la intensidad se hizo infinita en las regiones más remotas del ultravioleta.
Hubo alguien, tal vez un periodista, que llamó a la situación una "catástrofe
ultravioleta". De hecho fue un desastre, porque la predicción teórica no coincidía en
absoluto con los datos experimentales. Escuchando los cálculos, las brasas no emitirían
luz roja, como la humanidad ha conocido por lo menos durante cien mil años, sino luz
azul.

Fue una de las primeras grietas en la construcción de la física clásica, que hasta entonces
parecía inexpugnable. (Gibbs había encontrado otro, probablemente el primero de
todos, unos veinticinco años antes; en ese momento su importancia no había sido
comprendida, excepto quizás por Maxwell). Todos ellos, sin embargo, caen
rápidamente a cero en el área de ondas muy cortas. ¿Qué sucede cuando una teoría
elegante y bien probada, concebida por las más grandes mentes de la época y certificada
por todas las academias europeas, choca con los brutales y crudos datos
experimentales? Si para las religiones los dogmas son intocables, para la ciencia las
teorías defectuosas están destinadas a ser barridas tarde o temprano.

La física clásica predice que la tostadora brillará azul cuando todos sepan que es roja.
Recuerda esto: cada vez que haces una tostada, estás observando un fenómeno que
viola descaradamente las leyes clásicas. Y aunque no lo sepas (por ahora), tienes la
confirmación experimental de que la luz está hecha de partículas discretas, está
cuantificada. ¡Es mecánica cuántica en vivo! Pero, ¿podría objetar, no vimos en el
capítulo anterior que gracias al genio del Sr. Young se ha demostrado que la luz es una
onda? Sí, y es verdad. Preparémonos, porque las cosas están a punto de ponerse muy
extrañas. Seguimos siendo viajeros que exploran extraños nuevos mundos lejanos - y
sin embargo también llegamos allí desde una tostadora.

Max Planck Berlín, el epicentro de la catástrofe del ultravioleta, fue el reino de Max
Planck, un físico teórico de unos cuarenta años, gran experto en termodinámica7 . En
1900, a partir de los datos experimentales recogidos por sus colegas y utilizando un
truco matemático, logró transformar la fórmula derivada de la teoría clásica en otra que
encajaba muy bien con las mediciones. La manipulación de Planck permitió que las
ondas largas se mostraran tranquilamente a todas las temperaturas, más o menos como
se esperaba en la física clásica, pero cortó las ondas cortas imponiendo una especie de
"peaje" a su emisión. Este obstáculo limitó la presencia de la luz azul, que de hecho
irradiaba menos abundantemente.

El truco parecía funcionar. El "peaje" significaba que las frecuencias más altas (recuerde:
ondas cortas = frecuencias altas) eran más "caras", es decir, requerían mucha más
energía que las más bajas. Así que, según el razonamiento correcto de Planck, a bajas
temperaturas la energía no era suficiente para "pagar el peaje" y no se emitían ondas
cortas. Para volver a nuestra metáfora teatral, había encontrado una forma de liberar las
primeras filas y empujar a los espectadores hacia las filas del medio y los túneles. Una
intuición repentina (que no era típica de su forma de trabajar) permitió a Planck
conectar la longitud de onda (o la frecuencia equivalente) con la energía: cuanto más
larga sea la longitud, menos energía.

Parece una idea elemental, y de hecho lo es, porque así es como funciona la naturaleza.
Pero la física clásica no lo contempló en absoluto. La energía de una onda
electromagnética, según la teoría de Maxwell, dependía sólo de su intensidad, no del
color o la frecuencia. ¿Cómo encajó Planck esto en su tratamiento del cuerpo negro?
¿Cómo transmitió la idea de que la energía no sólo depende de la intensidad sino
también de la frecuencia? Todavía falta una pieza del rompecabezas, porque hay que
especificar qué tiene más energía a medida que las frecuencias aumentan.

Para resolver el problema, Planck encontró una manera eficiente de dividir la luz
emitida, cualquiera que sea su longitud de onda, en paquetes llamados paquetes
cuánticos, cada uno con una cantidad de energía relacionada con su frecuencia. La
fórmula iluminadora de Planck es realmente tan simple como es posible: E=hf

En palabras: "la energía de un quantum de luz es directamente proporcional a su


frecuencia". Así, la radiación electromagnética está compuesta por muchos pequeños
paquetes, cada uno de los cuales está dotado de una cierta energía, igual a su frecuencia
multiplicada por una constante h. El esfuerzo de Planck por conciliar los datos con la
teoría llevó a la idea de que las altas frecuencias (es decir, las ondas cortas) eran caras en
términos de energía para el cuerpo negro. Su ecuación, a todas las temperaturas, estaba
en perfecta armonía con las curvas obtenidas de las mediciones experimentales.

Es interesante notar que Planck no se dio cuenta inmediatamente de que su


modificación a la teoría de Maxwell tenía que ver directamente con la naturaleza de la
luz. En cambio, estaba convencido de que la clave del fenómeno estaba en los átomos
que formaban las paredes del cuerpo negro, la forma en que se emitía la luz. La
preferencia por el rojo sobre el azul no se debía, para él, a las propiedades intrínsecas de
estas longitudes de onda, sino a la forma en que los átomos se movían y emitían
radiaciones de varios colores. De esta manera esperaba evitar conflictos con la teoría
clásica, que hasta entonces había hecho maravillas: después de todo, los motores
eléctricos conducían trenes y tranvías por toda Europa y Marconi acababa de patentar el
telégrafo inalámbrico. La teoría de Maxwell obviamente no estaba equivocada y Planck
no tenía intención de corregirla: mejor tratar de modificar la termodinámica más
misteriosa.

Sin embargo, su hipótesis sobre la radiación térmica implicaba dos rotundas


desviaciones de la física clásica. En primer lugar, la correlación entre la intensidad (es
decir, el contenido de energía) de la radiación y su frecuencia, completamente ausente
en el cuadro Maxwelliano. Luego, la introducción de cantidades discretas, quanta. Son
dos aspectos relacionados entre sí. Para Maxwell la intensidad era una cantidad
continua, capaz de asumir cualquier valor real, dependiente sólo de los valores de los
campos eléctricos y magnéticos asociados a la onda de luz. Para Planck la intensidad a
una frecuencia dada es igual al número de cuantos que corresponden a la propia
frecuencia, cada uno de los cuales lleva una energía igual a E=hf. Era una idea que olía
sospechosamente a "partículas de luz", pero todos los experimentos de difracción e
interferencia continuaron confirmando la naturaleza ondulatoria.

Nadie entonces, incluyendo a Planck, comprendió plenamente el significado de este


punto de inflexión. Para su descubridor, los cuantos eran impulsos concentrados de
radiación, provenientes de los átomos de cuerpo negro en frenético movimiento a través
de la agitación térmica, emitiéndolos según mecanismos desconocidos. No podía saber
que esa h, ahora llamada constante de Planck, se convertiría en la chispa de una
revolución que llevaría a los primeros rugidos de la mecánica cuántica y la física
moderna. Por el gran descubrimiento de la "energía cuántica", que tuvo lugar cuando
tenía cuarenta y dos años, Planck fue galardonado con el Premio Nobel de Física en
1918.

Entra Einstein Las extraordinarias consecuencias de la introducción de los cuantos


fueron comprendidas poco después por un joven físico entonces desconocido, nada
menos que Albert Einstein. Leyó el artículo de Planck en 1900 y, como declaró más
tarde, sintió que "la tierra bajo sus pies ha desaparecido".8 El problema subyacente era
el siguiente: ¿eran los paquetes de energía hijos del mecanismo de emisión o eran una
característica intrínseca de la luz? Einstein se dio cuenta de que la nueva teoría
establecía una entidad bien definida, perturbadoramente discreta, similar a una
partícula, que intervenía en el proceso de emisión de luz de sustancias sobrecalentadas.
Sin embargo, al principio, el joven físico se abstuvo de abrazar la idea de que la
cuantificación era una característica fundamental de la luz.

Aquí tenemos que decir unas palabras sobre Einstein. No era un niño prodigio y no le
gustaba especialmente la escuela. De niño, nadie le hubiera predicho un futuro exitoso.
Pero la ciencia siempre le había fascinado, desde que su padre le enseñó una brújula
cuando tenía cuatro años. Estaba hechizado por ello: fuerzas invisibles siempre
forzaban a la aguja a apuntar al norte, en cualquier dirección en la que se girara. Como
escribió en su vejez: "Recuerdo bien, o mejor dicho creo que recuerdo bien, la profunda
y duradera impresión que me dejó esta experiencia. Aún siendo joven, Einstein también
fue cautivado por la magia del álgebra, que había aprendido de un tío, y fue hechizado
por un libro de geometría leído a la edad de doce años. A los dieciséis años escribió su
primer artículo científico, dedicado al éter en el campo magnético.

En el punto donde llegó nuestra historia, Einstein es todavía un extraño. Al no haber


obtenido un destino universitario de ningún tipo después de finalizar sus estudios,
comenzó a dar clases particulares y a hacer suplencias, sólo para ocupar el puesto de
empleado de la Oficina Suiza de Patentes en Berna. Aunque sólo tenía fines de semana
libres para sus investigaciones, en los siete años que pasó allí sentó las bases de la física
del siglo XX y descubrió una forma de contar átomos (es decir, de medir la constante de
Avogadro), inventó la relatividad estrecha (con todas sus profundas consecuencias en
nuestras nociones del espacio y el tiempo, por no mencionar E=mc2), hizo importantes
contribuciones a la teoría cuántica y más. Entre sus muchos talentos, Einstein podía
incluir la sinestesia, es decir, la capacidad de combinar datos de diferentes sentidos, por
ejemplo, la visión y el oído. Cuando meditaba sobre un problema, sus procesos
mentales siempre iban acompañados de imágenes y se daba cuenta de que iba por el
buen camino porque sentía un hormigueo en la punta de los dedos. Su nombre se
convertiría en sinónimo de gran científico en 1919, cuando un eclipse de sol confirmó
experimentalmente su teoría de la relatividad general. El premio Nobel, sin embargo,
fue otorgado por un trabajo de 1905, diferente de la relatividad: la explicación del efecto
fotoeléctrico.

Imagínese el choque cultural que experimentaron los físicos en 1900, que se mostraron
tranquilos y serenos en sus estudios para consultar datos sobre los continuos espectros
de radiación emitidos por los objetos calientes, datos que se habían acumulado durante
casi medio siglo. Los experimentos que los produjeron fueron posibles gracias a la
teoría de Maxwell sobre el electromagnetismo, aceptada hace más de treinta años, que
predecía que la luz era una onda. El hecho de que un fenómeno tan típicamente
ondulante pudiera, en determinadas circunstancias, comportarse como si estuviera
compuesto por paquetes de energía discretos, en otras palabras, "partículas", sumió a la
comunidad científica en un terrible estado de confusión. Planck y sus colegas, sin
embargo, dieron por sentado que tarde o temprano llegarían a una explicación de alto
nivel, por así decirlo, neoclásica. Después de todo, la radiación de cuerpo negro era un
fenómeno muy complicado, como el clima atmosférico, en el que muchos eventos en sí
mismos simples de describir se juntan en un estado complejo aparentemente esquivo.
Pero quizás el aspecto más incomprensible de esto era la forma en que la naturaleza
parecía revelar por primera vez, a quienes tenían la paciencia de observarla, sus secretos
más íntimos.

Arthur Compton En 1923 la hipótesis de las partículas marcó un punto a su favor


gracias al trabajo de Arthur Compton, que comenzó a estudiar el efecto fotoeléctrico con
los rayos X (luz de onda muy corta). Los resultados que obtuvo no mintieron: los
fotones que chocaban con los electrones se comportaban como partículas, es decir, como
pequeñas bolas de billar11 . Este fenómeno se llama ahora el "efecto Compton" o más
propiamente "dispersión Compton".

Como en todas las colisiones elásticas de la física clásica, durante este proceso se
conservan la energía total y el momento del sistema electrón + fotón. Pero para
comprender plenamente lo que sucede, es necesario romper las vacilaciones y tratar al
fotón como una partícula a todos los efectos, un paso al que Compton llegó
gradualmente, después de haber notado el fracaso de todas sus hipótesis anteriores. En
1923 la naciente teoría cuántica (la "vieja teoría cuántica" de Niels Bohr) todavía no era
capaz de explicar el efecto Compton, que sólo se entendería gracias a los desarrollos
posteriores. Cuando el físico americano presentó sus resultados en una conferencia de
la Sociedad Americana de Física, tuvo que enfrentarse a la oposición abierta de muchos
colegas.

Como buen hijo de una familia de la minoría menonita de Wooster, Ohio,


acostumbrado a trabajar duro, Compton no se desanimó y continuó perfeccionando sus
experimentos e interpretaciones de los resultados. El enfrentamiento final tuvo lugar en
1924, durante un seminario de la Asociación Británica para el Avance de la Ciencia
organizado especialmente en Toronto. Compton fue muy convincente. Su
archienemigo, William Duane de Harvard, que hasta entonces no había podido replicar
sus resultados, volvió al laboratorio y rehizo él mismo el controvertido experimento.
Finalmente se vio obligado a admitir que el efecto Compton era cierto. Su descubridor
ganó el Premio Nobel en 1927. Compton fue uno de los principales arquitectos del
desarrollo de la física americana en el siglo XX, tanto es así que recibió el honor de una
portada en el "Times" el 13 de enero de 1936.
¿Qué muestran estos resultados? Por un lado, nos enfrentamos a varios fenómenos que
muestran que la luz parece estar compuesta por una corriente de partículas, cuántas
luminosas llamadas fotones (pobre Newton, si hubiera sabido...). Por otro lado, tenemos
el experimento de Young con la doble rendija (y millones de otros experimentos que lo
confirman, todavía realizados hoy en los laboratorios de las escuelas de todo el mundo),
gracias a los cuales la luz se comporta como una onda. Trescientos años después de la
disputa onda-partícula, todavía estamos de vuelta al principio. ¿Es una paradoja
irresoluble? ¿Cómo puede una entidad ser simultáneamente una onda y una partícula?
¿Tenemos que dejar la física y centrarnos en el Zen y el mantenimiento de las
motocicletas?

Vidrio y espejos El fotón, como partícula, simplemente "es". Dispara los detectores,
colisiona con otras partículas, explica el efecto fotoeléctrico y el efecto Compton. ¡Existe!
Pero no explica la interferencia, y otro fenómeno también.

Recordarán que en el capítulo 1 nos detuvimos frente a un escaparate lleno de ropa


interior sexy. Ahora continuamos nuestro paseo y llegamos a los escaparates de unos
grandes almacenes, donde la colección primavera-verano se exhibe en elegantes
maniquíes. El sol brilla y el contenido de la ventana es claramente visible; pero en el
vidrio notamos que también hay un débil reflejo de la calle y los transeúntes,
incluyéndonos a nosotros. Por casualidad, esta vitrina también contiene un espejo, que
refleja nuestra imagen en detalle. Así que nos vemos dos veces: claramente en el espejo
y débilmente en el cristal.

He aquí una explicación plausible: los rayos del sol se reflejan en la superficie de
nuestro cuerpo, atraviesan la vitrina, golpean el espejo y vuelven hasta llegar a nuestra
retina. Sin embargo, un pequeño porcentaje de la luz también se refleja en la propia
vitrina. Bueno, ¿y qué? Todo esto es perfectamente lógico, como quiera que lo veas. Si la
luz es una onda, no hay problema: las ondas están normalmente sujetas a reflexión y
refracción parcial. Si la luz, en cambio, está compuesta por un flujo de partículas,
podemos explicarlo todo admitiendo que una cierta parte de los fotones, digamos el
96%, atraviesa el cristal y el 4% restante se refleja. Pero si tomamos un solo fotón de esta
enorme corriente, formada por partículas de todas formas, ¿cómo sabemos cómo se
comportará frente al vidrio? ¿Cómo decide nuestro fotón (llamémoslo Bernie) qué
camino tomar?

Ahora imaginemos esta horda de partículas idénticas dirigiéndose hacia el cristal. La


gran mayoría lo atraviesa, pero unos pocos son rechazados de vez en cuando. Recuerde
que los fotones son indivisibles e irreductibles - nadie ha visto nunca el 96 por ciento de
un fotón en la naturaleza. Así que Bernie tiene dos alternativas: o pasa de una pieza, o
es rechazado de una pieza. En este último caso, que ocurre el 4% de las veces, quizás
chocó con uno de los muchos átomos de vidrio. Pero si ese fuera el caso, no veríamos
nuestra imagen reflejada en la débil pero bien definida ventana, sino que veríamos el
vidrio ligeramente empañado por ese 4% de fotones perdidos. La imagen, que
reconocemos fácilmente como "nuestra", indica que estamos en presencia de un
fenómeno coherente y ondulante, pero que los fotones existen. Aquí nos enfrentamos a
otro problema, el de la reflexión parcial. Parece que hay un 4% de probabilidad de que
un fotón, entendido como partícula, termine en una onda que se refleje. Que las
hipótesis de Planck llevaron a la introducción de elementos aleatorios y probabilísticos
en la física fue claro para Einstein ya en 1901. No le gustaba nada, y con el tiempo su
disgusto crecería.

La morsa y el panettone Como si la solución de Planck al problema de la catástrofe del


ultravioleta y la explicación de Einstein del efecto fotoeléctrico no fueran lo
suficientemente impactantes, la física clásica se enfrentó a una tercera llamada de
atención a principios del siglo XX: el fracaso del modelo atómico de Thomson, o
"modelo panettone".

Ernest Rutherford (1871-1937) era un hombre grande y erizado que parecía una morsa.
Después de ganar el Premio Nobel de Química por su investigación en radiactividad, se
convirtió en director del prestigioso Laboratorio Cavendish en Cambridge en 1917.
Nació en Nueva Zelanda en el seno de una gran familia de agricultores; la vida en la
granja lo había acostumbrado a trabajar duro y lo convirtió en un hombre de recursos.
Apasionado por las máquinas y las nuevas tecnologías, se dedicó desde su infancia a
reparar relojes y a construir modelos de funcionamiento de molinos de agua. En sus
estudios de postgrado había estado involucrado en el electromagnetismo y había
logrado construir un detector de ondas de radio antes de que Marconi llevara a cabo sus
famosos experimentos. Gracias a una beca llegó a Cambridge, donde su radio, capaz de
captar señales a casi un kilómetro de distancia, impresionó favorablemente a muchos
profesores, incluyendo a J. J. Thomson, que en ese momento dirigía el Laboratorio
Cavendish.

Thomson invitó a Rutherford a trabajar con él en una de las novedades de la época, los
rayos X, entonces conocidos como rayos Becquerel, y a estudiar el fenómeno de la
descarga eléctrica en los gases. El joven kiwi tenía nostalgia, pero era una oferta
imprescindible. El fruto de su colaboración se resumió en un famoso artículo sobre la
ionización, que se explicó por el hecho de que los rayos X, al colisionar con la materia,
parecían crear un número igual de partículas cargadas eléctricamente, llamadas "iones".
Thomson entonces afirmaría públicamente que nunca había conocido a nadie tan hábil
y apasionado por la investigación como su estudiante.
Alrededor de 1909, Rutherford coordinó un grupo de trabajo dedicado a las llamadas
partículas alfa, que fueron disparadas a una fina lámina de oro para ver cómo sus
trayectorias eran desviadas por átomos de metales pesados. Algo inesperado sucedió en
esos experimentos. Casi todas las partículas se desviaron ligeramente, al pasar por la
lámina de oro, a una pantalla de detección a cierta distancia. Pero uno de cada 8.000
rebotó y nunca pasó del papel de aluminio. Como Rutherford dijo más tarde, "fue como
disparar un mortero a un pedazo de papel y ver la bala regresar. ¿Qué estaba pasando?
¿Había algo dentro del metal que pudiera repeler las partículas alfa, pesadas y con
carga positiva?

Gracias a las investigaciones previas de J.J. Thomson, se sabía en ese momento que los
átomos contenían luz, electrones negativos. Para que la construcción fuera estable y
para equilibrar todo, por supuesto, se requería una cantidad igual y opuesta de cargas
positivas. Sin embargo, dónde estaban estos cargos era entonces un misterio. Antes de
Rutherford, nadie había sido capaz de dar forma al interior del átomo.

En 1905 J. J. Thomson había propuesto un modelo que preveía una carga positiva
repartida uniformemente dentro del átomo y los diversos electrones dispersos como
pasas en el panettone - por esta razón fue bautizado por los físicos como el "modelo del
panettone" (modelo del pudín de ciruela en inglés). Si el átomo se hizo realmente así, las
partículas alfa del experimento anterior siempre tendrían que pasar a través de la
lámina: sería como disparar balas a un velo de espuma de afeitar. Aquí, ahora imagina
que en esta situación una bala de cada ocho mil es desviada por la espuma hasta que
vuelve. Esto sucedió en el laboratorio de Rutherford.

Según sus cálculos, la única manera de explicar el fenómeno era admitir que toda la
masa y la carga positiva del átomo se concentraba en un "núcleo", una pequeña bola
situada en el centro del propio átomo. De esta manera habría habido las
concentraciones de masa y carga necesarias para repeler las partículas alfa, pesadas y
positivas, que eventualmente llegaron en un curso de colisión. Era como si dentro del
velo de espuma de afeitar hubiera muchas bolas duras y resistentes, capaces de desviar
y repeler las balas. Los electrones a su vez no se dispersaron sino que giraron alrededor
del núcleo. Gracias a Rutherford, entonces, el modelo de pan dulce fue consignado al
basurero de la historia. El átomo parecía más bien un pequeño sistema solar, con
planetas en miniatura (los electrones) orbitando una densa y oscura estrella (el núcleo),
todo ello unido por fuerzas electromagnéticas.

Con experimentos posteriores se descubrió que el núcleo era realmente diminuto: su


volumen era una milésima de una milmillonésima del átomo. Por el contrario, contenía
más del 99,98% de la masa total del átomo. Así que la materia estaba hecha en gran
parte de vacío, de puntos alrededor de los cuales los electrones giraban a grandes
distancias. Realmente increíble: ¡la materia está básicamente hecha de nada! (incluso la
silla "sólida" en la que estás sentado ahora está prácticamente toda vacía). En el
momento de este descubrimiento, la física clásica, desde la F=ma de Newton hasta las
leyes de Maxwell, todavía se consideraba inexpugnable, tanto a nivel microscópico
como a gran escala, a nivel del sistema solar. Se creía que en el átomo funcionaban las
mismas leyes válidas en otros lugares. Todos dormían en sueños tranquilos hasta que
llegó Niels Bohr.

El danés melancólico Un día, Niels Bohr, un joven teórico danés que se estaba
perfeccionando en ese momento en el Laboratorio Cavendish, asistió a una conferencia
en Rutherford y quedó tan impresionado por la nueva teoría atómica del gran
experimentador que le pidió que trabajara con él en la Universidad de Manchester,
donde estaba entonces. Aceptó acogerlo durante cuatro meses en 1912.

Reflexionando tranquilamente sobre los nuevos datos experimentales, Bohr pronto se


dio cuenta de que había algo malo en el modelo. De hecho, ¡fue un desastre! Si se
aplican las ecuaciones de Maxwell a un electrón en una órbita circular muy rápida
alrededor del núcleo, resulta que la partícula pierde casi inmediatamente toda su
energía, en forma de ondas electromagnéticas. Debido a esto el radio orbital se hace
cada vez más pequeño, reduciéndose a cero en sólo 10-16 segundos (una diez
millonésima de una billonésima de segundo). En pocas palabras, un electrón según la
física clásica debería caer casi instantáneamente en el núcleo. Así que el átomo, es decir,
la materia, es inestable, y el mundo tal como lo conocemos es físicamente imposible. Las
ecuaciones de Maxwell parecían implicar el colapso del modelo orbital. Así que el
modelo estaba equivocado, o las venerables leyes de la física clásica estaban
equivocadas.

Bohr se puso a estudiar el átomo más simple de todos, el átomo de hidrógeno, que en el
modelo de Rutherford consiste en un solo electrón negativo que orbita alrededor del
núcleo positivo. Pensando en los resultados de Planck y Einstein, y en ciertas ideas que
estaban en el aire sobre el comportamiento ondulatorio de las partículas, el joven danés
se lanzó a una hipótesis muy poco clásica y muy arriesgada. Según Bohr, sólo se
permiten ciertas órbitas al electrón, porque su movimiento dentro del átomo es similar
al de las ondas. Entre las órbitas permitidas hay una de nivel de energía mínimo, donde
el electrón se acerca lo más posible al núcleo: la partícula no puede bajar más que esto y
por lo tanto no puede emitir energía mientras salta a un nivel más bajo - que realmente
no existe. Esta configuración especial se llama el estado fundamental.
Con su modelo, Bohr intentaba principalmente explicar a nivel teórico el espectro
discreto de los átomos, esas líneas más o menos oscuras que ya hemos encontrado.
Como recordarán, los diversos elementos, al ser calentados hasta que emiten luz, dejan
una huella característica en el espectrómetro que consiste en una serie de líneas de color
que resaltan claramente sobre un fondo más oscuro. En el espectro de la luz solar,
entonces, también hay líneas negras y delgadas en ciertos puntos precisos. Las líneas
claras corresponden a las emisiones, las oscuras a las absorciones. El hidrógeno, como
todos los elementos, tiene su "huella" espectral: a estos datos, conocidos en su momento,
Bohr trató de aplicar su modelo recién nacido.

En tres artículos posteriores publicados en 1913, el físico danés expuso su audaz teoría
cuántica del átomo de hidrógeno. Las órbitas permitidas al electrón se caracterizan por
cantidades fijas de energía, que llamaremos E1, E2, E3 etc. Un electrón emite radiación
cuando "salta" de un nivel superior, digamos E3, a uno inferior, digamos E2: es un fotón
cuya energía (dada, recordemos, por E=hf) es igual a la diferencia entre los de los dos
niveles. Así que E2-E3=hf. Añadiendo este efecto en los miles de millones de átomos
donde el proceso ocurre al mismo tiempo, obtenemos como resultado las líneas claras
del espectro. Gracias a un modelo que conservaba parcialmente la mecánica newtoniana
pero que se desviaba de ella cuando no estaba de acuerdo con los datos experimentales,
Bohr pudo calcular triunfalmente las longitudes de onda correspondientes a todas las
líneas espectrales del hidrógeno. Sus fórmulas dependían sólo de constantes y valores
conocidos, como la masa y la carga de los electrones (como de costumbre sazonada aquí
y allá por símbolos como π y, obviamente, el signo distintivo de la mecánica cuántica, la
constante h de Planck).

Resumiendo, en el modelo de Bohr el electrón permanece confinado en pocas órbitas


permitidas, como por arte de magia, que corresponden a niveles de energía bien
definidos E1, E2, E3 etc. El electrón puede absorber energía sólo en "paquetes" o
"cuantos"; si absorbe un número adecuado, puede "saltar" del nivel en que se encuentra
a uno más alto, por ejemplo, de E2 a E3; viceversa, los electrones de los niveles
superiores pueden deslizarse espontáneamente hacia abajo, regresando por ejemplo de
E3 a E2, y al hacerlo emiten cuantos de luz, es decir, fotones. Estos fotones pueden ser
observados porque tienen longitudes de onda específicas, que corresponden a las líneas
espectrales. Sus valores se predicen exactamente, en el caso del átomo de hidrógeno,
por el modelo de Bohr.

El carácter del átomo Así es gracias a Rutherford y Bohr si hoy en día la representación
más conocida del átomo es la del sistema solar, donde pequeños electrones zumban
alrededor del núcleo como muchos planetas pequeños, en órbitas similares a las
elípticas predichas por Kepler. Muchos quizás piensan que el modelo es preciso y que el
átomo está hecho así. Desgraciadamente no, porque las intuiciones de Bohr eran
brillantes pero no del todo correctas. La proclamación del triunfo resultó prematura. Se
dio cuenta de que su modelo se aplicaba sólo al átomo más simple, el átomo de
hidrógeno, pero ya estaba fallando en el siguiente paso, con el helio, el átomo con dos
electrones. Los años 20 estaban a la vuelta de la esquina y la mecánica cuántica parecía
atascada. Sólo se había dado el primer paso, correspondiente a lo que ahora llamamos la
vieja teoría cuántica.

Los padres fundadores, Planck, Einstein, Rutherford y Bohr, habían comenzado la


revolución pero aún no habían cosechado los beneficios. Estaba claro para todos que la
inocencia se había perdido y que la física se estaba volviendo extraña y misteriosa:
había un mundo de paquetes de energía y electrones que saltaban mágicamente sólo en
ciertas órbitas y no en otras, un mundo donde los fotones son ondas y partículas al
mismo tiempo, sin estar en el fondo de ninguna de las dos. Todavía había mucho que
entender.
Capítulo 5
Un incierto Heisenberg

este es el momento que todos han estado esperando. Estamos a


Y punto de enfrentarnos a la verdadera mecánica cuántica de
frente y entrar en un territorio alienígena y desconcertante. La
nueva ciencia empujó incluso a Wolfgang Pauli, uno de los más
grandes físicos de todos los tiempos, a la exasperación. En 1925,
en una carta a un colega, dijo que estaba dispuesto a abandonar la
lucha: "La física es ahora demasiado difícil. Prefiero ser un actor
cómico, o algo así, que un físico". Si tal gigante del pensamiento
científico hubiera abandonado la investigación para convertirse
en el Jerry Lewis de su tiempo, hoy no estaríamos hablando del
"principio excluyente de Pauli" y la historia de la ciencia podría
haber tomado un rumbo muy diferente1 . El viaje que estamos a
punto de emprender no es recomendable para los débiles de
corazón, pero llegar al destino será una recompensa
extraordinaria.

La naturaleza está hecha en paquetes Empecemos con la vieja teoría cuántica,


formulada por Bohr para dar cuenta de los resultados del experimento de Rutherford.
Como recordarán, reemplazó el modelo del átomo panettone con la idea de que había
un denso núcleo central rodeado de electrones zumbantes, una configuración similar a
la del sistema solar, con nuestra estrella en el centro y los planetas orbitándola. Ya
hemos dicho que este modelo también ha pasado a una vida mejor. Víctima de
refinamientos posteriores, la vieja teoría cuántica, con su loca mezcla de mecánica
clásica y ajustes cuánticos ad hoc, fue en un momento dado completamente
abandonada. Sin embargo, el mérito de Bohr fue presentar al mundo por primera vez
un modelo de átomo cuántico, que ganó credibilidad gracias a los resultados del
brillante experimento que veremos en breve.

Según las leyes clásicas, ningún electrón podría permanecer en órbita alrededor del
núcleo. Su movimiento sería acelerado, como todos los movimientos circulares (porque
la velocidad cambia continuamente de dirección con el tiempo), y según las leyes de
Maxwell cada partícula cargada en movimiento acelerado emite energía en forma de
radiación electromagnética, es decir, luz. Según los cálculos clásicos, un electrón en
órbita perdería casi inmediatamente su energía, que desaparecería en forma de
radiación electromagnética; por lo tanto, la partícula en cuestión perdería altitud y
pronto se estrellaría contra el núcleo. El átomo clásico no podría existir, si no es en
forma colapsada, por lo tanto químicamente muerto e inservible. La teoría clásica no fue
capaz de justificar los valores energéticos de los electrones y los núcleos. Por lo tanto,
era necesario inventar un nuevo modelo: la teoría cuántica.

Además, como ya se sabía a finales del siglo XIX gracias a los datos de las líneas
espectrales, los átomos emiten luz pero sólo con colores definidos, es decir, con
longitudes de onda (o frecuencias) a valores discretos y cuantificados. Casi parece que
sólo pueden existir órbitas particulares, y los electrones están obligados a saltar de una
a otra cada vez que emiten o absorben energía. Si el modelo "kepleriano" del átomo
como sistema solar fuera cierto, el espectro de la radiación emitida sería continuo,
porque la mecánica clásica permite la existencia de un rango continuo de órbitas.
Parece, en cambio, que el mundo atómico es "discreto", muy diferente de la continuidad
prevista por la física newtoniana.

Bohr centró su atención en el átomo más simple de todos, el átomo de hidrógeno,


equipado con un solo protón en el núcleo y un electrón orbitando alrededor de él.
Jugando un poco con las nuevas ideas de la mecánica cuántica, se dio cuenta de que
podía aplicar a los electrones la hipótesis de Planck, es decir, asociar a una cierta
longitud de onda (o frecuencia) el momento (o energía) de un fotón, de la que se podía
deducir la existencia de órbitas discretas. Después de varios intentos, finalmente llegó a
la fórmula correcta. Las órbitas "especiales" de Bohr eran circulares y cada una tenía una
circunferencia asignada, siempre igual a la longitud de onda cuántica del electrón
derivada de la ecuación de Planck. Estas órbitas mágicas correspondían a valores
energéticos particulares, por lo que el átomo sólo podía tener un conjunto discreto de
estados de energía.

Bohr comprendió inmediatamente que había una órbita mínima, a lo largo de la cual el
electrón estaba lo más cerca posible del núcleo. Desde este nivel no podía caer más bajo,
por lo que el átomo no se derrumbó y su destino fatal. Esta órbita mínima se conoce
como el estado fundamental y corresponde al estado de energía mínima del electrón. Su
existencia implica la estabilidad del átomo. Hoy sabemos que esta propiedad
caracteriza a todos los sistemas cuánticos.

La hipótesis de Bohr demostró ser realmente efectiva: de las nuevas ecuaciones todos
los números que correspondían a los valores observados en los experimentos saltaron
uno tras otro. Los electrones atómicos están, como dicen los físicos, "ligados" y sin la
contribución de la energía del exterior continúan girando tranquilamente alrededor del
núcleo. La cantidad de energía necesaria para hacerlos saltar y liberarlos del enlace
atómico se llama, precisamente, energía de enlace, y depende de la órbita en la que se
encuentre la partícula. (Por lo general nos referimos a tal energía como el mínimo
requerido para alejar un electrón del átomo y llevarlo a una distancia infinita y con
energía cinética nula, un estado que convencionalmente decimos energía nula; pero es,
de hecho, sólo una convención). Viceversa, si un electrón libre es capturado por un
átomo, libera una cantidad de energía, en forma de fotones, igual a la cantidad de
enlace de la órbita en la que termina.

Las energías de enlace de las órbitas (es decir, de los estados) se miden generalmente en
unidades llamadas voltios de electrones (símbolo: eV). El estado fundamental en el
átomo de hidrógeno, que corresponde a esa órbita especial de mínima distancia del
núcleo y máxima energía de enlace, tiene una energía igual a 13,6 eV. Este valor se
puede obtener teóricamente también gracias a la llamada "fórmula de Rydberg",
llamada así en honor del físico sueco Johannes Rydberg, quien en 1888 (ampliando
algunas investigaciones de Johann Balmer y otros) había adelantado una explicación
empírica de las líneas espectrales del hidrógeno y otros átomos. De hecho, el valor de
13,6 eV y la fórmula de la que puede derivarse se conocían desde hacía algunos años,
pero fue Bohr quien primero dio una rigurosa justificación teórica.

Los estados cuánticos de un electrón en el átomo de hidrógeno (equivalente a una de las


órbitas de Bohr) se representan con un número entero n = 1, 2, 3, ... El estado con la
mayor energía de unión, el fundamental, corresponde a n=1; el primer estado excitado a
n=2, y así sucesivamente. El hecho de que este conjunto discreto de estados sea el único
posible en los átomos es la esencia de la teoría cuántica. El número n tiene el honor de
tener un nombre propio en la física y se llama "número cuántico principal". Cada
estado, o número cuántico, está caracterizado por un valor energético (en eV, como el
que se ve arriba) y está etiquetado con las letras E1, E2, E3, etc. (véase la nota 3).

Como recordarán, en esta teoría, anticuada pero no olvidada, se espera que los
electrones emitan fotones al saltar de un estado de mayor energía a otro de menor
energía. Esta regla obviamente no se aplica al estado fundamental E1, es decir, cuando
n=1, porque en este caso el electrón no tiene disponible una órbita inferior. Estas
transiciones tienen lugar de una manera completamente predecible y lógica. Si, por
ejemplo, el electrón en el estado n=3 baja al estado n=2, el ocupante de esta última órbita
debe nivelarse hasta n=1. Cada salto va acompañado de la emisión de un fotón con una
energía igual a la diferencia entre las energías de los estados implicados, como E2-E3 o
E1-E2. En el caso del átomo de hidrógeno, los valores numéricos correspondientes son
10,5 eV - 9,2 eV = 1,3 eV, y 13,6 eV - 10,5 eV = 3,1 eV. Dado que la energía E y la longitud
de onda λ de un fotón están relacionadas por la fórmula de Planck E=hf=hc/λ, es posible
derivar la energía de los fotones emitidos midiendo su longitud de onda por
espectroscopia. En la época de Bohr los relatos parecían volver en lo que respecta al
átomo de hidrógeno, el más simple (sólo un electrón alrededor de un protón), pero ya
delante del helio, el segundo elemento en orden de simplicidad, no se sabía bien cómo
proceder.

A Bohr se le ocurrió otra idea, que es medir el momento de los electrones a través de la
absorción de energía por los átomos, invirtiendo el razonamiento visto anteriormente.
Si la hipótesis de los estados cuánticos es cierta, entonces los átomos pueden adquirir
energía sólo en paquetes correspondientes a las diferencias entre las energías de los
estados, E2 - E3, E1 - E2 y así sucesivamente. El experimento crucial para probar esta
hipótesis fue realizado en 1914 por James Franck y Gustav Hertz en Berlín, y fue quizás
la última investigación importante realizada en Alemania antes del estallido de la
Primera Guerra Mundial. Los dos científicos obtuvieron resultados perfectamente
compatibles con la teoría de Bohr, pero no eran conscientes de ello. No conocerían los
resultados del gran físico danés hasta varios años después.

Los terribles años 20

Es difícil darse cuenta del pánico que se extendió entre los más grandes físicos del
mundo a principios de los terribles años 20, entre 1920 y 1925. Después de cuatro siglos
de fe en la existencia de principios racionales que subyacen a las leyes de la naturaleza,
la ciencia se vio obligada a revisar sus propios fundamentos. El aspecto que más
perturbó las conciencias, adormecidas por las tranquilizadoras certezas del pasado, fue
la desconcertante dualidad subyacente de la teoría cuántica. Por un lado, había
abundante evidencia experimental de que la luz se comportaba como una onda,
completa con interferencia y difracción. Como ya hemos visto en detalle, la hipótesis de
la onda es la única capaz de dar cuenta de los datos obtenidos del experimento de la
doble rendija.

Por otra parte, una cosecha igualmente abundante de experiencias demostró


fuertemente la naturaleza de partícula de la luz - y lo vimos en la anterior con la
radiación de cuerpo negro, el efecto fotoeléctrico y el efecto Compton. La conclusión
lógica a la que llevaron estos experimentos fue una y sólo una: la luz de cualquier color,
por lo tanto de cualquier longitud de onda, estaba compuesta por una corriente de
partículas, todas ellas moviéndose en el vacío a la misma velocidad, c. Cada uno tenía
su propio impulso, una cantidad que en la física newtoniana venía dada por el producto
de la masa para la velocidad y que para los fotones es igual a la energía dividida por c.
El impulso es importante (como puede atestiguar cualquiera que haya pasado delante
de una cámara de velocidad), porque su total en un sistema se conserva, es decir, no
cambia ni siquiera después de varios impactos. En el caso clásico se conoce el ejemplo
de la colisión de dos bolas de billar: aunque las velocidades cambien, la suma del
momento antes y después de la colisión permanece constante. El experimento de
Compton ha demostrado que esta conservación también es válida para los que se
comportan como coches y otros objetos macroscópicos.

Deberíamos detenernos un momento para aclarar la diferencia entre ondas y partículas.


En primer lugar, los últimos son discretos. Toma dos vasos, uno lleno de agua y otro de
arena fina. Ambas sustancias cambian de forma y pueden ser vertidas, tanto que, en un
examen no demasiado exhaustivo, parecen compartir las mismas propiedades. Pero el
líquido es continuo, suave, mientras que la arena está formada por granos discretos y
contables. Una cucharadita de agua contiene un cierto volumen de líquido, una
cucharadita de arena se puede cuantificar en el número de granos. La mecánica cuántica
reevalúa cantidades discretas y números enteros, en lo que parece ser un retorno a las
teorías pitagóricas. Una partícula, en cada instante, tiene una posición definida y se
mueve a lo largo de una cierta trayectoria, a diferencia de una onda, que está
"embadurnada" en el espacio. Las partículas, además, tienen una cierta energía e
impulso, que puede transferirse a otras partículas en las colisiones. Por definición, una
partícula no puede ser una onda y viceversa.

De vuelta a nosotros. Los físicos en la década de 1920 estaban desconcertados ante esa
extraña bestia, mitad partícula, mitad onda, que algunos llamaban ondícula
(contracción de onda, onda y partícula, partícula). A pesar de las pruebas bien
establecidas a favor de la naturaleza ondulatoria, experimento tras experimento los
fotones resultaron ser objetos concretos, capaces de colisionar entre sí y con los
electrones. Los átomos emitieron uno cuando salieron de un estado de excitación,
liberando la misma cantidad de energía, E=hf, transportada por el propio fotón. La
historia tomó un giro aún más sorprendente con la entrada de un joven físico francés, el
aristócrata Louis-Cesar-Victor-Maurice de Broglie, y su memorable tesis doctoral.

La familia de Broglie, entre cuyos miembros sólo había oficiales de alto rango,
diplomáticos o políticos, era muy hostil a las inclinaciones de Louis. El viejo duque, su
abuelo, llamaba a la ciencia "una anciana que busca la admiración de los jóvenes". Así
que el vástago, en aras del compromiso, emprendió sus estudios para convertirse en
oficial de la marina, pero continuó experimentando en su tiempo libre, gracias al
laboratorio que había instalado en la mansión ancestral. En la marina se hizo un nombre
como experto en transmisión y después de la muerte del viejo duque se le permitió
tomarse un permiso para dedicarse a tiempo completo a su verdadera pasión.
De Broglie había reflexionado largamente sobre las dudas de Einstein acerca del efecto
fotoeléctrico, que era incompatible con la naturaleza ondulante de la luz y que
corroboraba la hipótesis de los fotones. Mientras releía el trabajo del gran científico, al
joven francés se le ocurrió una idea muy poco ortodoxa. Si la luz, que parecería ser una
onda, exhibe un comportamiento similar al de las partículas, quizás lo contrario
también pueda ocurrir en la naturaleza. Tal vez las partículas, todas las partículas,
exhiben un comportamiento ondulatorio en ciertas ocasiones. En palabras de de Broglie:
"La teoría del átomo de Bohr me llevó a formular la hipótesis de que los electrones
también podían considerarse no sólo partículas, sino también objetos a los que era
posible asignar una frecuencia, que es una propiedad ondulatoria".

Unos años antes, un estudiante de doctorado que hubiera elegido esta audaz hipótesis
para su tesis se habría visto obligado a trasladarse a la facultad de teología de alguna
oscura universidad de Molvania Citeriore. Pero en 1924 todo era posible, y de Broglie
tenía un admirador muy especial. El gran Albert Einstein fue llamado por sus perplejos
colegas parisinos como consultor externo para examinar la tesis del candidato, que le
pareció muy interesante (tal vez también pensó "pero ¿por qué no tuve esta idea?"). En
su informe a la comisión parisina, el Maestro escribió: "De Broglie ha levantado una
solapa del gran velo". El joven francés no sólo obtuvo el título, sino que unos años más
tarde recibió incluso el Premio Nobel de Física, gracias a la teoría presentada en su tesis.
Su mayor éxito fue haber encontrado una relación, modelada en la de Planck, entre el
momento clásico de un electrón (masa por velocidad) y la longitud de onda de la onda
correspondiente. Pero, ¿una ola de qué? Un electrón es una partícula, por el amor de
Dios, ¿dónde está la onda? De Broglie habló de "un misterioso fenómeno con caracteres
de periodicidad" que tuvo lugar dentro de la propia partícula. Parece poco claro, pero
estaba convencido de ello. Y aunque su interpretación era humeante, la idea subyacente
era brillante.

En 1927, dos físicos americanos que trabajaban en los prestigiosos Laboratorios Bell de
AT&T, Nueva Jersey, estudiaban las propiedades de los tubos de vacío bombardeando
con flujos de electrones varios tipos de cristales. Los resultados fueron bastante
extraños: los electrones salieron de los cristales según las direcciones preferidas y
parecían ignorar a los demás. Los investigadores del Laboratorio Bell no lo sabían, hasta
que descubrieron la loca hipótesis de De Broglie. Visto desde este nuevo punto de vista,
su experimento era sólo una versión compleja del de Young, con la doble rendija, y el
comportamiento de los electrones mostraba una propiedad bien conocida de las ondas,
que es la difracción! Los resultados habrían tenido sentido si se hubiera asumido que la
longitud de onda de los electrones estaba realmente relacionada con su impulso, tal
como de Broglie había predicho. La red regular de átomos en los cristales era el
equivalente a las fisuras del experimento de Young, que tenía más de un siglo de
antigüedad. Este descubrimiento fundamental de la "difracción electrónica" corroboró la
tesis de de Broglie: los electrones son partículas que se comportan como ondas, y
también es bastante fácil de verificar.

Volveremos en breve a la cuestión de la difracción, rehaciendo nuestro ya conocido


experimento de doble rendija con electrones, que nos dará un resultado aún más
desconcertante. Aquí sólo observamos que esta propiedad es responsable del hecho de
que los diversos materiales se comportan como conductores, aislantes o
semiconductores, y está en la base de la invención de los transistores. Ahora tenemos
que conocer a otro protagonista - tal vez el verdadero superhéroe de la revolución
cuántica.

Una matemática extraña Werner Heisenberg (1901-1976) fue el príncipe de los teóricos,
tan desinteresado en la práctica del laboratorio que se arriesgó a reprobar su tesis en la
Universidad de Munich porque no sabía cómo funcionaban las baterías.
Afortunadamente para él y para la física en general, también fue ascendido. Hubo otros
momentos no fáciles en su vida. Durante la Primera Guerra Mundial, mientras su padre
estaba en el frente como soldado, la escasez de alimentos y combustible en la ciudad era
tal que las escuelas y universidades se veían a menudo obligadas a suspender las clases.
Y en el verano de 1918 el joven Werner, debilitado y desnutrido, se vio obligado, junto
con otros estudiantes, a ayudar a los agricultores en una cosecha agrícola bávara.

Al final de la guerra, a principios de los años 20, era un joven prodigio: pianista de alto
nivel, esquiador y alpinista hábil, así como matemático licenciado en física. Durante las
lecciones del viejo maestro Arnold Sommerfeld, conoció a otro joven prometedor,
Wolfgang Pauli, que más tarde se convertiría en su más cercano colaborador y su más
feroz crítico. En 1922 Sommerfeld llevó a Heisenberg, de 21 años, a Göttingen, entonces
el faro de la ciencia europea, para asistir a una serie de conferencias sobre la naciente
física atómica cuántica, impartidas por el propio Niels Bohr. En esa ocasión el joven
investigador, nada intimidado, se atrevió a contrarrestar algunas de las afirmaciones del
gurú y desafiar su modelo teórico de raíz. Sin embargo, después de este primer
enfrentamiento, nació una larga y fructífera colaboración entre ambos, marcada por la
admiración mutua.

Desde ese momento Heisenberg se dedicó en cuerpo y alma a los enigmas de la


mecánica cuántica. En 1924 pasó un tiempo en Copenhague, para trabajar directamente
con Bohr en los problemas de emisión y absorción de radiación. Allí aprendió a apreciar
la "actitud filosófica" (en palabras de Pauli) del gran físico danés. Frustrado por las
dificultades de concretar el modelo atómico de Bohr, con sus órbitas puestas de esa
manera quién sabe cómo, el joven se convenció de que debe haber algo malo en la raíz.
Cuanto más lo pensaba, más le parecía que esas órbitas simples, casi circulares, eran un
excedente, una construcción puramente intelectual. Para deshacerse de ellos, comenzó a
pensar que la idea misma de la órbita era un residuo newtoniano del que había que
prescindir.

El joven Werner se impuso una doctrina feroz: ningún modelo debe basarse en la física
clásica (por lo tanto, nada de sistemas solares en miniatura, aunque sean lo
suficientemente bonitos para dibujar). El camino a la salvación no fue la intuición o la
estética, sino el rigor matemático. Otro de sus dikats conceptuales era la renuncia a
todas las entidades (como las órbitas, para ser precisos) que no se podían medir
directamente.

En los átomos se medían las líneas espectrales, testigos de la emisión o absorción de


fotones por parte de los átomos como resultado del salto entre los niveles de electrones.
Así que fue a esas líneas netas, visibles y verificables correspondientes al inaccesible
mundo subatómico a las que Heisenberg dirigió su atención. Para resolver este
problema diabólicamente complicado, y para encontrar alivio a la fiebre del heno, en
1925 se retiró a Helgoland, una isla remota en el Mar del Norte.

Su punto de partida fue el llamado "principio de correspondencia", enunciado por Bohr,


según el cual las leyes cuánticas debían transformarse sin problemas en las
correspondientes leyes clásicas cuando se aplicaban a sistemas suficientemente grandes.
¿Pero cómo de grande? Tan grande que fue posible descuidar la constante h de Planck
en las ecuaciones relativas. Un objeto típico del mundo atómico tiene una masa igual a
10-27 kg; consideremos que un grano de polvo apenas visible a simple vista puede
pesar 10-7 kg: muy poco, pero aún así es mayor que un factor 100000000000000, es decir,
1020, un uno seguido de veinte ceros. Así que el polvo atmosférico está claramente
dentro del dominio de la física clásica: es un objeto macroscópico y su movimiento no se
ve afectado por la presencia de factores dependientes de la constante de Planck. Las
leyes cuánticas básicas se aplican naturalmente a los fenómenos del mundo atómico y
subatómico, mientras que pierde sentido utilizarlas para describir fenómenos
relacionados con agregados más grandes que los átomos, a medida que las dimensiones
crecen y la física cuántica da paso a las leyes clásicas de Newton y Maxwell. El
fundamento de este principio (como volveremos a repetir muchas veces) radica en el
hecho de que los extraños e inéditos efectos cuánticos "se corresponden" directamente
con los conceptos clásicos de la física al salir del campo atómico para entrar en el
macroscópico.

Impulsado por las ideas de Bohr, Heisenberg redefinió en el campo cuántico las
nociones más banales de la física clásica, como la posición y la velocidad de un electrón,
para que estuvieran en correspondencia con los equivalentes newtonianos. Pero pronto
se dio cuenta de que sus esfuerzos por reconciliar dos mundos llevaron al surgimiento
de un nuevo y extraño "álgebra de la física".

Todos aprendimos en la escuela la llamada propiedad conmutativa de la multiplicación,


es decir, el hecho de que, dados dos números cualesquiera a y b, su producto no cambia
si los intercambiamos; en símbolos: a×b=b×a. Es obvio, por ejemplo, que 3×4 =4×3=12.
Sin embargo, en la época de Heisenberg se conoce desde hace mucho tiempo la
existencia de sistemas numéricos abstractos en los que la propiedad conmutativa no
siempre es válida y no se dice que a × b sea igual a b × a. Pensándolo bien, también se
pueden encontrar ejemplos de operaciones no conmutables en la naturaleza. Un caso
clásico son las rotaciones e inclinaciones (intente realizar dos rotaciones diferentes en un
objeto como un libro, y encontrará ejemplos en los que el orden en que se producen es
importante).

Heisenberg no había estudiado a fondo las fronteras más avanzadas de las matemáticas
puras de su tiempo, pero pudo contar con la ayuda de colegas más experimentados, que
reconocieron inmediatamente el tipo de álgebra que contenían sus definiciones: no eran
más que multiplicaciones de matrices con valores complejos. El llamado "álgebra
matricial" era una exótica rama de las matemáticas, conocida desde hace unos sesenta
años, que se utilizaba para tratar objetos formados por filas y columnas de números:
matrices. El álgebra matrimonial aplicada al formalismo de Heisenberg (llamada
mecánica matricial) condujo a la primera disposición concreta de la física cuántica. Sus
cálculos condujeron a resultados sensatos para las energías de los estados y las
transiciones atómicas, es decir, saltos en el nivel de los electrones.

Cuando se aplicó la mecánica matricial no sólo al caso del átomo de hidrógeno, sino
también a otros sistemas microscópicos simples, se descubrió que funcionaba de
maravilla: las soluciones obtenidas teóricamente coincidían con los datos
experimentales. Y de esas extrañas manipulaciones de las matrices surgió un concepto
revolucionario.

Los primeros pasos del principio de incertidumbre La principal consecuencia de la no


conmutación resultó ser esta. Si indicamos con x la posición a lo largo de un eje y p el
momento, siempre a lo largo del mismo eje, de una partícula, el hecho de que xp no sea
igual a px implica que los dos valores no pueden ser medidos simultáneamente de una
manera definida y precisa. En otras palabras, si obtenemos la posición exacta de una
partícula, perturbamos el sistema de tal manera que ya no es posible conocer su
momento, y viceversa. La causa de esto no es tecnológica, no son nuestros instrumentos
los que son inexactos: es la naturaleza la que está hecha de esta manera.
En el formalismo de la mecánica matricial podemos expresar esta idea de manera
concisa, lo que siempre ha enloquecido a los filósofos de la ciencia: "La incertidumbre
relacionada con la posición de una partícula, indicada con Δx, y la relacionada con el
impulso, Δp, están vinculadas por la relación: ΔxΔp≥ħ/2, donde ħ=h/2π". En palabras:
"el producto de las incertidumbres relativas a la posición y el momento de una partícula
es siempre mayor o igual a un número igual a la constante de Planck dividido por
cuatro veces pi". Esto implica que si medimos la posición con gran precisión, haciendo
así que Δx sea lo más pequeño posible, automáticamente hacemos que Δp sea
arbitrariamente grande, y viceversa. No se puede tener todo en la vida: hay que
renunciar a saber exactamente la posición, o el momento.

A partir de este principio también podemos deducir la estabilidad del átomo de Bohr, es
decir, demostrar la existencia de un estado fundamental, una órbita inferior bajo la cual
el electrón no puede descender, como sucede en cambio en la mecánica newtoniana. Si
el electrón se acercara cada vez más al núcleo hasta que nos golpeara, la incertidumbre
sobre su posición sería cada vez menor, es decir, como dicen los científicos Δx "tendería
a cero". De acuerdo con el principio de Heisenberg Δp se volvería arbitrariamente
grande, es decir, la energía del electrón crecería más y más. Se muestra que existe un
estado de equilibrio en el que el electrón está "bastante" bien ubicado, con Δx diferente
de cero, y en el que la energía es la mínima posible, dado el valor correspondiente de
Δp.

La relación física del principio de incertidumbre es más fácil de entender si nos


ponemos en otro orden de razonamiento, à la Schrödinger, y examinamos una
propiedad (no cuántica) de las ondas electromagnéticas, bien conocida en el campo de
las telecomunicaciones. Sí, estamos a punto de volver a las olas. La mecánica de las
matrices parecía a primera vista la única forma rigurosa de penetrar en los meandros
del mundo atómico. Pero afortunadamente, mientras los físicos se preparaban para
convertirse en expertos en álgebra, otra solución más atractiva para el problema surgió
en 1926.

La ecuación más hermosa de la historia Ya conocimos a Erwin Schrödinger en el


capítulo 1. Como recordarán, en un momento dado se tomó unas vacaciones en Suiza
para estudiar en paz, y el fruto de este período fue una ecuación, la ecuación de
Schrödinger, que aportó una claridad considerable al mundo cuántico.

¿Por qué es tan importante? Volvamos a la primera ley de Newton, la F=pero que
gobierna el movimiento de las manzanas, los planetas y todos los objetos
macroscópicos. Nos dice que la fuerza F aplicada a un objeto de masa m produce una
aceleración (es decir, un cambio de velocidad) a y que estas tres cantidades están
vinculadas por la relación escrita arriba. Resolver esta ecuación nos permite conocer el
estado de un cuerpo, por ejemplo una pelota de tenis, en cada momento. Lo importante,
en general, es conocer la F, de la que luego derivamos la posición x y la velocidad v en
el instante t. Las relaciones entre estas cantidades se establecen mediante ecuaciones
diferenciales, que utilizan conceptos de análisis infinitesimal (inventados por el propio
Newton) y que a veces son difíciles de resolver (por ejemplo, cuando el sistema está
compuesto por muchos cuerpos). La forma de estas ecuaciones es, sin embargo,
bastante simple: son los cálculos y aplicaciones los que se complican.

Newton asombró al mundo demostrando que combinando la ley de la gravitación


universal con la ley del movimiento, aplicada a la fuerza de la gravedad, podíamos
obtener las sencillas órbitas elípticas y las leyes del movimiento planetario que Kepler
había enunciado para el sistema solar. La misma ecuación es capaz de describir los
movimientos de la Luna, de una manzana que cae del árbol y de un cohete disparado
en órbita. Sin embargo, esta ecuación no puede resolverse explícitamente si están
involucrados cuatro o más cuerpos, todos sujetos a la interacción gravitatoria; en este
caso es necesario proceder por aproximaciones y/o con la ayuda de métodos numéricos
(gracias a las calculadoras). Es un buen caso: en la base de las leyes de la naturaleza hay
una fórmula aparentemente simple, pero que refleja la increíble complejidad de nuestro
mundo. La ecuación de Schrödinger es la versión cuántica de F=ma. Sin embargo, si lo
resolvemos, no nos encontramos con los valores de posición y velocidad de las
partículas, como en el caso newtoniano.

En esas vacaciones de diciembre de 1925, Schrödinger trajo consigo no sólo a su amante,


sino también una copia de la tesis doctoral de de Broglie. Muy pocos, en ese momento,
se habían dado cuenta de las ideas del francés, pero después de la lectura de
Schrödinger las cosas cambiaron rápidamente. En marzo de 1926, este profesor de 40
años de la Universidad de Zurich, que hasta entonces no había tenido una carrera
particularmente brillante y que para los estándares del joven físico de la época era casi
decrépito, dio a conocer al mundo su ecuación, que trataba del movimiento de los
electrones en términos de ondas, basada en la tesis de de Broglie. Para sus colegas
resultó ser mucho más digerible que las frías abstracciones de la mecánica matricial. En
la ecuación de Schrödinger apareció una nueva cantidad fundamental, la función de
onda, indicada con Ψ, que representa su solución.

Desde mucho antes del nacimiento oficial de la mecánica cuántica, los físicos fueron
utilizados para tratar (clásicamente) varios casos de ondas materiales en el continuo,
como las ondas de sonido que se propagan en el aire. Veamos un ejemplo con el sonido.
La cantidad que nos interesa es la presión ejercida por la onda en el aire, que indicamos
con Ψ(x,t). Desde el punto de vista matemático se trata de una "función", una receta que
da el valor de la presión de onda (entendida como una variación de la presión
atmosférica estándar) en cada punto x del espacio y en cada instante t. Las soluciones de
la ecuación clásica relativa describen naturalmente una onda que "viaja" en el espacio y
el tiempo, "perturbando" el movimiento de las partículas de aire (o agua, o un campo
electromagnético u otro). Las olas del mar, los tsunamis y la bella compañía son todas
las formas permitidas por estas ecuaciones, que son del tipo "diferencial": implican
cantidades que cambian, y para entenderlas es necesario conocer el análisis matemático.
La "ecuación de onda" es un tipo de ecuación diferencial que si se resuelve nos da la
"función de onda" Ψ(x,t) - en nuestro ejemplo la presión del aire que varía en el espacio
y el tiempo a medida que pasa una onda sonora.

Gracias a las ideas de de Broglie, Schrödinger comprendió inmediatamente que los


complejos tecnicismos de Heisenberg podían ser reescritos de tal manera que se
obtuvieran relaciones muy similares a las antiguas ecuaciones de la física clásica, en
particular las de las ondas. Desde un punto de vista formal, una partícula cuántica fue
descrita por la función Ψ(x,t), que el propio Schrödinger llamó "función de onda". Con
esta interpretación y aplicando los principios de la física cuántica, es decir, resolviendo
la ecuación de Schrödinger, fue posible en principio calcular la función de onda de cada
partícula conocida en ese momento, en casi todos los casos. El problema era que nadie
tenía idea de lo que representaba esta cantidad.

Como consecuencia de la introducción de Ψ, ya no se puede decir que "en el instante t


la partícula está en x", sino que hay que decir que "el movimiento de la partícula está
representado por la función Ψ(x,t), que da la amplitud Ψ en el momento t en el punto
x". Ya no se conoce la posición exacta. Si vemos que Ψ es particularmente grande en un
punto x y casi nada en otro lugar, podemos sin embargo decir que la partícula está "más
o menos en la posición x". Las ondas son objetos difundidos en el espacio, y también lo
es la función de las ondas. Observamos que estos razonamientos son retrospectivos,
porque en los años que estamos considerando nadie, incluyendo a Schrödinger, tenía
ideas muy claras sobre la verdadera naturaleza de la función de onda.

Aquí, sin embargo, hay un giro, que es uno de los aspectos más sorprendentes de la
mecánica cuántica. Schrödinger se dio cuenta de que su función de onda era, como se
esperaría de una onda, continua en el espacio y en el tiempo, pero que para hacer que
las cosas se sumen, tenía que tomar números diferentes de los reales. Y esto es una gran
diferencia con las ondas normales, ya sean mecánicas o electromagnéticas, donde los
valores son siempre reales. Por ejemplo, podemos decir que la cresta de una ola
oceánica se eleva desde el nivel medio del mar por 2 metros (y por lo tanto tenemos que
exponer la bandera roja en la playa); o aún peor que se acerca un tsunami de 10 metros
de altura, y por lo tanto tenemos que evacuar las zonas costeras a toda prisa. Estos
valores son reales, concretos, medibles con diversos instrumentos, y todos entendemos
su significado.

La función de onda cuántica, por el contrario, asume valores en el campo de los


llamados "números complejos "15 . Por ejemplo, puede suceder que en el punto x la
amplitud sea igual a una "materia" que se escribe 0,3+0,5i, donde i=√-1. En otras
palabras, el número i multiplicado por sí mismo da el resultado -1. Un objeto como el
que está escrito arriba, formado por un número real añadido a otro número real
multiplicado por i, se llama un número complejo. La ecuación de Schrödinger siempre
implica la presencia de i, un número que juega un papel fundamental en la propia
ecuación, por lo que la función de onda asume valores complejos.16

Esta complicación matemática es un paso inevitable en el camino hacia la física cuántica


y es otra indicación de que la función de onda de una partícula no es directamente
medible: después de todo, los números reales siempre se obtienen en los experimentos.
En la visión de Schrödinger, un electrón es una ola para todos los propósitos, no muy
diferente de un sonido o una ola marina. ¿Pero cómo es posible, ya que una partícula
tiene que estar ubicada en un punto definido y no puede ocupar porciones enteras del
espacio? El truco es superponer varias ondas de tal manera que se borren casi en todas
partes excepto en el punto que nos interesa. Así pues, una combinación de ondas logra
representar un objeto bien situado en el espacio, que estaríamos tentados de llamar
"partícula" y que aparece cada vez que la suma de las ondas da lugar a una
concentración particular en un punto. En este sentido, una partícula es una "onda
anómala", similar al fenómeno causado en el mar por la superposición de las olas, que
crea una gran perturbación capaz de hacer volcar las embarcaciones.

Una eterna adolescente ¿Dónde está la teoría cuántica después de los descubrimientos
de Heisenberg, Schrödinger, Bohr, Born y colegas? Existen las funciones de onda
probabilística por un lado y el principio de incertidumbre por el otro, que permite
mantener el modelo de partículas. La crisis de la dualidad "un poco de onda un poco de
partícula" parece resuelta: los electrones y los fotones son partículas, cuyo
comportamiento es descrito por ondas probabilísticas. Como ondas están sujetas a
fenómenos de interferencia, haciendo que las partículas dóciles aparezcan donde se
espera que lo hagan, obedeciendo a la función de la onda. Cómo llegan allí no es un
problema que tenga sentido. Esto es lo que dicen en Copenhague. El precio a pagar por
el éxito es la intrusión en la física de la probabilidad y varias peculiaridades cuánticas.

La idea de que la naturaleza (o Dios) juega a los dados con la materia subatómica no le
gustaba a Einstein, Schrödinger, de Broglie, Planck y muchos otros. Einstein, en
particular, estaba convencido de que la mecánica cuántica era sólo una etapa, una teoría
provisional que tarde o temprano sería sustituida por otra, determinística y causal. En
la segunda parte de su carrera, el gran físico hizo varios intentos ingeniosos para evitar
el problema de la incertidumbre, pero sus esfuerzos se vieron frustrados uno tras otro
por Bohr, supuestamente para su maligna satisfacción.

Por lo tanto, debemos cerrar el capítulo suspendido entre los triunfos de la teoría y un
cierto sentimiento de inquietud. A finales de los años 20 la mecánica cuántica era ahora
una ciencia adulta, pero aún susceptible de crecimiento: sería profundamente revisada
varias veces, hasta los años 40.
Capítulo 6
Quantum

omo para confirmar su apariencia sobrenatural, la teoría


C cuántica de Heisenberg y Schrödinger realizó literalmente
milagros. El modelo del átomo de hidrógeno se aclaró sin
necesidad de las muletas conceptuales de Kepler: las órbitas
fueron sustituidas por "orbitales", hijos de las nuevas e
indeterminadas funciones de onda. La nueva mecánica cuántica
resultó ser una herramienta formidable en manos de los físicos,
que cada vez aplicaron mejor la ecuación de Schrödinger a varios
sistemas atómicos y subatómicos y a campos de creciente
complejidad. Como dijo Heinz Pagels, "la teoría liberó las
energías intelectuales de miles de jóvenes investigadores en todas
las naciones industrializadas. En ninguna otra ocasión una serie
de ideas científicas ha tenido consecuencias tan fundamentales en
el desarrollo tecnológico; sus aplicaciones siguen conformando la
historia política y social de nuestra civilización "1 .

Pero cuando decimos que una teoría o modelo "funciona", ¿qué queremos decir
exactamente? Que es matemáticamente capaz de hacer predicciones sobre algún
fenómeno natural, comparable con los datos experimentales. Si las predicciones y
mediciones acumuladas en nuestras experiencias se coliman, entonces la teoría funciona
"ex post", es decir, explica por qué sucede un cierto hecho, que antes nos era
desconocido.

Por ejemplo, podríamos preguntarnos qué sucede al lanzar dos objetos de diferente
masa desde un punto alto, digamos la torre de Pisa. La demostración de Galileo y todos
los experimentos realizados posteriormente muestran que, a menos que haya pequeñas
correcciones debido a la resistencia del aire, dos objetos graves de masas diferentes que
caen desde la misma altura llegan al suelo al mismo tiempo. Esto es cien por ciento
cierto en ausencia de aire, como se ha demostrado espectacularmente en la Luna en
vivo por televisión: la pluma y el martillo dejados caer por un astronauta llegaron
exactamente al mismo tiempo.2 La teoría original y profunda que se ha confirmado en
este caso es la gravitación universal newtoniana, combinada con sus leyes de
movimiento. Al juntar las ecuaciones relacionadas, podemos predecir cuál será el
comportamiento de un cuerpo en caída sujeto a la fuerza de la gravedad y calcular
cuánto tiempo llevará alcanzar el suelo. Es un juego de niños verificar que dos objetos
de masas diferentes lanzados desde la misma altura deben llegar al suelo al mismo
tiempo (si descuidamos la resistencia del aire).3

Pero una buena teoría también debe hacernos capaces de predecir la evolución de
fenómenos aún no observados. Cuando se lanzó el satélite ECHO en 1958, por ejemplo,
se utilizaron la gravitación y las leyes de movimiento de Newton para calcular de
antemano la trayectoria que seguiría, anotar la fuerza de empuje y otros factores
correctivos importantes, como la velocidad del viento y la rotación de la Tierra. El poder
de predicción de una ley depende, por supuesto, del grado de control que pueda
ejercerse sobre los diversos factores involucrados. Desde todo punto de vista, la teoría
de Newton ha demostrado ser extraordinariamente exitosa, tanto en las verificaciones
ex post como en el campo de la predicción, cuando se aplica a su vasto alcance:
velocidades no demasiado altas (mucho más bajas que la luz) y escalas no demasiado
pequeñas (mucho más grandes que las atómicas).

Newton no escribe correos electrónicos Preguntémonos ahora si la mecánica cuántica es


capaz de explicar (ex post) el mundo que nos rodea y si puede utilizarse para predecir
la existencia de fenómenos aún no observados, lo que la hace indispensable en el
descubrimiento de nuevas y útiles aplicaciones. La respuesta a ambas preguntas es un sí
convencido. La teoría cuántica ha pasado innumerables pruebas experimentales, en
ambos sentidos. Está injertada en las teorías que la precedieron, la mecánica newtoniana
y el electromagnetismo de Maxwell, siempre que la marca cuántica, la famosa constante
de Planck h, no sea tan pequeña como para poder ser ignorada en los cálculos. Esto
ocurre cuando las masas, dimensiones y escalas de tiempo de los objetos y eventos son
comparables a las del mundo atómico. Y como todo está compuesto de átomos, no debe
sorprendernos que estos fenómenos a veces levanten la cabeza y hagan sentir su
presencia incluso en el mundo macroscópico, donde se encuentran los seres humanos y
sus instrumentos de medición.

En este capítulo exploraremos las aplicaciones de esta extraña teoría, que nos parecerá
relacionada con la brujería. Podremos explicar toda la química, desde la tabla periódica
de los elementos hasta las fuerzas que mantienen unidas las moléculas de los
compuestos, de los cuales hay miles de millones de tipos. Luego veremos cómo la física
cuántica afecta virtualmente todos los aspectos de nuestras vidas. Si bien es cierto que
Dios juega a los dados con el universo, ha logrado controlar los resultados de los juegos
para darnos el transistor, el diodo de túnel, los láseres, los rayos X, la luz de sincrotrón,
los marcadores radiactivos, los microscopios de efecto túnel de barrido, los
superconductores, la tomografía por emisión de positrones, los superfluidos, los
reactores nucleares, las bombas atómicas, las imágenes de resonancia magnética y los
microchips, sólo para dar algunos ejemplos. Probablemente no tengas superconductores
o microscopios de escaneo, pero ciertamente tienes cientos de millones de transistores
en la casa. Su vida es tocada de mil maneras por tecnologías posibles a través de la física
cuántica. Si tuviéramos un universo estrictamente newtoniano, no podríamos navegar
por Internet, no sabríamos qué es el software, y no habríamos visto las batallas entre
Steve Jobs y Bill Gates (o mejor dicho, habrían sido rivales multimillonarios en otro
sector, como los ferrocarriles). Podríamos habernos ahorrado unos cuantos problemas
que plagan nuestro tiempo, pero ciertamente no tendríamos las herramientas para
resolver muchos más.

Las consecuencias en otros campos científicos, más allá de los límites de la física, son
igualmente profundas. Erwin Schrödinger, a quien debemos la elegante ecuación que
rige todo el mundo cuántico, escribió en 1944 un libro profético titulado Qué es la vida4
, en el que hizo una hipótesis sobre la transmisión de la información genética. El joven
James Watson leyó este notable trabajo y fue estimulado a investigar la naturaleza de
los genes. El resto de la historia es bien conocida: junto con Francis Crick, en la década
de 1950 Watson descubrió la doble hélice del ADN, iniciando la revolución de la
biología molecular y, más tarde, la inescrupulosa ingeniería genética de nuestros
tiempos. Sin la revolución cuántica no habríamos podido comprender la estructura de
las moléculas más simples, y mucho menos el ADN, que es la base de toda la vida.5 Al
adentrarse en áreas más fronterizas y especulativas, los cuantos podrían ofrecer la
solución a problemas como la naturaleza de la mente, la conciencia y la autopercepción,
o al menos esto es lo que afirman algunos físicos teóricos temerarios que se atreven a
enfrentarse al campo de las ciencias cognitivas.

La mecánica cuántica sigue arrojando luz sobre los fenómenos químicos hasta el día de
hoy. En 1998, por ejemplo, se concedió el Premio Nobel de Química a dos físicos, Walter
Kohn y John Pople, por el descubrimiento de poderosas técnicas de computación para
resolver las ecuaciones cuánticas que describen la forma y las interacciones de las
moléculas. Astrofísica, ingeniería nuclear, criptografía, ciencia de los materiales,
electrónica: estas ramas del conocimiento y otras, incluyendo la química, la biología, la
bioquímica y así sucesivamente, se empobrecerían sin los cuantos. Lo que llamamos
computación probablemente sería poco más que diseñar archivos para documentos en
papel. ¿Qué haría esta disciplina sin la incertidumbre de Heisenberg y las
probabilidades de Born?

Sin los cuantos no hubiéramos podido entender realmente la estructura y las


propiedades de los elementos químicos, que habían estado bien asentados en la tabla
periódica durante medio siglo. Son los elementos, sus reacciones y sus combinaciones
los que dan vida a todo lo que nos rodea y a la vida misma.

Un juego con Dmitri Mendeleev La química era una ciencia seria y vital, como la física,
mucho antes de que la teoría cuántica entrara en escena. Fue a través de la investigación
química de John Dalton que la realidad de los átomos fue confirmada en 1803, y los
experimentos de Michael Faraday llevaron al descubrimiento de sus propiedades
eléctricas. Pero nadie entendía cómo eran realmente las cosas. La física cuántica
proporcionó a la química un modelo sofisticado y racional capaz de explicar la
estructura detallada y el comportamiento de los átomos, así como un formalismo para
comprender las propiedades de las moléculas y predecir de forma realista su formación.
Todos estos éxitos fueron posibles precisamente por la naturaleza probabilística de la
teoría.

Sabemos que la química no es un tema muy querido, aunque es la base de mucha


tecnología moderna. Todos esos símbolos y números escritos en el fondo confunden las
ideas. Pero estamos convencidos de que si se dejan llevar en este capítulo para explorar
la lógica de la disciplina, se convencerán. El descubrimiento de los misterios del átomo
es una de las novelas de misterio más convincentes de la historia de la humanidad.

El estudio de la química, como todo el mundo sabe, parte de la tabla periódica de los
elementos, que adorna las paredes de cientos de miles de aulas en todo el mundo. Su
invento fue una verdadera hazaña científica, lograda en gran parte por el
sorprendentemente prolífico Dmitri Ivanovič Mendeleev (1834-1907). Figura destacada
de la Rusia zarista, Mendeleev fue un gran erudito, capaz de escribir cuatrocientos
libros y artículos, pero también se interesó por las aplicaciones prácticas de su trabajo,
tanto que dejó contribuciones sobre temas como el uso de fertilizantes, la producción de
queso en cooperativas, la normalización de pesos y medidas, los aranceles aduaneros en
Rusia y la construcción naval. Políticamente radical, se divorció de su esposa para
casarse con una joven estudiante del instituto de arte. A juzgar por las fotos de época, le
gustaba mantener el pelo largo.7

El diagrama de Mendeleev proviene de ordenar los elementos aumentando el peso


atómico. Observamos que por "elemento" nos referimos a una simple sustancia,
compuesta por átomos del mismo tipo. Un bloque de grafito y un diamante están
hechos de la misma sustancia, el carbono, aunque los átomos tengan una estructura
diferente: en un caso dan lugar a un material oscuro y útil para hacer lápices, en el otro
a objetos útiles para ser bellos a los ojos de la novia o para perforar el más duro de los
metales. Viceversa, el agua no es un elemento sino un compuesto químico, porque está
compuesta de átomos de oxígeno e hidrógeno unidos por fuerzas eléctricas. Incluso las
moléculas compuestas obedecen a la ecuación de Schrödinger.

El "peso atómico" que mencionamos antes no es más que la masa característica de cada
átomo. Todos los átomos de la misma sustancia, digamos el oxígeno, tienen la misma
masa. Lo mismo ocurre con los átomos de nitrógeno, que son un poco menos pesados
que los átomos de oxígeno. Hay sustancias muy ligeras, como el hidrógeno, la más
ligera de todas, y otras muy pesadas, como el uranio, cientos de veces más masivas que
el hidrógeno. La masa atómica se mide por comodidad con una unidad de medida
especial y se indica con la letra M,8 pero aquí no es importante entrar en los detalles de
los valores individuales. Estamos más bien interesados en la lista de los elementos en
orden creciente de peso atómico. Mendeleev se dio cuenta de que la posición de un
elemento en esta lista tenía una clara correspondencia con sus propiedades químicas:
era la clave para penetrar en los misterios de la materia.

El Sr. Pauli entra en escena Los sistemas físicos tienden a organizarse en un estado de
menor energía. En los átomos, las reglas cuánticas y la ecuación de Schrödinger
proporcionan las configuraciones permitidas en las que los electrones pueden moverse,
las orbitales, cada una de las cuales tiene su propio y preciso nivel de energía. El último
paso para desentrañar todos los misterios del átomo comienza aquí, y es un
descubrimiento extraordinario y sorprendente: ¡cada órbita tiene espacio para un
máximo de dos electrones! Si no, el mundo físico sería muy diferente.

Aquí es donde entra en juego el genio de Wolfgang Pauli, este irascible y legendario
científico que representó en cierto sentido la conciencia de su generación, el hombre que
aterrorizaba a colegas y estudiantes, que a veces firmaba él mismo "La Ira de Dios" y
sobre el que oiremos más a menudo (véase también la nota 1 del capítulo 5).

Para evitar las pilas de electrones en el s1, en 1925 Pauli formuló la hipótesis de que era
válido el llamado principio de exclusión, según el cual dos electrones dentro de un
átomo nunca pueden estar en el mismo estado cuántico simultáneamente. Gracias al
principio de exclusión hay un criterio para poner las partículas en el lugar correcto al
subir a los átomos cada vez más pesados. Por cierto, el mismo principio es lo que nos
impide atravesar las paredes, porque nos asegura que los electrones de nuestro cuerpo
no pueden estar en el estado de los de la pared y deben permanecer separados por
vastos espacios, como las casas de las Grandes Praderas.

El profesor Pauli era un caballero bajito, regordete, creativo e hipercrítico con un


espíritu sarcástico que era el terror y el deleite de sus colegas. Ciertamente no le faltó
modestia, ya que escribió un artículo cuando era adolescente en el que explicaba
convincentemente la teoría de la relatividad a los físicos. Su carrera estuvo marcada por
bromas rápidas como, por ejemplo, "¡Ah, tan joven y ya tan desconocido!", "Este artículo
ni siquiera tiene el honor de estar equivocado", "Su primera fórmula está equivocada,
pero la segunda no deriva de la primera", "No me importa que sea lento en la
comprensión, pero escribe los artículos más rápido de lo que piensa". Ser el sujeto de
una de estas flechas era ciertamente una experiencia que podía reducir el tamaño de
cualquiera.

Un autor que permaneció en el anonimato escribió este poema sobre Pauli, según lo
reportado por George Gamow en su libro "Treinta años que sacudieron la física": El
principio de exclusión fue uno de los mayores logros científicos de Pauli. Básicamente
nos devolvió la química, permitiéndonos entender por qué la tabla periódica de
elementos está hecha de esa manera. Sin embargo, en su formulación básica es muy
simple: nunca dos electrones en el mismo estado cuántico. No está hecho, verboten! Esta
pequeña regla nos guía en la construcción de átomos cada vez más grandes y en la
comprensión de sus propiedades químicas.

Repetimos las dos reglas de oro, de Pauli, que debemos seguir a medida que avanzamos
en la tabla periódica: 1) los electrones deben ocupar siempre diferentes estados
cuánticos y 2) los electrones deben estar configurados para tener la menor energía
posible. Esta segunda regla, por cierto, se aplica en otras áreas y también explica por
qué los cuerpos sujetos a la fuerza de gravedad caen: un objeto en el suelo tiene menos
energía que uno en el decimocuarto piso. Pero volvamos al helio. Hemos dicho que los
dos electrones en s1 son consistentes con los datos experimentales. ¿No es eso una
violación del principio de exclusión? En realidad no, porque gracias a otra gran idea de
Pauli, tal vez la más ingeniosa, el giro entra en juego (además de lo que diremos ahora,
para una discusión más profunda de este tema ver el Apéndice).

Los electrones, en cierto sentido, giran sobre sí mismos incesantemente, como peonzas
microscópicas. Esta rotación, desde el punto de vista cuántico, puede ocurrir de dos
maneras, que se llaman arriba (arriba) y abajo (abajo). Es por eso que dos electrones
pueden permanecer fácilmente en la misma órbita 1 y respetar el dictado de Pauli: basta
con que tengan un espín opuesto para que se encuentren en diferentes estados
cuánticos. Eso es todo. Pero ahora que hemos agotado los 1s, no podemos sobrecargarlo
con un tercer electrón.

El átomo de helio satura la órbita 1 y está bien, porque no hay más espacio disponible:
los dos electrones están sentados y tranquilos. La consecuencia de esta estructura es
precisamente la inactividad química del helio, que no desea interactuar con otros
átomos. El hidrógeno, en cambio, tiene sólo un electrón en 1s y es hospitalario con otras
partículas que quieran unirse a él, siempre y cuando tengan el espín opuesto; de hecho,
la llegada de un electrón de otro átomo (como veremos en breve) es la forma en que el
hidrógeno crea un vínculo con otros elementos16. En el lenguaje de la química, la órbita
del hidrógeno se denomina "incompleta" (o incluso que su electrón sea "impar"),
mientras que la del helio es "completa", porque tiene el máximo número de electrones
esperado: dos, de espín opuesto. La química de estos dos elementos, por lo tanto, es tan
diferente como el día o la noche.

En resumen, el hidrógeno y el litio son químicamente similares porque ambos tienen un


solo electrón en la órbita exterior (1s y 2s respectivamente). El helio y el neón son
químicamente similares porque todos sus electrones están en orbitales completos (1s y
1s, 2s, 2px, 2py y 2pz respectivamente), lo que da como resultado estabilidad y no
reactividad química. De hecho, son los niveles incompletos los que estimulan la
actividad de los átomos. El misterio de los sospechosos en el enfrentamiento al estilo
americano en bandas secretas, observado por primera vez por Mendeleev, está casi
completamente aclarado.

Ahora es hasta el sodio, Z=11, con once cargas positivas en el núcleo y once electrones
que de alguna manera tenemos que arreglar. Ya hemos visto que los diez primeros
completan las cinco primeras órbitas, por lo que debemos recurrir a los tres y colocar
allí el electrón solitario. Voilà: el sodio es químicamente similar al hidrógeno y al litio,
porque los tres tienen un solo electrón en la órbita más exterior, que es del tipo s. Luego
está el magnesio, que añade al electrón en 3s otro compartido (en sentido cuántico)
entre 3px, 3py y 3pcs. Continuando con el llenado de 3s y 3p, nos damos cuenta de que
las configuraciones se replican exactamente las ya vistas para 2s y 2p; después de otros
ocho pasos llegamos al argo, otro gas noble e inerte que tiene todas las órbitas
completas: 1s, 2s, 2p, 3s y 3p - todas contienen sus dos buenos electrones de espín
opuestos. La tercera fila de la tabla periódica reproduce exactamente la segunda, porque
las órbitas s y p de sus átomos se llenan de la misma manera.

En la cuarta fila, sin embargo, las cosas cambian. Empezamos tranquilamente con 4s y
4p pero luego nos encontramos con el 3d. Los orbitales de este tipo corresponden a
soluciones de orden aún más alto de la ecuación de Schrödinger y se llenan de una
manera más complicada, porque en este punto hay muchos electrones. Hasta ahora
hemos descuidado este aspecto, pero las partículas cargadas negativamente interactúan
entre sí, repeliéndose entre sí debido a la fuerza eléctrica, lo que hace que los cálculos
sean muy complicados. Es el equivalente del problema newtoniano de n cuerpos, es
decir, es similar a la situación en la que los movimientos de un sistema solar cuyos
planetas están lo suficientemente cerca unos de otros como para hacer sentir su
influencia gravitatoria. Los detalles de cómo es posible llegar a una solución son
complejos y no son relevantes para lo que diremos aquí, pero es suficiente saber que
todo funciona al final. Las órbitas 3d se mezclan con las 4p para que encuentren espacio
para hasta diez electrones antes de completarse. Por eso el período ocho cambia a
dieciocho (18=8+10) y luego cambia de nuevo por razones similares a treinta y dos. Las
bases físicas del comportamiento químico de la materia ordinaria, y por lo tanto
también de las sustancias que permiten la vida, están ahora claras. El misterio de
Mendeleev ya no es tal.

a los detalles.
Capítulo 7
Einstein y Bohr

emos superado el obstáculo de los últimos capítulos y hemos


H llegado a comprender, gracias a Wolfgang Pauli, la esencia
íntima de la química (y por lo tanto de la biología) y por qué
nunca, con gran probabilidad, podremos pasar con nuestra mano
por una mesa de granito, que también consiste en su mayor parte
en espacio vacío. Ha llegado el momento de profundizar aún más
en el mar de los misterios cuánticos y tratar la disputa
fundamental entre Niels Bohr y Albert Einstein. Vamos a
escuchar algunas buenas.

La creatividad científica, idealmente, es una eterna batalla entre la intuición y la


necesidad de pruebas incontrovertibles. Hoy sabemos que la ciencia cuántica describe
con éxito un número increíble de fenómenos naturales e incluso tiene aplicaciones con
efectos económicos muy concretos. También nos hemos dado cuenta de que el mundo
microscópico, es decir, cuántico, es extraño, pero extraño de hecho. La física actual ni
siquiera parece estar relacionada con la que ha progresado tanto desde el siglo XVII
hasta principios del siglo XX. Hubo una verdadera revolución.

A veces los científicos (incluyéndonos a nosotros), en un intento de hacer llegar los


resultados de sus investigaciones al público en general, recurren a metáforas. Son en
cierto sentido hijas de la frustración de quienes no pueden explicar de manera "sensata"
lo que vieron en el laboratorio, porque ello implicaría una revisión de nuestra forma de
pensar: tenemos que tratar de comprender un mundo del que estamos excluidos de la
experiencia directa y cotidiana. Seguramente nuestro lenguaje es inadecuado para
describirlo, ya que ha evolucionado para otros propósitos. Supongamos que una raza
de alienígenas del planeta Zyzzx ha recogido y analizado ciertos datos macroscópicos
del planeta Tierra y ahora sabe todo sobre el comportamiento de las multitudes - desde
los partidos en el estadio hasta los conciertos en la plaza, desde los ejércitos en marcha
hasta las protestas masivas que terminan con las multitudes huyendo de las cargas
policiales (lo que sólo ocurre en los países atrasados, eh). Después de recopilar
información durante un siglo, los Zyzzxianos tienen un catálogo sustancial de acciones
colectivas a su disposición, pero no saben nada sobre las habilidades y aspiraciones de
los hombres, el razonamiento, el amor, la pasión por la música o el arte, el sexo, el
humor. Todas estas características individuales se pierden en la melaza de las acciones
colectivas.

Lo mismo ocurre en el mundo microscópico. Si pensamos en el hecho de que el pelo de


los cilios de una pulga contiene mil billones de billones de átomos, entendemos por qué
los objetos macroscópicos, elementos de nuestra experiencia diaria, son inútiles en la
comprensión de la realidad microscópica. Como los individuos en la multitud, los
átomos se mezclan en cuerpos tangibles, aunque no del todo, como veremos más
adelante. Así que tenemos dos mundos: uno clásico, elegantemente descrito por
Newton y Maxwell, y uno cuántico. Por supuesto, al final del día, sólo hay un mundo,
en el que la teoría cuántica trata con éxito los átomos y se fusiona con la clásica en el
caso macroscópico. Las ecuaciones de Newton y Maxwell son aproximaciones de las
ecuaciones cuánticas. Revisemos sistemáticamente algunos aspectos desconcertantes de
este último.

Cuatro choques seguidos 1. Comencemos con la radiactividad y empecemos con una de


las criaturas más queridas de los físicos, el muón. Es una partícula que pesa unas
doscientas veces más que un electrón y tiene la misma carga. Parece ser puntiforme, es
decir, tiene un tamaño insignificante, y parece girar sobre sí mismo. Cuando se
descubrió esta copia pesada del electrón, creó desconcierto en la comunidad científica,
tanto que el gran Isaac Isidor Rabi salió con la ahora famosa exclamación "¿Quién
ordenó esto? "1. El muón, sin embargo, tiene una diferencia fundamental con el
electrón: es inestable, es decir, está sujeto a la desintegración radiactiva, y se desintegra
después de unos dos microsegundos. Para ser precisos, su "vida media", es decir, el
tiempo en el que desaparece en promedio la mitad de los muones de un grupo de mil,
es igual a 2,2 microsegundos. Esto en promedio, porque si nos fijamos en un solo muón
(también podemos darle un nombre bonito, como Hilda, Moe, Benito o Julia) no
sabemos cuándo terminará su vida. El evento "decadencia del muón X" es aleatorio, no
determinístico, como si alguien tirara un par de dados y decidiera los eventos
basándose en las combinaciones de números que salieron. Debemos abandonar el
determinismo clásico y la razón en términos probabilísticos para entender los
fundamentos de la nueva física.

2. En el mismo orden de ideas tenemos el fenómeno de la reflexión parcial, que


recordarán del capítulo 3. Se pensaba que la luz era una ola, sujeta a todos los
fenómenos de otras olas como las del mar, incluyendo la reflexión, hasta que Planck y
Einstein descubrieron los quanta, partículas que se comportan como olas. Si se dispara
un quantum de luz, es decir, un fotón, contra una vitrina, se refleja o difracta; en el
primer caso ayuda a dar una imagen tenue de quienes admiran la ropa expuesta, en el
segundo ilumina los elegantes maniquíes. El fenómeno se describe matemáticamente
mediante una función de onda, que al ser una onda puede ser parcialmente reflejada o
difractada. Las partículas, por otro lado, son discretas, por lo que deben ser reflejadas o
refractadas, en total.

3. Ahora llegamos al ya conocido experimento de la doble rendija, cuya noble historia se


remonta a Thomas Young que niega a Newton en la teoría corpuscular de la luz y
sanciona el triunfo de la ondulatoria. Lo hemos visto para los fotones, pero en realidad
todas las partículas se comportan de la misma manera: muones, quarks, bosones W y
así sucesivamente. Todos ellos, cuando son sometidos a un experimento similar al de
Young, parecen comportarse como olas.

Veamos, por ejemplo, el caso del electrón, que al igual que el fotón puede ser emitido
desde una fuente y disparado contra una pantalla en la que se han hecho dos rendijas,
más allá de las cuales hemos colocado una pantalla detectora (con circuitos especiales
en lugar de fotocélulas). Realizamos el experimento disparando los electrones
lentamente, por ejemplo uno por hora, para asegurarnos de que las partículas pasen de
una en una (sin "interferir" entre ellas). Como descubrimos en el capítulo 4, al repetir las
mediciones muchas veces al final nos encontramos con un conjunto de ubicaciones de
electrones en la pantalla formando una figura de interferencia. La partícula individual
también parece "saber" si hay una o dos rendijas abiertas, mientras que ni siquiera
sabemos por dónde pasó. Si cerramos una de las dos rendijas, la figura de interferencia
desaparece. Y desaparece incluso si colocamos un instrumento junto a las rendijas que
registra el paso de los electrones desde ese punto. En última instancia, la cifra de
interferencia aparece sólo cuando nuestra ignorancia del camino seguido por el único
electrón es total.

4. Como si esto no fuera suficiente, tenemos que lidiar con otras propiedades
perturbadoras. Por ejemplo, el giro. Tal vez el aspecto más desconcertante de la historia
esté dado por el hecho de que el electrón tiene un valor de espín fraccionado, igual a
1/2, es decir, su "momento angular" es ħ/2 (véase el Apéndice). Además, un electrón
siempre está alineado en cualquier dirección en la que elijamos medir su espín, que si
tenemos en cuenta su orientación puede ser +1/2 o -1/2, o como dijimos anteriormente
arriba (arriba) o abajo (abajo)2. La guinda del pastel es la siguiente: si giramos un
electrón en el espacio en 360°, su función de onda de Ψe se convierte en -Ψe, es decir,
cambia de signo (en el Apéndice hay un párrafo que explica cómo ocurre esto). Nada de
esto le sucede a los objetos del mundo clásico.

Tomemos por ejemplo un palillo de tambor. Si el percusionista de una banda, en la vena


de las actuaciones, comienza a girarla entre sus dedos entre un golpe y otro, girándola
así 360°, el objeto vuelve a tener exactamente la misma orientación espacial. Si en lugar
de la baqueta hubiera un electrón, después de la vuelta nos encontraríamos con una
partícula de signo contrario. Definitivamente estamos en un territorio desconocido.
Pero, ¿está sucediendo realmente o es sólo sofisticación matemática? Como siempre,
sólo podemos medir la probabilidad de un evento, el cuadrado de la función de onda,
así que ¿cómo sabemos si aparece el signo menos o no? ¿Y qué significa "signo menos"
en este caso, qué tiene que ver con la realidad? ¿No son elucubraciones de filósofos que
contemplan el ombligo a expensas de los fondos públicos para la investigación?

¡Nein! dice Pauli. El signo menos implica que si se toman dos electrones al azar
(recuerde que todos son idénticos), su estado cuántico conjunto debe ser tal que cambie
de signo si los dos se intercambian. La consecuencia de todo esto es el principio de
exclusión de Pauli, la fuerza de intercambio, el relleno orbital, la tabla periódica, la
razón por la cual el hidrógeno es reactivo y el helio inerte, toda la química. Esta es la
base de la existencia de materia estable, conductores, estrellas de neutrones, antimateria
y aproximadamente la mitad del producto interno bruto de los Estados Unidos.

¿Pero por qué tan extraño?

Volvamos al punto 1 del párrafo anterior y al querido viejo muón, partícula elemental
que pesa doscientas veces el electrón y vive dos millonésimas de segundo, antes de
descomponerse y transformarse en un electrón y neutrinos (otras partículas
elementales). A pesar de estas extrañas características, realmente existen y en el
Fermilab esperamos algún día construir un acelerador que los haga funcionar a alta
velocidad.

El decaimiento de los muones está básicamente determinado por la probabilidad


cuántica, mientras que la física newtoniana se mantiene al margen observando. Sin
embargo, en el momento de su descubrimiento, no todos estaban dispuestos a tirar por
la borda un concepto tan bello como el "determinismo clásico", la perfecta previsibilidad
de los fenómenos típicos de la física clásica. Entre los diversos intentos de salvar lo
rescatable, se introdujeron las llamadas "variables ocultas".

Imaginemos que dentro del muón se esconde una bomba de tiempo, un pequeño
mecanismo con su buen reloj conectado a una carga de dinamita, que hace estallar la
partícula, aunque no sepamos cuándo. La bomba debe ser, por lo tanto, un dispositivo
mecánico de tipo newtoniano pero submicroscópico, no observable con nuestras
tecnologías actuales pero aún así responsable en última instancia de la descomposición:
las manecillas del reloj llegan al mediodía, y hola muón. Si cuando se crea un muón
(generalmente después de choques entre otros tipos de partículas) el tiempo de
detonación se establece al azar (tal vez en formas relacionadas con la creación del
mecanismo oculto), entonces hemos replicado de manera clásica el proceso
aparentemente indeterminado que se observa. La pequeña bomba de tiempo es un
ejemplo de una variable oculta, nombre que se da a varios dispositivos similares que
podrían tener el importante efecto de modificar la teoría cuántica en un sentido
determinista, para barrer la probabilidad "sin sentido". Pero como veremos en breve,
después de ochenta años de disputa sabemos que este intento ha fracasado y la mayoría
de los físicos contemporáneos aceptan ahora la extraña lógica cuántica.

Cosas ocultas En la década de 1930, mucho antes de que se descubrieran los quarks,
Einstein dio rienda suelta a su profunda oposición a la interpretación de Copenhague
con una serie de intentos de transformar la teoría cuántica en algo más parecido a la
vieja, querida y sensata física de Newton y Maxwell. En 1935, con la colaboración de los
dos jóvenes físicos teóricos Boris Podolsky y Nathan Rosen, se sacó el as de la manga8 .
Su contrapropuesta se basaba en un experimento mental (Gendankenexperiment, ya
hemos discutido) que pretendía demostrar con gran fuerza el choque entre el mundo
cuántico de la probabilidad y el mundo clásico de los objetos reales, con propiedades
definidas, y que también establecería de una vez por todas dónde estaba la verdad.

Este experimento se hizo famoso bajo el nombre de "Paradoja EPR", por las iniciales de
los autores. Su propósito era demostrar lo incompleto de la mecánica cuántica, con la
esperanza de que un día se descubriera una teoría más completa.

¿Qué significa estar "completo" o "incompleto" para una teoría? En este caso, un ejemplo
de "finalización" viene dado por las variables ocultas vistas anteriormente. Estas
entidades son exactamente lo que dicen ser: factores desconocidos que influyen en el
curso de los acontecimientos y que pueden (o tal vez no) ser descubiertos por una
investigación más profunda (recuerde el ejemplo de la bomba de tiempo dentro del
muón). En realidad son presencias comunes en la vida cotidiana. Si lanzamos una
moneda al aire, sabemos que los dos resultados "cabeza" y "cruz" son igualmente
probables. En la historia de la humanidad, desde la invención de las monedas, este
gesto se habrá repetido miles de miles de millones de veces (tal vez incluso por Bruto
para decidir si matar o no a César). Todo el mundo está de acuerdo en que el resultado
es impredecible, porque es el resultado de un proceso aleatorio. ¿Pero estamos
realmente seguros? Aquí es donde salen las variables ocultas.

Una es, para empezar, la fuerza utilizada para lanzar la moneda al aire, y en particular
cuánto de esta fuerza resulta en el movimiento vertical del objeto y cuánto en su
rotación sobre sí mismo. Otras variables son el peso y el tamaño de la moneda, la
dirección de las micro-corrientes de aire, el ángulo preciso en el que golpea la mesa al
caer y la naturaleza de la superficie de impacto (¿está la mesa hecha de madera? ¿Está
cubierta con un paño?). En resumen, hay muchas variables ocultas que influyen en el
resultado final.

Ahora imaginemos que estamos construyendo una máquina capaz de lanzar la moneda
con la misma fuerza. Siempre utilizamos el mismo ejemplar y realizamos el
experimento en un lugar protegido de las corrientes (tal vez bajo una campana de vidrio
donde creamos el vacío), asegurándonos de que la moneda siempre caiga cerca del
centro de la mesa, donde también tenemos control sobre la elasticidad de la superficie.
Después de gastar, digamos, 17963,47 dólares en este artilugio, estamos listos para
encenderlo. ¡Adelante! ¡Hagamos quinientas vueltas y consigamos quinientas cabezas!
Hemos logrado controlar todas las variables ocultas elusivas, que ahora no son ni
variables ni ocultas, ¡y hemos derrotado el caso! ¡El determinismo manda! La física
clásica newtoniana se aplica tanto a las monedas como a las flechas, balas, pelotas de
tenis y planetas. La aparente aleatoriedad del lanzamiento de una moneda se debe a
una teoría incompleta y a un gran número de variables ocultas, que en principio son
todas explicables y controlables.

¿En qué otras ocasiones vemos el azar en el trabajo de la vida cotidiana? Las tablas
actuariales sirven para predecir cuánto tiempo vivirá una determinada población (de
humanos, pero también de perros y caballos), pero la teoría general de la longevidad de
una especie es ciertamente incompleta, porque quedan muchas variables complejas
ocultas, entre ellas la predisposición genética a determinadas enfermedades, la calidad
del medio ambiente y de los alimentos, la probabilidad de ser alcanzado por un
asteroide y muchas otras. En el futuro, quizás, si excluimos los accidentes ocasionales,
podremos reducir el grado de incertidumbre y predecir mejor hasta que disfrutemos de
la compañía de los abuelos o primos.

La física ya ha domado algunas teorías llenas de variables ocultas. Consideremos por


ejemplo la teoría de los "gases perfectos" o "ideales", que proporciona una relación
matemática entre la presión, la temperatura y el volumen de un gas en un entorno
cerrado en condiciones ambientales ordinarias. En los experimentos encontramos que al
aumentar la temperatura también aumenta la presión, mientras que al aumentar el
volumen la presión disminuye. Todo esto está elegantemente resumido en la fórmula
pV=nRT (en palabras: "el producto de la presión por volumen es igual a la temperatura
multiplicada por una constante R, todo ello multiplicado por el número n de moléculas
de gas"). En este caso las variables ocultas son una enormidad, porque el gas está
formado por un número colosal de moléculas. Para superar este obstáculo, definimos
estadísticamente la temperatura como la energía media de una molécula, mientras que
la presión es la fuerza media con la que las moléculas golpean una zona fija de las
paredes del recipiente que las contiene. La ley de los gases perfectos, un tiempo
incompleto, gracias a los métodos estadísticos puede ser justificada precisamente por
los movimientos de las moléculas "ocultas". Con métodos similares, en 1905 Einstein
logró explicar el llamado movimiento Browniano, es decir, los movimientos
aparentemente aleatorios del polvo suspendido en el agua. Estos "paseos aleatorios" de
granos eran un misterio insoluble antes de que Einstein se diera cuenta de que entraban
en juego colisiones "ocultas" con moléculas de agua.

Tal vez fue por este precedente que Einstein pensó naturalmente que la mecánica
cuántica era incompleta y que su naturaleza probabilística era sólo aparente, el
resultado del promedio estadístico hecho sobre entidades desconocidas: variables
ocultas. Si hubiera sido posible desvelar esta complejidad interna, habría sido posible
volver a la física determinista newtoniana y reingresar en la realidad clásica subyacente
al conjunto. Si, por ejemplo, los fotones mantuvieran un mecanismo oculto para decidir
si se reflejaban o refractaban, la aleatoriedad de su comportamiento cuando chocaban
con la vitrina sólo sería aparente. Conociendo el funcionamiento del mecanismo,
podríamos predecir los movimientos de las partículas.

Aclaremos esto: esto nunca ha sido descubierto. Algunos físicos como Einstein estaban
disgustados, filosóficamente hablando, por la idea de que la aleatoriedad era una
característica intrínseca y fundamental de nuestro mundo y esperaban recrear de
alguna manera el determinismo newtoniano. Si conociéramos y controláramos todas las
variables ocultas, dijeron, podríamos diseñar un experimento cuyo resultado fuera
predecible, como sostiene el núcleo del determinismo.

Por el contrario, la teoría cuántica en la interpretación de Bohr y Heisenberg rechazó la


existencia de variables ocultas y en su lugar adoptó la causalidad y la indeterminación
como características fundamentales de la naturaleza, cuyo efecto se exhibía
explícitamente a nivel microscópico. Si no podemos predecir el resultado de un
experimento, ciertamente no podemos predecir el futuro curso de los acontecimientos:
como la filosofía natural, el determinismo ha fallado.

Así que preguntémonos si hay una forma de descubrir la existencia de variables ocultas.
Sin embargo, primero veamos cuál fue el desafío de Einstein.

La respuesta de Bohr a la EPR

La clave para resolver la paradoja de la EPR reside en el hecho de que las dos partículas
A y B, por muy distantes que estén, nacieron al mismo tiempo del mismo evento y por
lo tanto están relacionadas en un enredo. Sus posiciones, impulso, giro, etc. son siempre
indefinidos, pero cualquiera que sea el valor que adquieran, siempre permanecen
unidos entre sí. Si, por ejemplo, obtenemos un número preciso para la velocidad de A,
sabemos que la velocidad de B es la misma, sólo que opuesta en dirección; la misma
para la posición y el giro. Con el acto de medir hacemos colapsar una función de onda
que hasta entonces incluía en sí misma todos los valores posibles para las propiedades
de A y B. Gracias al enredo, sin embargo, lo que aprendemos en nuestro laboratorio en
la Tierra nos permite saber las mismas cosas sobre una partícula que podría estar en
Rigel 3, sin tocarla, observarla o interferir con ella de ninguna manera. La función de
onda de B también colapsó al mismo tiempo, aunque la partícula está navegando a años
luz de distancia.

Todo esto no refuta de manera concreta el principio de incertidumbre de Heisenberg,


porque cuando medimos el impulso de A seguimos perturbando su posición de manera
irreparable. La objeción de EPR se centró en el hecho de que un cuerpo debe tener
valores precisos de impulso y posición, aunque no podamos medirlos juntos. ¿Cómo
decidiste finalmente replicar a Bohr? ¿Cómo contraatacó?

Después de semanas de pasión, el Maestro llegó a la conclusión de que el problema no


existía. La capacidad de predecir la velocidad de B a través de la medición de A no
implica en absoluto que B tenga tal velocidad: hasta que no la midamos, realmente no
tiene sentido hacer tales suposiciones. De manera similar para la posición, de la que no
tiene sentido hablar antes de la medición. Bohr, a quien más tarde se unieron Pauli y
otros colegas, argumentó esto en la práctica: el pobre Einstein no se deshizo de la
obsesión clásica por las propiedades de los cuerpos. En realidad, nadie puede saber si
tal objeto tiene o no ciertas propiedades hasta que lo perturbamos con la medición. Y
algo que no puedes saber puede muy bien no existir. No se puede contar a los ángeles
que pueden balancearse en la cabeza de un alfiler, por lo que también pueden no existir.
El principio de localización en todo esto no se viola: nunca transmitirás
instantáneamente un mensaje de buenos deseos de la Tierra a Rigel 3, si has olvidado tu
aniversario de boda.

En una ocasión Bohr llegó a comparar la revolución cuántica con la desatada por
Einstein, la relatividad, después de la cual el espacio y el tiempo se encontraron con
nuevas y extrañas cualidades. La mayoría de los físicos, sin embargo, estuvieron de
acuerdo en que la primera tenía efectos mucho más radicales en nuestra visión del
mundo.

Bohr insistió en un aspecto: dos partículas, una vez que se enredan como resultado de
un evento microscópico, permanecen enredadas incluso si se alejan a distancias
siderales. Mirando a A, influimos en el estado cuántico que incluye a A y B. El espín de
B, por lo tanto, está determinado por el tamaño del de A, dondequiera que se
encuentren las dos partículas. Este aspecto particular de la paradoja EPR habría sido
mejor comprendido treinta años después, gracias al esclarecedor trabajo de John Bell al
que volveremos. Por ahora, sepan que la palabra clave es "no-localidad", otra versión de
la entrometida definición de Einstein: "acción espectral a distancia".

En la física clásica, el estado (A arriba, B abajo) es totalmente separado y distinto del (A


abajo, B arriba). Como hemos visto antes, todo está determinado por la elección del
amigo que empaqueta los paquetes, y en principio la evolución del sistema es conocible
por cualquiera que examine los datos iniciales. Las dos opciones son independientes y
al abrir el paquete sólo se revela cuál fue la elegida. Desde el punto de vista cuántico, en
cambio, la función de onda que describe tanto A como B "enreda" (con enredo) las
opciones; cuando medimos A o B, toda la función cambia simultáneamente en todos los
lugares del espacio, sin que nadie emita señales observables que viajen a velocidades
superiores a la de la luz. Eso es todo. Así es como funciona la naturaleza.

Esta insistencia autoritaria puede quizás silenciar las dudas de un físico novato, pero
¿es realmente suficiente para salvar nuestras almas filosóficas en problemas?
Seguramente la "refutación" de Bohr no satisfizo para nada a Einstein y sus colegas. Los
dos contendientes parecían hablar idiomas diferentes. Einstein creía en la realidad
clásica, en la existencia de entidades físicas con propiedades bien definidas, como los
electrones y los protones. Para Bohr, que había abandonado la creencia en una realidad
independiente, la "demostración" del rival de lo incompleto no tenía sentido, porque
estaba equivocado precisamente en la forma en que el otro concebía una teoría
"razonable". Einstein le preguntó a un colega nuestro un día: "Pero, ¿realmente crees
que la Luna existe allí sólo cuando la miras?". Si reemplazamos nuestro satélite por un
electrón en esta pregunta, la respuesta no es inmediata. La mejor manera de salir es
sacar a relucir los estados cuánticos y las probabilidades. Si nos preguntamos cuál es el
espín de cierto electrón emitido por un cable de tungsteno en una lámpara
incandescente, sabemos que estará arriba o abajo con una probabilidad igual al 50%; si
nadie lo mide, no tiene sentido decir que el espín está orientado en cierta dirección.
Acerca de la pregunta de Einstein, es mejor pasarla por alto. Los satélites son mucho
más grandes que las partículas.

¿Pero en qué clase de mundo vivimos?

Hemos dedicado este capítulo a uno de los aspectos más enigmáticos de la física
cuántica, la exploración del micromundo. Sería ya traumático si se tratara de un nuevo
planeta sujeto a nuevas y diferentes leyes de la naturaleza, porque esto socavaría los
fundamentos mismos de la ciencia y la tecnología, cuyo control nos hace ricos y
poderosos (algunos de nosotros, digamos). Pero lo que es aún más desconcertante es
que las extrañas leyes del micromundo dan paso a la vieja y banal física newtoniana
cuando la escala dimensional crece hasta el nivel de las pelotas de tenis o los planetas.

Todas las fuerzas que conocemos (gravitación, electromagnetismo, interacción fuerte y


débil) son de tipo local: disminuyen con la distancia y se propagan a velocidades
estrictamente no superiores a la de la luz. Pero un día salió un tal Sr. Bell, que nos
obligó a considerar un nuevo tipo de interacción, no local, que se propaga
instantáneamente y no se debilita con el aumento de la distancia. Y también demostró
que existe, gracias al método experimental.

¿Nos obliga esto a aceptar estas inconcebibles acciones a distancia no locales? Estamos
en un atolladero filosófico. A medida que comprendemos cuán diferente es el mundo
de nuestra experiencia cotidiana, experimentamos un lento pero inevitable cambio de
perspectiva. El último medio siglo ha sido para la física cuántica la versión acelerada de
la larga serie de éxitos de Newton y Maxwell en la física clásica. Ciertamente hemos
llegado a una comprensión más profunda de los fenómenos, ya que la mecánica
cuántica está en la base de todas las ciencias (incluyendo la física clásica, que es una
aproximación) y puede describir completamente el comportamiento de los átomos,
núcleos y partículas subnucleares (quarks y leptones), así como las moléculas, el estado
sólido, los primeros momentos de la vida en nuestro universo (a través de la cosmología
cuántica), las grandes cadenas en la base de la vida, los frenéticos desarrollos de la
biotecnología, tal vez incluso la forma en que opera la conciencia humana. Nos ha dado
tanto, pero los problemas filosóficos y conceptuales que trae consigo continúan
atormentándonos, dejándonos con un sentimiento de inquietud mezclado con grandes
esperanzas.

contempló las extrañas tierras de Bell.


Capítulo 8
La física cuántica en los tiempos actuales

n los capítulos anteriores hemos revivido las historias de los


E brillantes científicos del siglo XX que construyeron la física
cuántica en medio de mil dificultades y batallas. El viaje nos ha
llevado a seguir el nacimiento de ideas fundamentales que
parecen revolucionarias y anti-intuitivas para aquellos que
conocen bien la física clásica, nacidas con Galileo y Newton y
refinadas a lo largo de tres siglos. Frente a la gran cantidad de
gente había muchos problemas sobre la naturaleza misma de la
teoría, por ejemplo sobre la validez y los límites de la
interpretación de Copenhague (que todavía hoy algunas personas
desafían y tratan de negar). Sin embargo, la mayoría de los
investigadores se dieron cuenta de que tenían en sus manos una
nueva y poderosa herramienta para estudiar el mundo atómico y
subatómico y no tenían demasiados escrúpulos para utilizarla,
aunque no coincidiera con sus ideas en el campo filosófico. Así se
crearon nuevas áreas de investigación en física, aún activas hoy en
día.

Algunas de estas disciplinas han cambiado completamente nuestra forma de vida y han
aumentado enormemente nuestro potencial para entender y estudiar el universo. La
próxima vez que uno de ustedes o un miembro de su familia entre en una máquina de
resonancia magnética (esperemos que nunca), considere este hecho: mientras la
máquina zumba, gira, avanza el sofá y hace sonidos como una orquesta sobrenatural,
mientras un monitor en la sala de control forma una imagen detallada de sus órganos,
usted está experimentando de manera esencial con los efectos de la física cuántica
aplicada, un mundo de superconductores y semiconductores, giro, electrodinámica
cuántica, nuevos materiales y así sucesivamente. Dentro de una máquina de resonancia
estás, literalmente, dentro de un experimento tipo EPR. Y si el aparato de diagnóstico es
en cambio un PET, una tomografía por emisión de positrones, ¡sabed que estáis siendo
bombardeados con antimateria!
Para superar el estancamiento de Copenhague, se han utilizado técnicas de mecánica
cuántica para abordar muchos problemas prácticos y específicos en esferas que antes se
consideraban intratables. Los físicos han comenzado a estudiar los mecanismos que
gobiernan el comportamiento de los materiales, como la forma en que la fase cambia de
sólido a líquido a gas, o cómo la materia responde a la magnetización, el calentamiento
y el enfriamiento, o por qué algunos materiales son mejores conductores de la corriente
eléctrica que otros. Todo esto cae en gran parte dentro de la llamada "física de la materia
condensada". Para responder a las preguntas anteriores bastaría con aplicar la ecuación
de Schrödinger, pero con el tiempo se han desarrollado técnicas matemáticas más
refinadas, gracias a las cuales hemos podido diseñar nuevos y sofisticados juguetes,
como transistores y láseres, en los que se basa toda la tecnología del mundo digital en el
que vivimos hoy en día.

La mayoría de las aplicaciones de valor económico colosal derivan de la electrónica


cuántica o de la física de la materia condensada y son "no relativistas", es decir, no
dependen de la teoría de la relatividad restringida de Einstein porque implican
fenómenos que se producen a velocidades inferiores a la de la luz. La ecuación de
Schrödinger en sí misma no es relativista, y de hecho proporciona una excelente
aproximación del comportamiento de los electrones y los átomos a velocidades no altas,
lo que es cierto tanto para los electrones externos de los átomos, químicamente activos e
involucrados en los enlaces, como para los electrones que se mueven dentro de los
sólidos.1

Pero hay preguntas abiertas que involucran fenómenos que ocurren a velocidades
cercanas a las de la luz, por ejemplo: ¿qué es lo que mantiene unido al núcleo? ¿cuáles
son los bloques de construcción realmente fundamentales de la materia, las verdaderas
partículas elementales? ¿cómo encaja la relatividad restringida en la teoría cuántica?
Debemos entonces entrar en un mundo más rápido, diferente al de la física material.
Para comprender lo que sucede en el núcleo, un lugar donde la masa puede ser
convertida en energía como en el caso de la desintegración radiactiva (fisión o fusión),
tenemos que considerar los fenómenos cuánticos que tienen lugar a velocidades
cercanas a la de la luz y que entran en el terreno accidentado de la teoría de la
relatividad restringida. Una vez que entendemos cómo funcionan las cosas, podemos
dar el siguiente paso hacia la más complicada y profunda relatividad general, que se
ocupa de la fuerza de gravedad. Y por último, abordar el problema de los problemas,
que permanecieron abiertos hasta el final de la Segunda Guerra Mundial: cómo
describir plenamente las interacciones entre un electrón relativista (es decir, rápido) y la
luz.
El matrimonio entre la física cuántica y la relatividad estrecha La teoría de Einstein es la
versión correcta del concepto de movimiento relativo, generalizado a velocidades
incluso cercanas a las de la luz. Básicamente, postula principios generales relacionados
con la simetría de las leyes físicas2 y tiene profundas implicaciones en la dinámica de
las partículas. Einstein descubrió la relación fundamental entre la energía y el momento,
que difiere radicalmente de la de Newton. Esta innovación conceptual está en la base de
las modificaciones que deben hacerse a la mecánica cuántica para reformularla en un
sentido relativista3.

Entonces surge espontáneamente una pregunta: ¿qué surge del matrimonio de estas dos
teorías? Algo extraordinario, como veremos en breve.

E = mc2

La ecuación E=mc2 es muy famosa. Lo puedes encontrar en todas partes: en camisetas,


en el diseño gráfico de la serie de televisión "At the Twilight Zone", en ciertas marcas
comerciales y en un sinfín de dibujos animados del "New Yorker". Se ha convertido en
una especie de emblema universal de todo lo que es científico e "inteligente" en la
cultura contemporánea.

Rara vez, sin embargo, algunos comentaristas de televisión se molestan en explicar su


verdadero significado, excepto para resumirlo en la expresión "la masa es equivalente a
la energía". Nada podría estar más equivocado: la masa y la energía son en realidad
completamente diferentes. Los fotones, sólo para dar un ejemplo, no tienen masa, pero
pueden tener energía fácilmente.

El verdadero significado de E=mc2 es en realidad muy específico. Traducido en


palabras, la ecuación nos dice que "una partícula en reposo de masa m tiene una energía
E cuyo valor viene dado por la relación E=mc2". Una partícula de masa, en principio,
puede transformarse espontáneamente en otras partículas más ligeras en un proceso
(decadencia) que implica la liberación de energía4 . La fisión nuclear, en la que un
núcleo atómico pesado se rompe dando lugar a núcleos más ligeros, como en el caso del
U235 (uranio-235), produce por tanto mucha energía. De manera similar, los núcleos
ligeros como el deuterio pueden combinarse en el proceso de fusión nuclear para
formar helio, liberando grandes cantidades de energía. Esto sucede porque la masa de
la suma de los dos núcleos iniciales es mayor que la del núcleo de helio. Este proceso de
conversión de energía en masa era simplemente incomprensible antes de la relatividad
de Einstein, sin embargo es el motor que hace funcionar al Sol y es la razón por la que la
vida, la belleza, la poesía existen en la Tierra.
Cuando un cuerpo está en movimiento, se debe modificar la famosa fórmula E = mc2,
como bien sabía el propio Einstein5 . A decir verdad, la fórmula estática (cuerpo con
momento cero) se deduce de la fórmula dinámica (cuerpo con momento no nulo) y su
forma no es la que todo el mundo conoce, sino ésta: E2 = m2c4

Parecería ser un asunto de lana de cabra, pero en realidad hay una gran diferencia,
como explicaremos a continuación. Para derivar la energía de una partícula tenemos
que tomar la raíz cuadrada de los dos miembros de esta ecuación y encontrar la
conocida E=mc2. ¡Pero eso no es todo!

Es un simple hecho aritmético: los números tienen dos raíces cuadradas, una positiva y
otra negativa. La raíz cuadrada de 4, por ejemplo, es tanto √4=2 como √4=-2, porque
sabemos que 2×2=4 pero también (-2)×(-2)=4 (sabemos que dos números negativos
multiplicados juntos dan un número positivo). Así que también la ecuación escrita
arriba, resuelta con respecto a E, nos da dos soluciones: E=mc2 y E=-mc2.

He aquí un bonito enigma: ¿cómo podemos estar seguros de que la energía derivada de
la fórmula de Einstein es siempre positiva? ¿Cuál de las dos raíces debemos tomar? ¿Y
cómo lo sabe la naturaleza?

Al principio el problema no parecía muy grave, pero fue robado como una sofisticación
inútil y tonta. Los que lo sabían no tenían ninguna duda, la energía siempre era o nada
o positiva, y una partícula con energía negativa era un absurdo que ni siquiera debería
ser contemplado, so pena de ridículo. Todos estaban demasiado ocupados jugando con
la ecuación de Schrödinger, que en su forma original sólo se aplica a las partículas
lentas, como los electrones externos de los átomos, las moléculas y los cuerpos sólidos
en general. En su versión no relativista, el problema no se plantea porque la energía
cinética de las partículas en movimiento siempre viene dada por un número positivo. Y
el sentido común nos lleva a pensar que la energía total de una partícula de masa en
reposo es mc2, es decir, también es positiva. Por estas razones, los físicos de la época ni
siquiera consideraron la raíz cuadrada negativa y calificaron esa solución de "espuria",
es decir, "no aplicable a ningún cuerpo físico".

Pero supongamos por un momento que en su lugar hay partículas con energía negativa,
que corresponden a la solución con el signo menos delante y es decir con una energía en
reposo igual a -mc2. Si se movieran, la energía aumentaría en módulo y por lo tanto se
haría aún más pequeña a medida que aumenta el impulso6 . En posibles colisiones con
otras partículas seguirían perdiendo energía, así como debido a la emisión de fotones, y
por lo tanto su velocidad aumentaría cada vez más, acercándose a la de la luz. El
proceso nunca se detendría y las partículas en cuestión tendrían una energía que
tendería a convertirse en infinita, o más bien infinitamente negativa. Después de un
tiempo, el universo se llenaría de estas rarezas, partículas que irradian energía
hundiéndose constantemente más y más en el abismo del infinito negativo.7

El siglo de la raíz cuadrada Es verdaderamente notable que uno de los motores


fundamentales de la física en el siglo XX es el problema de "acertar con la raíz
cuadrada". En retrospectiva, la construcción de la teoría cuántica puede considerarse
como la aclaración de la idea de "raíz cuadrada de una probabilidad", cuyo resultado es
la función de onda de Schrödinger (cuyo cuadrado, recordemos, proporciona la
probabilidad de encontrar un cuerpo en un determinado lugar y en un determinado
momento).

La simple extracción de la raíz puede dar lugar a verdaderas rarezas. Por ejemplo,
obtenemos objetos llamados números imaginarios y complejos, que tienen un papel
fundamental en la mecánica cuántica. Ya hemos conocido un ejemplo notorio: i = √-1, la
raíz de menos uno. La física cuántica debe necesariamente involucrar a i y a sus
hermanos debido a su naturaleza matemática y no hay manera de evitarlos. También
hemos visto que la teoría predice rarezas como el enredo y los estados mixtos, que son
"casos excepcionales", consecuencias debidas al hecho de que todo se basa en la raíz
cuadrada de la probabilidad. Si sumamos y restamos estas raíces antes de elevar todo al
cuadrado, podemos obtener cancelaciones de término y por lo tanto un fenómeno como
la interferencia, como hemos visto desde el experimento de Young en adelante. Estas
rarezas desafían nuestro sentido común tanto como, y tal vez más, la raíz cuadrada de
menos uno habría parecido absurda a las culturas que nos precedieron, como los
antiguos griegos. Al principio ni siquiera aceptaban números irracionales, tanto que
según una leyenda Pitágoras condenó a su discípulo que había demostrado la
irracionalidad de √2, es decir, el hecho de que este número no puede escribirse en forma
de fracción, una proporción entre dos números enteros. En la época de Euclides las
cosas habían cambiado y se aceptaba la irracionalidad, pero hasta donde sabemos la
idea de los números imaginarios nunca fue contemplada (para más detalles ver la nota
15 del capítulo 5).

Otro resultado sensacional obtenido por la física en el último siglo puede considerarse
una consecuencia de esta simple estructura matemática, a saber, el concepto de espín y
espinor. Un espinor es en la práctica la raíz cuadrada de un vector (véase el Apéndice
para más detalles). Un vector, que quizás le resulte más familiar, es como una flecha en
el espacio, con longitud y dirección definidas, que representa cantidades como, por
ejemplo, la velocidad de una partícula. Tomar la raíz cuadrada de un objeto con
dirección espacial parece una idea extraña y de hecho tiene consecuencias extrañas.
Cuando giras un espinazo 360° no regresa igual a sí mismo, sino que se vuelve menos él
mismo. Los cálculos nos dicen entonces que si intercambiamos la posición de dos
electrones idénticos con el espín 1/2, la función de onda del estado que incluye la
posición de ambos debe cambiar de signo: Ψ(x,y) = - Ψ(y,x). El principio de exclusión de
Pauli se deriva de este mismo hecho: dos partículas idénticas con espín 1/2 no pueden
tener el mismo estado, porque de lo contrario la función de onda sería idénticamente
nula. Ya hemos visto que el principio aplicado a los electrones nos lleva a excluir la
presencia de más de dos partículas en una órbita, una de las cuales tiene spin up y la
otra spin down. De ahí la existencia de una "fuerza de intercambio" repulsiva entre dos
partículas con spin 1/2 que no quieren a toda costa permanecer en el mismo estado
cuántico, lo que incluye permanecer en el mismo lugar al mismo tiempo. El principio de
exclusión de Pauli rige la estructura de la tabla periódica de elementos y es una
consecuencia muy visible y fundamental del increíble hecho de que los electrones se
representan como raíces cuadradas de vectores, es decir, espinores.

La fórmula de Einstein que une la masa y la energía nos da otra situación en la que la
física del siglo XX tuvo que lidiar con las raíces cuadradas. Como dijimos, al principio
todo el mundo ignoró el problema descuidando las soluciones negativas en el estudio
de las partículas como los fotones o los mesones. Un mesón es una partícula con cero
espín, mientras que el fotón tiene espín igual a 1, y su energía es siempre positiva. En el
caso de los electrones, que tienen el espín 1/2, fue necesario encontrar una teoría que
integrara la mecánica cuántica y la relatividad estrecha; y en este campo nos
encontramos cara a cara con los estados de energía negativa, que aquí nos dan la
oportunidad de conocer una de las figuras más importantes de la física del siglo XX.

Paul Dirac Paul Dirac fue uno de los padres fundadores de la física cuántica, autor,
entre otras cosas, del libro sagrado de esta disciplina: Los Principios de la Mecánica
Cuántica8 . Es un texto de referencia que trata de manera coherente con la teoría según
la escuela de pensamiento de Bohr-Heisenberg y combina la función de onda de
Schrödinger con la mecánica matricial de Heisenberg. Es una lectura recomendada para
aquellos que quieran profundizar en el tema, aunque requiera conocimientos a nivel de
los primeros años de universidad.

Las contribuciones originales de Dirac a la física del siglo XX son de suma importancia.
Cabe destacar, por ejemplo, su propuesta teórica sobre la existencia de monopolios
magnéticos, el campo magnético equivalente a las cargas eléctricas, fuentes puntuales
del propio campo. En la teoría clásica de Maxwell esta posibilidad no se contempla,
porque se considera que los campos magnéticos son generados sólo por cargas en
movimiento. Dirac descubrió que los monopolos y las cargas eléctricas son conceptos
que no son independientes sino que están relacionados a través de la mecánica cuántica.
Sus especulaciones teóricas unieron la nueva física con una rama de las matemáticas
llamada topología, que estaba ganando importancia en esos años. La teoría de Dirac de
los monopolios magnéticos tuvo una fuerte resonancia también desde un punto de vista
estrictamente matemático y en muchos sentidos anticipó el marco conceptual que más
tarde desarrolló la teoría de las cuerdas. Pero su descubrimiento fundamental, uno de
los más profundos en la física del siglo XX, fue la teoría relativista del electrón.

En 1926 el joven Dirac buscaba una nueva ecuación para describir las partículas de
espín 1/2, que pudiera superar a la de Schrödinger y tener en cuenta la estrecha
relatividad. Para ello necesitaba espinores (las raíces cuadradas de los vectores,
recuerde) y tenía que asumir que el electrón tenía masa. Pero para que se tuviera en
cuenta la relatividad, descubrió que tenía que duplicar los espinores con respecto a la
situación no relativista, asignando así dos espinores a cada electrón.

En términos generales, un espinor consiste en un par de números complejos que


representan respectivamente la raíz de la probabilidad de tener un espinor hacia arriba
o hacia abajo. Para hacer que este instrumento entre en el rango de la relatividad
estrecha, Dirac encontró una nueva relación en la que se necesitaban cuatro números
complejos. Esto se conoce hoy en día, tal vez lo hayas imaginado, como la ecuación de
Dirac.

La ecuación de Dirac toma las raíces cuadradas muy en serio, en el sentido más amplio.
Los dos espinores iniciales representan dos electrones, uno arriba y otro abajo, que sin
considerar la relatividad tienen energía positiva, así que de E2=m2c4 utilizamos sólo la
solución E=+mc2. Pero si tenemos en cuenta la relatividad, necesitamos otros dos
espinores, a los que asociamos la solución negativa de la ecuación de Einstein E=-mc2.
Así que tienen energía negativa. El propio Dirac no podía hacer nada al respecto,
porque esta elección era obligatoria si queríamos tener en cuenta los requisitos de
simetría exigidos por la relatividad restringida, esencialmente referidos al tratamiento
correcto de los movimientos. Fue frustrante.

El problema de la energía negativa está inextricablemente presente en el corazón mismo


de la relatividad restringida y por lo tanto no puede ser ignorado. Dirac se dio cuenta
de lo espinoso que se volvió a medida que progresaba en su teoría cuántica del electrón.
El signo menos no puede ser ignorado diciendo que es una solución inadmisible,
porque la teoría que resulta de la combinación de cuántica y relatividad permite que las
partículas tengan tanto energía positiva como negativa. Podríamos resolver el asunto
diciendo que un electrón de energía negativa es sólo uno de los muchos "estados
cuánticos permitidos", pero esto llevaría al desastre: el átomo de hidrógeno, y toda la
materia ordinaria, no sería estable. Un electrón de energía positiva mc2 podría emitir
fotones con una energía igual a 2mc2, convertirse en una partícula de energía negativa -
mc2 e iniciar el descenso al abismo de lo menos infinito (a medida que el momento
aumenta, el módulo de energía negativa aumentaría rápidamente). Estas nuevas
soluciones con el signo menos al frente fueron una verdadera espina clavada en la
teoría naciente.

Pero Dirac tuvo una idea brillante para resolver el problema. Como hemos visto, el
principio de exclusión de Pauli establece que dos electrones no pueden tener
exactamente el mismo estado cuántico al mismo tiempo: si uno ya está en un cierto
estado, como en una órbita atómica, nadie más puede ocupar ese lugar (por supuesto
que también debemos tener en cuenta el espín, por lo que en un estado con ciertas
características de ubicación y movimiento dos electrones pueden vivir juntos, uno con el
espín hacia arriba y el otro con el espín hacia abajo). Dirac tuvo la idea de extender esto
al vacío: también el vacío está en realidad lleno de electrones, que ocupan todos los
estados de energía negativa. Estos estados problemáticos del universo están por lo tanto
ocupados por dos electrones, uno que gira hacia arriba y el otro hacia abajo. En esta
configuración, los electrones de energía positiva de los átomos no podrían emitir
fotones y se encontrarían en un estado de energía negativa, porque no encontrarían
ninguno libre y gracias al principio de acción de Pauli les estaría prohibida la acción.
Con esta hipótesis el vacío se convertiría en análogo a un gigantesco átomo inerte, como
el de un gas noble, con todos los orbitales llenos, es decir, con todos los estados de
energía negativa ocupados, para cualquier cantidad de movimiento.

Supersimetría El cálculo de la energía del vacío sigue empeorando si pegamos muones,


neutrinos, tau, quarks, gluones, bosones W y Z, el nuevo bosón de Higgs, es decir, todas
las partículas que habitan en el zoológico de la Madre Naturaleza. Cada uno de ellos
proporciona un trozo de energía total, positiva para los fermiones y negativa para los
bosones, y el resultado es siempre incontrolable, es decir, infinito. Aquí el problema no
es encontrar una mejor manera de hacer los cálculos sino un nuevo principio general
que nos dice cómo derivar la densidad de la energía del vacío en el universo. Y hasta
ahora no lo tenemos.

Sin embargo, hay una simetría muy interesante que, si se implementa en una teoría
cuántica "ajustada", nos permite calcular la constante cosmológica y obtener un
resultado matemáticamente reconfortante: cero. Esta simetría viene dada por una
conexión particular entre los fermiones y los bosones. Para verlo en funcionamiento
tenemos que introducir una dimensión imaginaria extra en la escena, algo que podría
haber salido de la imaginación de Lewis Carroll. Y esta dimensión extra se comporta
como un fermión: con un principio "à la Pauli" prohíbe que se dé más de un paso en
ella.
Dondequiera que entremos en la nueva dimensión, debemos detenernos
inmediatamente (es como poner un electrón en estado cuántico: entonces no podemos
añadir más electrones). Pero cuando un bosón pone su pie en él, se transforma en un
fermión. Y viceversa. Si esta extraña dimensión existiera realmente y si entráramos en
ella, como Alicia en A través del espejo, veríamos al electrón transformarse en un bosón
llamado selectrón y al fotón convertirse en un fermión llamado fotón.

La nueva dimensión representa un nuevo tipo de simetría física, matemáticamente


consistente, llamada supersimetría, que asocia cada fermión con un bosón y viceversa15
. La relación entre los socios supersimétricos es similar a la que existe entre la materia y
la antimateria. Como habrán adivinado, la presencia de estas nuevas partículas tiene un
efecto agradable en el cálculo de la energía del vacío: los valores positivos de los
bosones anulan los valores negativos de los fermiones procedentes del mar de Dirac, y
el resultado es un bonito cero. La constante cosmológica es idénticamente nula.

¿Así que la supersimetría resuelve el verdadero problema de la energía del vacío? Tal
vez, pero no está muy claro cómo. Hay dos obstáculos. En primer lugar, todavía no se
ha observado ninguna pareja bosónica supersimétrica del electrón16 . Sin embargo, la
supersimetría, como todas las simetrías (piense en una bola de vidrio perfectamente
esférica), puede ser "rota" (sólo dé un martillo a esta esfera). Los físicos tienen un
profundo amor por la simetría, que siempre es un ingrediente de nuestras teorías más
apreciadas y utilizadas. Muchos colegas esperan que la supersimetría realmente exista
en la naturaleza y que también haya un mecanismo (similar al martilleo de la esfera)
que pueda romperla. Si así fuera, observaríamos las consecuencias sólo en energías muy
altas, como las que esperamos obtener en aceleradores colosales como el LHC. Según la
teoría, los socios del electrón fotónico, es decir, el selectortrón y el fotón, son muy
pesados y sólo veremos rastros de ellos cuando alcancemos una energía igual a un valor
umbral llamado ΛSUSY (SUSY es la abreviatura de super simetría).

Desafortunadamente, la ruptura de la supersimetría trae el problema de la energía


infinita de nuevo a la escena. La densidad de energía del vacío viene dada por la
fórmula que se ve arriba, es decir, Λ4SUSY/ħ3c3. Si suponemos que esta cantidad es del
orden de magnitud de las máximas energías obtenibles por los grandes aceleradores, de
mil a diez mil billones de electronvoltios, entonces obtenemos una constante
cosmológica 1056 veces mayor que la observada. Esto es una mejora considerable con
respecto a la 10120 de antes, pero sigue siendo un gran problema. Por lo tanto, la
supersimetría, cuando se aplica directamente a los cálculos, no resuelve la crisis de la
energía del vacío. Tenemos que intentar otras vías.
El principio holográfico ¿Cometemos algún error al contar los peces capturados en el
Mar de Dirac? ¿Tal vez estamos criando demasiados? Al final del día estamos sumando
electrones de energía negativa muy pequeños con longitudes de onda muy cortas. La
escala es realmente microscópica, incluso si fijamos un valor alto para el umbral de
energía Λ. ¿Quizás estos estados no deben ser considerados realmente?

En los últimos diez años aproximadamente ha surgido una nueva y radical hipótesis,
según la cual siempre hemos sobrestimado el número de peces en el Mar de Dirac,
porque no son objetos tridimensionales en un océano tridimensional, sino que forman
parte de un holograma. Un holograma es una proyección de un cierto espacio en uno
más pequeño, como sucede cuando proyectamos una escena tridimensional en una
pantalla bidimensional. Según esta hipótesis, todo lo que ocurre en tres dimensiones
puede ser descrito completamente basado en lo que ocurre en la pantalla, con una
dimensión menos. El Mar de Dirac, como sigue, no está lleno de peces de la manera que
pensamos, porque estos son en realidad objetos bidimensionales. En resumen, los
estados de energía negativa son una mera ilusión y la energía total del vacío es tanto
menor que es potencialmente compatible con el valor observado de la constante
cosmológica. Decimos "potencialmente" porque la teoría holográfica sigue siendo una
obra en construcción y todavía tiene muchos puntos abiertos.

Esta nueva idea proviene del campo de la teoría de las cuerdas, en áreas donde se
pueden establecer conexiones entre los espacios holográficos (la más definida y original
está dada por la llamada conjetura de Maldacena, o AdS/CFT).17 Volveremos a esta
hipótesis, poco realista o profunda, en el próximo capítulo; sin embargo, el sentido
general parece ser el de la lógica de un soñador.

La física de la materia condensada La teoría cuántica permite aplicaciones interesantes y


muy útiles en la ciencia de los materiales. Para empezar, nos ha permitido por primera
vez en la historia entender realmente cuáles son los estados de la materia, cómo
funcionan las transiciones de fase y las propiedades eléctricas y magnéticas. Al igual
que en el caso de la tabla periódica de elementos, la mecánica cuántica ha compensado
en gran medida las inversiones realizadas, tanto desde el punto de vista teórico como
práctico, gracias al nacimiento de nuevas tecnologías. Ha permitido el comienzo de la
llamada "electrónica cuántica" y ha revolucionado la vida de todos nosotros de maneras
que antes eran inconcebibles. Echemos un vistazo a uno de los principales subsectores
de esta disciplina, que se ocupa del flujo de la corriente eléctrica en los materiales.

La banda de conducción Cuando los átomos se unen para formar un sólido, se


encuentran aplastados cerca unos de otros. Las funciones de onda de los electrones
externos, situados en los orbitales ocupados de mayor nivel, comienzan a fusionarse de
cierta manera (mientras que los de los orbitales internos permanecen sustancialmente
inalterados). Los electrones externos pueden saltar de un átomo a otro, tanto que los
orbitales externos pierden su identidad y ya no se encuentran alrededor de un átomo
específico: entonces se fusionan en una colección de estados electrónicos extendidos que
se llama la banda de valencia.

Tomemos por simplicidad un material cristalino. Los cristales tienen muchas formas,
cuyas propiedades han sido cuidadosamente catalogadas. Los electrones que
comienzan a vagar entre los cristales tienen funciones de onda con una frecuencia muy
baja en la banda de valencia. Dentro de esta banda, los electrones están dispuestos
según el principio de exclusión de Pauli: a lo sumo dos por nivel, uno con spin up y otro
con spin down. Los estados de muy baja frecuencia son muy similares a los de un
electrón libre para moverse en el espacio, sin interferencia con la red cristalina. Estos
estados tienen el nivel de energía más bajo y se llenan primero. Siguiendo siempre el
principio de exclusión, los electrones continúan llenando los siguientes estados hasta
que sus longitudes de onda cuánticas se acortan, llegando a ser comparables a la
distancia entre los átomos.

Los electrones, sin embargo, están sujetos a desviaciones del campo electromagnético
generado por los átomos de la red cristalina, que se comporta como un interferómetro
gigante de Young con muchas rendijas: una para cada átomo (las análogas a las rendijas
son las cargas de la red). El movimiento de estas partículas, por lo tanto, implica una
colosal interferencia cuántica20 . Ésta interviene precisamente cuando la longitud de
onda del electrón es del mismo orden de magnitud con respecto a la distancia entre los
átomos: los estados en esta condición están sujetos a una interferencia destructiva y por
lo tanto se anulan mutuamente.

La interferencia causa la formación de bandas en la estructura de los niveles de energía


de los electrones en los sólidos. Entre la banda de energía mínima, la banda de valencia,
y la siguiente, llamada banda de conducción, hay una brecha llamada brecha de
energía. El comportamiento eléctrico del material depende directamente de esta
estructura de bandas. Se pueden dar tres casos distintos.

1. Aislantes. Si la banda de valencia está llena y la brecha de energía antes de la banda


de conducción es sustancial, el material se llama aislante. Los aislantes, como el vidrio o
el plástico, no conducen la electricidad. Un representante típico de esta categoría es un
elemento que tiene casi todas las órbitas llenas, como los halógenos y los gases nobles.
En estas circunstancias, la corriente eléctrica no fluye porque no hay espacio para que
los electrones de la banda de valencia "deambulen". Así que para moverse libremente
un electrón debería saltar a la banda de conducción, pero si la brecha de energía es
demasiado grande esto requiere demasiada energía.21

2. Conductores. Si la banda de valencia no está completamente llena, entonces los


electrones pueden moverse fácilmente y entrar en nuevos estados de movimiento, lo
que hace que el material sea un buen conductor de las corrientes eléctricas. El miembro
típico de esta categoría tiene muchos electrones disponibles para escapar en la órbita
exterior, que no están completos; por lo tanto, son elementos que tienden a dar
electrones en enlaces químicos, como los metales alcalinos y ciertos metales pesados.
Entre otras cosas, es la difusión de la luz por estos electrones libres lo que causa el típico
aspecto pulido de los metales. A medida que la banda de conducción se llena, el
material se convierte en un conductor cada vez menos eficiente, hasta que alcanza el
estado de aislamiento.

3. Semiconductores. Si la banda de valencia está casi completa y la banda de conducción


tiene pocos electrones, el material no debería ser capaz de conducir mucha corriente.
Pero si la brecha de energía no es demasiado alta, digamos menos de unos 3 eV, es
posible forzar a los electrones sin demasiado esfuerzo a saltar en la banda de
conducción. En este caso estamos en presencia de un semiconductor. La capacidad de
estos materiales para conducir la electricidad sólo en circunstancias apropiadas los hace
realmente útiles, porque podemos manipularlos de varias maneras y disponer de
verdaderos "interruptores electrónicos".

Los semiconductores típicos son sólidos cristalinos como el silicio (el principal
componente de la arena). Su conductividad puede modificarse drásticamente
añadiendo otros elementos como "impurezas", mediante una técnica llamada dopaje. Se
dice que los semiconductores con pocos electrones en la banda de conducción son del
tipo n y suelen estar dopados con la adición de átomos que ceden electrones, que por lo
tanto "repoblan" la banda de conducción. Se dice que los semiconductores con una
banda de conducción casi completa son del tipo p y normalmente se dopan con la
adición de átomos que aceptan electrones de la banda de valencia.

Un material de tipo p tiene "agujeros" en la banda de valencia que se ven muy similares
a los encontrados cuando hablamos del mar de Dirac. En ese caso vimos que estos
huecos actuaban como partículas positivas; aquí sucede algo similar: los huecos,
llamados "gaps", toman el papel de cargas positivas y facilitan el paso de la corriente
eléctrica. Un semiconductor tipo p, por lo tanto, es una especie de Mar de Dirac en
miniatura, creado en un laboratorio. En este caso, sin embargo, los huecos involucran
muchos electrones y se comportan como si fueran partículas más pesadas, por lo que
son menos eficientes como portadores de corriente que los electrones individuales.
Diodos y transistores El ejemplo más simple de un mecanismo que podemos construir
con semiconductores es el diodo. Un diodo actúa como conductor en una dirección y
como aislante en la otra. Para construir uno, un material de tipo p suele acoplarse con
un material de tipo n para formar una unión p-n. No se requiere mucho esfuerzo para
estimular los electrones del elemento de tipo n para que pasen a través de la unión y
terminen en la banda de valencia del elemento de tipo p. Este proceso, que se asemeja a
la aniquilación de partículas y antipartículas en el Mar de Dirac, hace que la corriente
fluya en una sola dirección.

Si intentamos invertir el fenómeno nos damos cuenta de que es difícil: al quitar los
electrones de la banda de conducción no encontramos ninguno capaz de reemplazarlos
provenientes del material tipo p. En un diodo, si no exageramos con el voltaje (es fácil
quemar un semiconductor con una corriente demasiado intensa), podemos hacer que la
electricidad fluya fácilmente en una sola dirección, y por eso este dispositivo tiene
importantes aplicaciones en los circuitos eléctricos.

En 1947 John Bardeen y William Brattain, que trabajaban en los Laboratorios Bell en un
grupo encabezado por William Shockley, construyeron el primer transistor de "punto
de contacto". Era una generalización del diodo, hecha por la unión de tres
semiconductores. Un transistor nos permite controlar el flujo de corriente ya que el
voltaje varía entre las tres capas (llamadas colector, base y emisor respectivamente) y
sirve básicamente como interruptor y amplificador. Es quizás el mecanismo más
importante inventado por el hombre y que le valió a Bardeen, Brattain y Shockley el
Premio Nobel en 1956.22

Aplicaciones rentables ¿Con qué terminamos en nuestros bolsillos? La ecuación


fundamental de Schrödinger, que nos proporciona una forma de calcular la función de
onda, nació como el nacimiento de la razón pura: nadie imaginó entonces que sería la
base para el funcionamiento de maquinaria costosa o que alimentaría la economía de
una nación. Pero si se aplica a los metales, aislantes y semiconductores (los más
rentables), esta ecuación nos ha permitido inventar interruptores y mecanismos de
control particulares que son indispensables en equipos como computadoras,
aceleradores de partículas, robots que construyen automóviles, videojuegos y aviones
capaces de aterrizar en cualquier clima.

Otro hijo favorito de la revolución cuántica es el omnipresente láser, que encontramos


en las cajas de los supermercados, en la cirugía ocular, en la metalurgia de precisión, en
los sistemas de navegación y en los instrumentos que utilizamos para sondear la
estructura de los átomos y las moléculas. El láser es como una antorcha especial que
emite fotones de la misma longitud de onda.
Podríamos seguir hablando de los milagros tecnológicos que deben su existencia a las
intuiciones de Schrödinger, Heisenberg, Pauli y muchos otros. Veamos algunos de ellos.
El primero que viene a la mente es el microscopio de efecto túnel, capaz de alcanzar
aumentos miles de veces mayores que el microscopio electrónico más potente (que es en
sí mismo el hijo de la nueva física, porque se basa en algunas características de onda de
los electrones).

El efecto túnel es la quintaesencia de la teoría cuántica. Imagina un bol de metal


colocado en una mesa, dentro del cual hay una bola de acero libre para rodar sin
fricción. Según la física clásica, la esfera queda atrapada en el cuenco por la eternidad,
condenada a subir y bajar a lo largo de las paredes alcanzando siempre la misma altura.
El sistema newtoniano en el más alto grado. Para la versión cuántica de esta
configuración, tomamos un electrón confinado en una jaula metálica, en cuyas paredes
circula corriente con un voltaje que la partícula no tiene suficiente energía para
contrarrestar. Así que el electrón se acerca a una pared, es repelido hacia la pared
opuesta, sigue siendo repelido, y así sucesivamente hasta el infinito, ¿verdad? No!
Tarde o temprano, en el extraño mundo cuántico, la partícula se encontrará fuera.

¿Entiendes lo perturbador que es esto? En el lenguaje clásico diríamos que el electrón


cavó mágicamente un túnel y escapó de la jaula, como si la esfera de metal, la novela
Houdini, hubiera escapado de la prisión del tazón. Aplicando al problema la ecuación
de Schrödinger le hacemos entrar la probabilidad: en cada encuentro entre el electrón y
la pared hay una pequeña posibilidad de que la partícula cruce la barrera. ¿A dónde va
la energía necesaria? No es una pregunta relevante, porque la ecuación sólo nos dice
cuál es la probabilidad con la que el electrón está dentro o fuera. Para una mente
newtoniana esto no tiene sentido, pero el efecto túnel tiene efectos muy tangibles. En la
década de 1940 se había convertido en un hecho que los físicos utilizaban para explicar
fenómenos nucleares previamente incomprensibles. Algunas partes del núcleo atómico
logran, a través del efecto túnel, cruzar la barrera que las mantiene unidas y al hacerlo
rompen el núcleo original para formar otros más pequeños. Esto es fisión, un fenómeno
en la base de los reactores nucleares.

Otro aparato que pone en práctica este extraño efecto es la unión Josephson, una especie
de interruptor electrónico llamado así en honor a su brillante y extraño inventor, Brian
Josephson. Este dispositivo funciona a temperaturas cercanas al cero absoluto, donde la
superconductividad cuántica añade un carácter exótico a los fenómenos. En la práctica,
es un aparato electrónico digital súper rápido y súper frío que explota el efecto túnel
cuántico. Parece salir directamente de las páginas de un libro de Kurt Vonnegut, pero
realmente existe y es capaz de encenderse y apagarse miles de miles de millones de
veces por segundo. En nuestra era de ordenadores cada vez más potentes, esta
velocidad es una característica muy deseable. Esto se debe a que los cálculos se hacen
sobre bits, es decir, sobre unidades que pueden ser cero o uno, gracias a varios
algoritmos que representan todos los números, los suman, los multiplican, calculan
derivados e integrales, y así sucesivamente. Todo esto se hace cambiando el valor de
ciertos circuitos eléctricos de cero (apagado) a uno (encendido) varias veces, por lo que
comprenderá que acelerar esta operación es de suma importancia. El cruce de
Josephson lo hace mejor.

El efecto túnel aplicado a la microscopía nos ha permitido "ver" los átomos simples, por
ejemplo en la fantástica arquitectura de la doble hélice que forma el ADN, un registro
de toda la información que define a un ser vivo. El microscopio de efecto túnel,
inventado en los años ochenta del siglo pasado, no utiliza un haz de luz (como en el
microscopio óptico) ni un haz de electrones (como en el electrónico estándar). Su
funcionamiento se basa en una sonda de muy alta precisión que sigue el contorno del
objeto a observar permaneciendo a una distancia de menos de una millonésima de
milímetro. Esta brecha es lo suficientemente pequeña como para permitir que las
corrientes eléctricas presentes en la superficie del propio objeto lo superen gracias al
efecto túnel y así estimular un cristal muy sensible presente en la sonda. Cualquier
variación en esta distancia, debido a un átomo "saliente", es registrada y convertida en
una imagen por un software especial. Es el equivalente al lápiz óptico de un tocadiscos
(¿alguien lo recuerda?), que recorre colinas y valles en un surco y los convierte en la
magnífica música de Mozart.

El microscopio de efecto túnel también es capaz de tomar átomos uno por uno y
moverlos a otro lugar, lo que significa que podemos construir una molécula de acuerdo
a nuestros diseños, poniendo las piezas juntas como si fuera un modelo. Podría ser un
nuevo material muy resistente o un medicamento antiviral. Gerd Benning y Heinrich
Rohrer, que inventaron el microscopio de efecto túnel en un laboratorio de IBM en
Suiza, fueron galardonados con el Premio Nobel en 1986, y su idea dio origen a una
industria con un volumen de negocios de mil millones de dólares.

En el presente y el futuro cercano hay otras dos revoluciones potenciales: la


nanotecnología y la computación cuántica. Las nanotecnologías (donde "nano" es el
prefijo que vale 10-9, que significa "realmente muy pequeño") son la reducción de la
mecánica, con motores, sensores y demás, a escala atómica y molecular. Hablamos
literalmente de fábricas liliputienses, donde un millón de veces más pequeñas
dimensiones corresponden a un aumento igual de la velocidad de operación. Los
sistemas de producción cuántica podrían utilizar la mayor cantidad de materia prima
de todas, los átomos. Nuestras fábricas contaminantes serían reemplazadas por coches
compactos y eficientes.
La computación cuántica, a la que volveremos más tarde, promete ofrecer "un sistema
de procesamiento de información tan poderoso que, en comparación con la
computación digital tradicional, parecerá un éxito en comparación con un reactor
nuclear".
Capítulo 9
El tercer milenio

C laomo hemos visto en varias ocasiones durante el curso del libro,


ciencia cuántica, a pesar de su extraña idea de la realidad,
funciona muy bien, a un nivel casi milagroso. Sus éxitos son
extraordinarios, profundos y de gran peso. Gracias a la física
cuántica tenemos una verdadera comprensión de lo que ocurre a
nivel molecular, atómico, nuclear y subnuclear: conocemos las
fuerzas y leyes que gobiernan el micromundo. La profundidad
intelectual de sus fundadores, a principios del siglo XX, nos ha
permitido utilizar una poderosa herramienta teórica que conduce
a aplicaciones sorprendentes, las que están revolucionando
nuestra forma de vida.

De su cilindro, el mago cuántico ha sacado tecnologías de alcance inimaginable, desde


los láseres hasta los microscopios de efecto túnel. Sin embargo, algunos de los genios
que ayudaron a crear esta ciencia, escribieron los textos de referencia y diseñaron
muchos inventos milagrosos están todavía en la garra de una gran angustia. En sus
corazones, enterrados en un rincón, todavía existe la sospecha de que Einstein no se
equivocó y que la mecánica cuántica, en toda su gloria, no es la teoría final de la física.
Vamos, ¿cómo es posible que la probabilidad sea realmente parte de los principios
básicos que rigen la naturaleza? Debe haber algo que se nos escapa. La gravedad, por
ejemplo, que ha sido descuidada por la nueva física durante mucho tiempo; el sueño de
llegar a una teoría sólida que unificara la relatividad general de Einstein y la mecánica
cuántica ha llevado a algunos temerarios a explorar los abismos de los fundamentos,
donde sólo las matemáticas más abstractas proporcionan una luz débil, y a concebir la
teoría de las cuerdas. Pero ¿hay quizás algo más profundo, un componente que falta en
los fundamentos lógicos de la física cuántica? ¿Estamos tratando de completar un
rompecabezas en el que falta una pieza?

Algunas personas esperan con impaciencia llegar pronto a una superteoría que se
reduzca a la mecánica cuántica en ciertas áreas, como sucede con la relatividad que
engloba la mecánica clásica newtoniana y devuelve valor sólo en ciertas áreas, es decir,
cuando los cuerpos en juego se mueven lentamente. Esto significaría que la física
cuántica moderna no es el final de la línea, porque allí, escondida en lo profundo de la
mente de la Naturaleza, existe una teoría definitiva, mejor, capaz de describir el
universo completamente. Esta teoría podría abordar las fronteras de la física de alta
energía, pero también los mecanismos íntimos de la biología molecular y la teoría de la
complejidad. También podría llevarnos a descubrir fenómenos completamente nuevos
que hasta ahora han escapado al ojo de la ciencia. Después de todo, nuestra especie se
caracteriza por la curiosidad y no puede resistir la tentación de explorar este excitante y
sorprendente micromundo como un planeta que orbita una estrella distante. Y la
investigación también es un gran negocio, si es cierto que el 60% del PIB americano
depende de tecnologías que tienen que ver con la física cuántica. Así que hay muy
buenas razones para continuar explorando los bloques de construcción sobre los que
construimos nuestra comprensión del mundo.

"Los fenómenos cuánticos desafían nuestra comprensión primitiva de la realidad; nos


obligan a reexaminar la idea misma de la existencia", escribe Euan Squires en el prefacio
de su libro El Misterio del Mundo Cuántico. "Estos son hechos importantes, porque
nuestras creencias sobre "lo que existe" ciertamente influyen en la forma en que
concebimos nuestro lugar en el mundo. Por otra parte, lo que creemos que somos
influye en última instancia en nuestra existencia y en nuestros actos "1. El difunto Heinz
Pagels, en su ensayo El código cósmico, habla de una situación similar a la de un
consumidor que tiene que elegir una variante de la "realidad" entre las muchas que se
ofrecen en unos grandes almacenes2.

En los capítulos anteriores hemos cuestionado la concepción común de la "realidad" al


tratar el teorema de Bell y sus consecuencias experimentales, es decir, hemos
considerado la posibilidad de los efectos no locales: la transferencia instantánea de
información entre dos lugares situados a distancias arbitrarias. Según el modo de
pensar clásico, la medición realizada en un punto "influye" en las observaciones del
otro; pero en realidad el vínculo entre estos dos lugares viene dado por una propiedad
de las dos partículas (fotones, electrones, neutrones o lo que sea) que nacieron juntas en
un estado enmarañado. A su llegada a los puntos donde se encuentran los dos
detectores, si el aparato 1 registra la propiedad A para la partícula receptora, es
necesario que el aparato 2 registre la propiedad B, o viceversa. Desde el punto de vista
de las funciones de onda, el acto de medir por el aparato 2 hace que el estado cuántico
"colapse" simultáneamente en cada punto del espacio. Einstein odiaba esto, porque creía
firmemente en la ubicación y la prohibición de exceder la velocidad de la luz. Gracias a
varios experimentos hemos excluido la posibilidad de que los dos detectores
intercambien señales; la existencia de enredo es en cambio un hecho bien conocido y
ampliamente confirmado, por lo que una vez más la física cuántica es correcta a nivel
fundamental. El problema radica en nuestra reacción a este fenómeno aparentemente
paradójico. Un físico teórico escribió que deberíamos encontrar una forma de
"coexistencia pacífica" con la mecánica cuántica.

El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión, tal vez concebida
para parecer deliberadamente anti-intuitiva? Incluso el gran Feynman se sintió
desafiado por el teorema de Bell y trató de llegar a una representación de la mecánica
cuántica que lo hiciera más digerible, gracias a su idea de la suma en los caminos. Como
hemos visto, a partir de ciertas ideas de Paul Dirac inventó una nueva forma de pensar
sobre los acontecimientos. En su marco, cuando una partícula radioactiva decae y da
vida a un par de otras partículas, una con spin up y otra con spin down, tenemos que
examinar las dos "vías" que se determinan. Una, que llamaremos A, lleva la partícula
con spin hacia arriba al detector 1 y la que tiene spin hacia abajo al detector 2; la otra, la
ruta B, hace lo contrario. A y B tienen cuantitativamente dos "amplitudes de
probabilidad", que podemos sumar. Cuando hacemos una medición, también
averiguamos cuál de los dos caminos ha tomado realmente el sistema, si A o B; así, por
ejemplo, si encontramos la partícula con spin up en el punto 1, sabemos que ha pasado
por A. En todo esto, sólo podemos calcular la probabilidad de los distintos caminos.

Con esta nueva concepción del espacio-tiempo, la posibilidad de que la información se


propague instantáneamente incluso a grandes distancias desaparece. El cuadro general
se acerca más al clásico: recordarán el ejemplo en el que nuestro amigo nos envía a
nosotros en la Tierra y a un colega en Rigel 3 una pelota de color, que puede ser roja o
azul; si al abrir el paquete vemos la pelota azul, sabemos en ese mismo instante que el
otro recibió la roja. Sin embargo, nada cambia en el universo. Tal vez este modelo calme
nuestros temores filosóficos sobre la paradoja EPR, pero hay que decir que incluso la
suma de los caminos tiene algunos aspectos realmente desconcertantes. Las
matemáticas que hay detrás funcionan tan bien que el modelo descarta la presencia de
señales que viajan más rápido que la luz. Esto está estrechamente relacionado con
hechos como la existencia de la antimateria y la teoría cuántica de campos. Por lo tanto,
vemos que el universo es concebible como un conjunto infinito de caminos posibles que
gobiernan su evolución en el tiempo. Es como si hubiera un gigantesco frente de onda
de probabilidad en avance. De vez en cuando tomamos una medida, seleccionamos un
camino para un determinado evento en el espacio-tiempo, pero después de eso la gran
ola se sacude y continúa su carrera hacia el futuro.

Generaciones de físicos han sentido la frustración de no saber qué teoría cuántica


estaban usando realmente. Incluso hoy en día el conflicto entre la intuición, los
experimentos y la realidad cuántica todavía puede ser profundo.
Criptografía cuántica El problema de la transmisión segura de información no es nuevo.
Desde la antigüedad, el espionaje militar ha usado a menudo códigos secretos, que el
contraespionaje ha tratado de romper. En tiempos de Isabel, el desciframiento de un
mensaje codificado fue la base de la sentencia de muerte de María Estuardo. Según
muchos historiadores, uno de los cruces fundamentales de la Segunda Guerra Mundial
ocurrió cuando en 1942 los aliados derrotaron a Enigma, el código secreto de los
alemanes considerado "invencible ".

Hoy en día, como cualquiera que se mantenga informado sabe, la criptografía ya no es


un asunto de espías y militares. Al introducir la información de su tarjeta de crédito en
eBay o en el sitio web de Amazon, usted asume que la comunicación está protegida.
Pero las compañías de hackers y terroristas de la información nos hacen darnos cuenta
de que la seguridad del comercio, desde el correo electrónico hasta la banca en línea,
pende de un frágil hilo. El gobierno de EE.UU. se toma en serio el problema, gastando
miles de millones de dólares en él.

La solución más inmediata es introducir una "clave" criptográfica que pueda ser
utilizada tanto por el emisor como por el receptor. La forma estándar de hacer segura la
información confidencial es esconderla en una larga lista de números aleatorios. Pero
sabemos que los espías, hackers y tipos extraños vestidos de negro con un corazón de
piedra y un buen conocimiento del mundo informático son capaces de entender cómo
distinguir la información del ruido.

Aquí es donde entra en juego la mecánica cuántica, que puede ofrecer a la criptografía
los servicios de su especial forma de aleatoriedad, tan extraña y maravillosa que
constituye una barrera infranqueable, y por si fuera poco, es capaz de informar
inmediatamente de cualquier intento de intrusión! Como la historia de la criptografía
está llena de códigos "impenetrables" que en cierto punto son penetrados por una
tecnología superior, está justificado si se toma esta afirmación con la cantidad adecuada
de escepticismo (el caso más famoso es el ya mencionado de Enigma, la máquina que en
la Segunda Guerra Mundial encriptaba las transmisiones nazis y que se consideraba
imbatible: los Aliados lograron desencriptarla sin que el enemigo se diera cuenta).

Veamos un poco más en detalle cómo funciona la criptografía. La unidad mínima de


información que puede transmitirse es el bit, una abreviatura de dígito binario, es decir,
"número binario". Un poco es simplemente cero o uno. Si por ejemplo lanzamos una
moneda y decidimos que 0 representa la cabeza y 1 la cola, el resultado de cada
lanzamiento es un bit y una serie de lanzamientos puede escribirse de la siguiente
manera: 1011000101110100101010111.
Esto es en lo que respecta a la física clásica. En el mundo cuántico hay un equivalente
del bit que ha sido bautizado como qubit (si piensas que tiene algo que ver con el
"codo", una unidad de medida tradicional que también aparece en la Biblia, estás fuera
del camino). También está dada por una variable que puede asumir dos valores
alternativos, en este caso el espín del electrón, igual a arriba o abajo, que ocupan el
lugar de 0 y 1 del bit clásico. Hasta ahora nada nuevo.

Pero un qubit es un estado cuántico, por lo que también puede existir tanto en forma
"mixta" como "pura". Un estado puro no se ve afectado por la observación. Si medimos
el espín de un electrón a lo largo del eje z, será necesariamente hacia arriba o hacia
abajo, dependiendo de su dirección. Si el electrón se toma al azar, cada uno de estos
valores puede presentarse con una cierta probabilidad. Si, por el contrario, la partícula
ha sido emitida de tal manera que asume necesariamente un cierto spin, la medición
sólo la registra sin cambiar su estado.

En principio podemos, por lo tanto, transmitir la información en forma de código


binario utilizando una colección de electrones (o fotones) con un espín predeterminado
igual a arriba o abajo en el eje z; como todos ellos han sido "puros", un detector
orientado a lo largo del mismo eje los leerá sin perturbarlos. Pero el eje z debe ser
definido, no es una característica intrínseca del espacio. Aquí, entonces, hay una
información secreta que podemos enviar al destinatario del mensaje: cómo se orienta el
eje a lo largo del cual se mide el giro.

Si alguien intenta interceptar la señal con un detector no perfectamente paralelo a


nuestro z, con su medición perturba los estados electrónicos y por lo tanto obtiene un
conjunto de datos sin sentido (sin darse cuenta). Nuestros receptores que leen el
mensaje se dan cuenta en cambio de que algo ha interferido con los electrones y por lo
tanto que ha habido un intento de intrusión: sabemos que hay un espía escuchando y
podemos tomar contramedidas. Y viceversa, si el mensaje llega sin problemas, podemos
estar seguros de que la transmisión se ha realizado de forma segura. El punto clave de
la historia es que el intento de intrusión causa cambios en el estado de los qubits, de los
que tanto el emisor como el receptor son conscientes.

La transmisión de los estados cuánticos también puede utilizarse para transmitir con
seguridad una "clave", es decir, un número muy grande generado causalmente, que se
utiliza para decodificar la información en ciertos sistemas de comunicación cifrada.
Gracias a los qubits, sabemos si la llave está segura o comprometida y por lo tanto
podemos tomar contramedidas. La criptografía cuántica ha sido probada hasta ahora en
mensajes transmitidos a unos pocos kilómetros de distancia. Aún pasará algún tiempo
antes de que pueda utilizarse en la práctica, ya que esto requiere una gran inversión en
la última generación de láseres. Pero un día podremos hacer desaparecer para siempre
la molestia de tener que impugnar una compra cargada en nuestra tarjeta de crédito en
algún país lejano donde nunca antes habíamos estado.

Computadoras cuánticas Sin embargo, hay una amenaza a la seguridad de la


criptografía cuántica, y es la computadora cuántica, el candidato número uno para
convertirse en la supercomputadora del siglo XXI. Según la ley empírica enunciada por
Gordon Moore, "el número de transistores en una ficha se duplica cada veinticuatro
meses "10. Como ha calculado algún bromista, si la tecnología automotriz hubiera
progresado al mismo ritmo que la informática en los últimos treinta años, ahora
tendríamos coches de sesenta gramos que cuestan cuarenta dólares, con un maletero de
un kilómetro cúbico y medio, que no consumen casi nada y que alcanzan velocidades
de hasta un millón y medio de kilómetros por hora11.

En el campo de la informática, hemos pasado de los tubos de vacío a los transistores y


circuitos integrados en menos tiempo que la vida humana. Sin embargo, la física en la
que se basan estas herramientas, incluyendo las mejores disponibles hoy en día, es
clásica. Usando la mecánica cuántica, en teoría, deberíamos construir nuevas e incluso
más poderosas máquinas. Aún no han aparecido en la oficina de diseño de IBM o en los
planes de negocio de las empresas más audaces de Silicon Valley (al menos hasta donde
sabemos), pero los ordenadores cuánticos harían que el más rápido de los clásicos
pareciera poco más que un ábaco en las manos de una persona mutilada.

La teoría de la computación cuántica hace uso de los ya mencionados qubits y adapta a


la física no clásica la teoría clásica de la información. Los conceptos fundamentales de
esta nueva ciencia fueron establecidos por Richard Feynman y otros a principios de la
década de 1980 y recibieron un impulso decisivo por la obra de David Deutsch en 1985.
Hoy en día es una disciplina en expansión. La piedra angular ha sido el diseño de
"puertas lógicas" (equivalentes informáticos de los interruptores) que explotan la
interferencia y el enredo cuántico para crear una forma potencialmente mucho más
rápida de hacer ciertos cálculos12

La interferencia, explicada por experimentos de doble rendija, es uno de los fenómenos


más extraños del mundo cuántico. Sabemos que sólo dos rendijas en una pantalla
cambian el comportamiento de un fotón que pasa a través de ella de una manera
extraña. La explicación que da la nueva física pone en duda las amplitudes de
probabilidad de los diversos caminos que la partícula puede seguir, que, si se suman
adecuadamente, dan la probabilidad de que termine en una determinada región del
detector. Si en lugar de dos rendijas hubiera mil, el principio básico no cambiaría y para
calcular la probabilidad de que la luz llegue a tal o cual punto deberíamos tener en
cuenta todos los caminos posibles. La complejidad de la situación aumenta aún más si
tomamos dos fotones y no sólo uno, cada uno de los cuales tiene miles de opciones, lo
que eleva el número de estados totales al orden de los millones. Con tres fotones los
estados se convierten en el orden de los billones, y así sucesivamente. La complejidad
aumenta exponencialmente a medida que aumenta la entrada.

El resultado final es quizás muy simple y predecible, pero hacer todas estas cuentas es
muy poco práctico, con una calculadora clásica. La gran idea de Feynman fue proponer
una calculadora analógica que explotara la física cuántica: usemos fotones reales y
realicemos el experimento, dejando que la naturaleza complete ese monstruoso cálculo
de forma rápida y eficiente. El ordenador cuántico ideal debería ser capaz de elegir por
sí mismo el tipo de mediciones y experimentos que corresponden al cálculo requerido,
y al final de las operaciones traducir el resultado físico en el resultado numérico. Todo
esto implica el uso de una versión ligeramente más complicada del sistema de doble
rendija.

Los increíbles ordenadores del futuro Para darnos una idea de lo poderosas que son
estas técnicas de cálculo, tomemos un ejemplo simple y comparemos una situación
clásica con la correspondiente situación cuántica. Partamos de un "registro de 3 bits", es
decir, un dispositivo que en cada instante es capaz de asumir una de estas ocho
configuraciones posibles: 000, 001, 010, 011, 100, 101, 110, 111, correspondientes a los
números 0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico registra esta información con tres
interruptores que pueden estar abiertos (valor 0) o cerrados (valor 1). Es fácil ver por
analogía que un registro de 4 bits puede codificar dieciséis números, y así
sucesivamente.

Sin embargo, si el registro no es un sistema mecánico o electrónico sino un átomo,


puede existir en un estado mixto, superponiendo el fundamental (que hacemos
corresponder a 0) y el excitado (igual a 1). En otras palabras, es un qubit. Por lo tanto,
un registro de 3 qubits expresa ocho números al mismo tiempo, un registro de 4 qubits
expresa dieciséis y en general un registro de N qubits contiene 2N.

En los ordenadores clásicos, el bit suele venir dado por la carga eléctrica de un pequeño
condensador, que puede estar cargado (1) o no cargado (0). Ajustando el flujo de
corriente podemos cambiar el valor del bit. En los ordenadores cuánticos, en cambio,
para cambiar un qubit utilizamos un rayo de luz para poner el átomo en un estado
excitado o fundamental. Esto implica que en cada instante, en cada paso del cálculo, el
qubit puede asumir los valores 0 y 1 al mismo tiempo. Estamos comenzando a realizar
un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante todos los primeros
1024 números. Con dos de ellos, acoplados de forma coincidente, podemos asegurarnos
de tener una tabla de 1024 × 1024 multiplicaciones. Una computadora tradicional,
aunque muy rápida, debería realizar en secuencia más de un millón de cálculos para
obtener todos esos datos, mientras que una computadora cuántica es capaz de explorar
todas las posibilidades simultáneamente y llegar al resultado correcto en un solo paso,
sin esfuerzo.

Esta y otras consideraciones teóricas han llevado a la creencia de que, en algunos casos,
una computadora cuántica resolvería un problema en un año que la más rápida de las
máquinas clásicas no terminaría antes de unos pocos miles de millones de años. Su
poder proviene de la capacidad de operar simultáneamente en todos los estados y de
realizar muchos cálculos en paralelo en una sola unidad operativa. Pero hay un pero
(suspenso: aquí cabría también el Sprach Zarathustra de Richard Strauss). Antes de
invertir todos sus ahorros en una puesta en marcha de Cupertino, debe saber que varios
expertos son escépticos sobre las aplicaciones informáticas cuánticas (aunque todos
están de acuerdo en que los debates teóricos sobre el tema son valiosos para
comprender ciertos fenómenos cuánticos fundamentales).

Es cierto que algunos problemas importantes pueden ser resueltos de muy buena
manera, pero seguimos hablando de máquinas muy diferentes, diseñadas para
situaciones muy específicas, que difícilmente sustituirán a las actuales. El mundo clásico
es otro tipo de mundo, por lo que no llevamos la máquina rota a la mecánica cuántica.
Una de las mayores dificultades es que estos dispositivos son muy sensibles a las
interferencias con el mundo exterior: si un solo rayo cósmico hace un estado de cambio
de qubits, todo el cálculo se va al infierno. También son máquinas analógicas, diseñadas
para simular un cálculo particular con un proceso particular, y por lo tanto carecen de la
universalidad típica de nuestros ordenadores, en los que se ejecutan programas de
varios tipos que nos hacen calcular todo lo que queremos. También es muy difícil
construirlos en la práctica. Para que los ordenadores cuánticos se hagan realidad y para
que valga la pena invertir tiempo y dinero en ellos, tendremos que resolver complejos
problemas de fiabilidad y encontrar algoritmos utilizables.

Uno de estos algoritmos potencialmente efectivos es la factorización de grandes


números (en el sentido de descomponerlos en factores primos, como 21=3×7). Desde el
punto de vista clásico, es relativamente fácil multiplicar los números entre sí, pero en
general es muy difícil hacer la operación inversa, es decir, encontrar los factores de un
coloso como: 3 204 637 196 245 567 128 917 346 493 902 297 904 681 379
Este problema tiene importantes aplicaciones en el campo de la criptografía y es
candidato a ser la punta de lanza de la computación cuántica, porque no es solucionable
con las calculadoras clásicas.

Mencionemos también la extraña teoría del matemático inglés Roger Penrose que
concierne a nuestra conciencia. Un ser humano es capaz de realizar ciertos tipos de
cálculos a la velocidad del rayo, como una calculadora, pero lo hace con métodos muy
diferentes. Cuando jugamos al ajedrez contra una computadora, por ejemplo,
asimilamos una gran cantidad de datos sensoriales y los integramos rápidamente con la
experiencia para contrarrestar una máquina que funciona de manera algorítmica y
sistemática. La computadora siempre da resultados correctos, el cerebro humano a
veces no: somos eficientes pero inexactos. Hemos sacrificado la precisión para aumentar
la velocidad.

Según Penrose, la sensación de ser consciente es la suma coherente de muchas


posibilidades, es decir, es un fenómeno cuántico. Por lo tanto, según él, somos a todos
los efectos computadoras cuánticas. Las funciones de onda que usamos para producir
resultados a nivel computacional están quizás distribuidas no sólo en el cerebro sino en
todo el cuerpo. En su ensayo "Sombras de la mente", Penrose tiene la hipótesis de que
las funciones de onda de la conciencia residen en los misteriosos microtúbulos de las
neuronas. Interesante, por decir lo menos, pero todavía falta una verdadera teoría de la
conciencia.

Sea como fuere, la computación cuántica podría encontrar su razón de ser arrojando luz
sobre el papel de la información en la física básica. Tal vez tengamos éxito tanto en la
construcción de nuevas y poderosas máquinas como en alcanzar una nueva forma de
entender el mundo cuántico, tal vez más en sintonía con nuestras percepciones
cambiantes, menos extrañas, fantasmales, perturbadoras. Si esto realmente sucede, será
uno de los raros momentos en la historia de la ciencia en que otra disciplina (en este
caso la teoría de la información, o tal vez de la conciencia) se fusiona con la física para
arrojar luz sobre su estructura básica.

Gran final Concluyamos nuestra historia resumiendo las muchas preguntas filosóficas
que esperan respuesta: ¿cómo puede la luz ser tanto una partícula como una onda? ¿hay
muchos mundos o sólo uno? ¿hay un código secreto verdaderamente impenetrable?
¿qué es la realidad a nivel fundamental? ¿están las leyes de la física reguladas por
muchos lanzamientos de dados? ¿tienen sentido estas preguntas? la respuesta es quizás
"tenemos que acostumbrarnos a estas rarezas"? ¿dónde y cuándo tendrá lugar el
próximo gran salto científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica. Hemos entrado en la
armonía de relojería del universo clásico de Newton, con sus leyes deterministas.
Podríamos habernos detenido allí, en un sentido real y metafórico, en esa reconfortante
realidad (aunque sin teléfonos móviles). Pero no lo hicimos. Hemos penetrado en los
misterios de la electricidad y el magnetismo, fuerzas que sólo en el siglo XIX se unieron
y tejieron en el tejido de la física clásica, gracias a Faraday y Maxwell. Nuestros
conocimientos parecían entonces tan completos que a finales de siglo hubo quienes
predijeron el fin de la física. Todos los problemas que valía la pena resolver parecían
estar resueltos: bastaba con añadir algunos detalles, que sin duda entrarían en el marco
de las teorías clásicas. Al final de la línea, abajo vamos; los físicos pueden abrigarse e
irse a casa.

Pero todavía había algún fenómeno incomprensible aquí y allá. Las brasas ardientes son
rojas, mientras que según los cálculos deberían ser azules. ¿Y por qué no hay rastros de
éter? ¿Por qué no podemos ir más rápido que un rayo de luz? Tal vez la última palabra
no se ha dicho todavía. Pronto, el universo sería revolucionado por una nueva y
extraordinaria generación de científicos: Einstein, Bohr, Schrödinger, Heisenberg, Pauli,
Dirac y otros, todos entusiastas de la idea.

Por supuesto, la vieja y querida mecánica newtoniana sigue funcionando bien en


muchos casos, como el movimiento de los planetas, cohetes, bolas y máquinas de vapor.
Incluso en el siglo veintisiete, una bola lanzada al aire seguirá la elegante parábola
clásica. Pero después de 1900, o más bien 1920, o mejor aún 1930, aquellos que quieren
saber cómo funciona realmente el mundo atómico y subatómico se ven obligados a
cambiar de idea y entrar en el reino de la física cuántica y su intrínseca naturaleza
probabilística. Un reino que Einstein nunca aceptó completamente.

Sabemos que el viaje no ha sido fácil. El omnipresente experimento de la doble rendija


puede causar migrañas. Pero fue sólo el comienzo, porque después vinieron las
vertiginosas alturas de la función de onda de Schrödinger, la incertidumbre de
Heisenberg y la interpretación de Copenhague, así como varias teorías perturbadoras.
Nos encontramos con gatos vivos y muertos al mismo tiempo, rayos de luz que se
comportan como ondas y partículas, sistemas físicos vinculados al observador, debates
sobre el papel de Dios como el jugador de dados supremo... Y cuando todo parecía
tener sentido, aquí vienen otros rompecabezas: el principio de exclusión de Pauli, la
paradoja EPR, el teorema de Bell. No es material para conversaciones agradables en
fiestas, incluso para adeptos de la Nueva Era que a menudo formulan una versión
equivocada de la misma. Pero nos hemos hecho fuertes y no nos hemos rendido, incluso
ante alguna ecuación inevitable.
Fuimos aventureros y le dimos al público ideas tan extrañas que podían ser títulos de
episodios de Star Trek: "Muchos mundos", "Copenhague" (que en realidad también es
una obra de teatro), "Las cuerdas y la teoría M", "El paisaje cósmico" y así
sucesivamente. Esperamos que hayan disfrutado del viaje y que ahora, como nosotros,
tengan una idea de lo maravilloso y profundamente misterioso que es nuestro mundo.

En el nuevo siglo se avecina el problema de la conciencia humana. Tal vez pueda


explicarse por los estados cuánticos. Aunque no son pocos los que piensan así, no es
necesariamente así - si dos fenómenos son desconocidos para nosotros, no están
necesariamente conectados.

La mente humana juega un papel en la mecánica cuántica, como recordarán, es decir,


cuando la medición entra en juego. El observador (su mente) interfiere con el sistema, lo
que podría implicar un papel de la conciencia en el mundo físico. ¿La dualidad mente-
cuerpo tiene algo que ver con la mecánica cuántica? A pesar de todo lo que hemos
descubierto recientemente sobre cómo el cerebro codifica y manipula la información
para controlar nuestro comportamiento, sigue siendo un gran misterio: ¿cómo es
posible que estas acciones neuroquímicas conduzcan al "yo", a la "vida interior"? ¿Cómo
se genera la sensación de ser quienes somos?

No faltan críticos de esta correlación entre lo cuántico y la mente, entre ellos el


descubridor de ADN Francis Crick, quien en su ensayo Science and the Soul escribe: "El
yo, mis alegrías y tristezas, mis recuerdos y ambiciones, mi sentido de la identidad
personal y el libre albedrío, no son más que el resultado de la actividad de un número
colosal de neuronas y neurotransmisores".

Esperamos que este sea sólo el comienzo de su viaje y que continúe explorando las
maravillas y aparentes paradojas de nuestro universo cuántico.

También podría gustarte