Está en la página 1de 127

FÍSICA CUÁNTICA PARA

PRINCIPIANTES:
Los conceptos más interesantes de la Física Cuántica
hechos simples y prácticos | Sin matemáticas difíciles
Tabla de contenido
Capítulo 1 UNA AGRADABLE SORPRESA
Capítulo 2 El comienzo
Capítulo 3 Lo que es la luz
Capítulo 4 SU MAESTREADO SR. PLANCK
Capítulo 5 Un incierto Heisenberg
Capítulo 6 Quantum
Capítulo 7 Einstein y Bohr
Capítulo 8 La física cuántica en los tiempos actuales
Capítulo 9 El tercer milenio
Capítulo 1
UNA AGRADABLE SORPRESA

ntes de la era cuántica, la ciencia vivía de pronunciamientos decisivos


A sobre las causas y efectos de los movimientos: objetos bien definidos se
movían a lo largo de trayectorias precisas, en respuesta a la acción de
varias fuerzas. Pero la ciencia que ahora llamamos clásica, que surgió de las
nieblas de una larga historia y duró hasta finales del siglo XIX, pasó por
alto el hecho de que cada objeto estaba realmente compuesto por un número
gigantesco de átomos. En un grano de arena, por ejemplo, hay varios miles
de millones de ellos.
Antes de la era cuántica, cualquiera que observara un fenómeno era como
un extraterrestre del espacio, mirando a la Tierra desde arriba y sólo
notando los movimientos de grandes multitudes de miles y miles de
personas. Tal vez los vieron marchando en filas compactas, o aplaudiendo,
o apurando el trabajo, o dispersándose por las calles. Pero nada de lo que
observaron podría prepararlos para lo que verían al centrar su atención en
los individuos. A nivel individual, los humanos mostraron un
comportamiento que no podía ser deducido del de las multitudes - cosas
como la risa, el afecto, la compasión y la creatividad. Los extraterrestres, tal
vez las sondas robóticas o los insectos evolucionados, pueden no haber
tenido las palabras adecuadas para describir lo que vieron cuando nos
observaron de cerca. Por otro lado, incluso nosotros hoy, con toda la
literatura y la poesía acumulada a lo largo de milenios, a veces no podemos
comprender plenamente las experiencias individuales de otros seres
humanos.
A principios del siglo XX ocurrió algo similar. El complejo edificio de la
física, con sus predicciones exactas sobre el comportamiento de los objetos,
es decir, las multitudes de átomos, se derrumbó de repente. Gracias a
nuevos y sofisticados experimentos, realizados con gran habilidad, fue
posible estudiar las propiedades no sólo de los átomos individuales, sino
también de las partículas más pequeñas de las que estaban hechas. Era
como pasar de escuchar un conjunto orquestal a cuartetos, tríos y solos. Y
los átomos parecían comportarse de manera desconcertante a los ojos de los
más grandes físicos de la época, que despertaban del sueño de la época
clásica. Fueron exploradores de un mundo sin precedentes, el equivalente a
la vanguardia poética, artística y musical de la época. Entre ellos se
encontraban los más famosos: Heinrich Hertz, Ernest Rutherford, J. J.
Thomson, Niels Bohr, Marie Curie, Werner Heisenberg, Erwin Schrödinger,
Paul Dirac, Louis-Victor de Broglie, Albert Einstein, Max Born, Max
Planck y Wolfgang Pauli. La conmoción que sintieron después de hurgar en
el interior de los átomos fue igual a la que la tripulación de la Enterprise
debió experimentar en su primer encuentro con una civilización alienígena
encontrada en la inmensidad del cosmos. La confusión producida por el
examen de los nuevos datos estimuló gradualmente los primeros intentos
desesperados de los físicos de restaurar cierto orden y lógica en su ciencia.
A finales de la década de 1920 se podía decir que la estructura fundamental
del átomo era ampliamente conocida, y se podía aplicar a la química y la
física de la materia ordinaria. La humanidad había comenzado a entender
realmente lo que estaba sucediendo en el nuevo y extraño mundo cuántico.
Pero mientras que la tripulación de la Enterprise siempre podía ser
teletransportada lejos de los mundos más hostiles, los físicos de principios
del siglo XX no retrocedieron: se dieron cuenta de que las extrañas leyes
que estaban descubriendo eran fundamentales y subyacentes al
comportamiento de toda la materia del universo. Dado que todo, incluidos
los humanos, está hecho de átomos, es imposible escapar a las
consecuencias de lo que ocurre a nivel atómico. Descubrimos un mundo
alienígena, y ese mundo está dentro de nosotros!
Las impactantes consecuencias de sus descubrimientos molestaron a no
pocos científicos de la época. Un poco como las ideologías revolucionarias,
la física cuántica consumió a muchos de sus profetas. En este caso la ruina
no vino de maquinaciones políticas o conspiraciones de los adversarios,
sino de desconcertantes y profundos problemas filosóficos que tenían que
ver con la idea de la realidad. Cuando, hacia finales de la década de 1920,
quedó claro para todos que se había producido una verdadera revolución en
la física, muchos de los que le habían dado el empujón inicial, incluida una
figura del calibre de Albert Einstein, se arrepintieron y dieron la espalda a
la teoría que habían contribuido significativamente a crear. Sin embargo,
hoy, bien entrado el siglo XXI, usamos la física cuántica y la aplicamos a
mil situaciones. Gracias a ustedes, por ejemplo, hemos inventado los
transistores, los láseres, la energía atómica y un sinfín de cosas más.
Algunos físicos, incluso físicos destacados, continúan usando toda su fuerza
para encontrar una versión más suave de la mecánica cuántica para nuestro
sentido común, menos destructiva que la idea común de la realidad. Pero
sería bueno contar con la ciencia, no con algún paliativo.
Antes de la era cuántica, la física había logrado muy bien describir los
fenómenos que ocurren ante nuestros ojos, resolver problemas en un mundo
de escaleras firmemente apoyadas en las paredes, flechas y balas de cañón
lanzadas según trayectorias precisas, planetas que orbitan y giran sobre sí
mismos, cometas que regresan al tiempo esperado, máquinas de vapor que
hacen su trabajo útil, telégrafos y motores eléctricos. En resumen, a
principios del siglo XX casi todos los fenómenos macroscópicos
observables y medibles habían encontrado una explicación coherente dentro
de la llamada física clásica. Pero el intento de aplicar las mismas leyes al
extraño mundo microscópico de los átomos resultó increíblemente difícil,
con profundas implicaciones filosóficas. La teoría que parecía surgir, la
teoría cuántica, iba completamente en contra del sentido común.
Nuestra intuición se basa en experiencias pasadas, por lo que podemos decir
que incluso la ciencia clásica, en este sentido, fue a veces contraintuitiva, al
menos para la gente de la época. Cuando Galileo descubrió las leyes del
movimiento ideal en ausencia de fricción, sus ideas se consideraron
extremadamente atrevidas (en un mundo en el que nadie o casi nadie había
pensado en descuidar los efectos de la fricción)2. Pero la física clásica que
surgió de sus intuiciones logró redefinir el sentido común durante tres
siglos, hasta el siglo XX. Parecía ser una teoría sólida, resistente a los
cambios radicales - hasta que la física cuántica irrumpió en escena, llevando
a un choque existencial como nunca antes.
Para entender realmente el comportamiento de los átomos, para crear una
teoría que estuviera de acuerdo con los datos aparentemente contradictorios
que salieron de los laboratorios en los años 30, era necesario actuar de
manera radical, con una nueva audacia. Las ecuaciones, que hasta entonces
calculaban con precisión la dinámica de los acontecimientos, se
convirtieron en instrumentos para obtener abanicos de posibilidades, cada
una de las cuales podía ocurrir con una probabilidad determinada. Las leyes
de Newton, con sus certezas (de ahí el término "determinismo clásico")
fueron sustituidas por las ecuaciones de Schrödinger y las desconcertantes
construcciones matemáticas de Heisenberg, que hablaban el lenguaje de la
indeterminación y el matiz.
¿Cómo se manifiesta esta incertidumbre en la naturaleza, a nivel atómico?
En varias áreas, de las cuales podemos dar un primer y simple ejemplo aquí.
La física atómica nos dice que dada una cierta cantidad de material
radiactivo, digamos uranio, la mitad se transformará por un proceso
llamado "decadencia" y desaparecerá antes de un período fijo de tiempo,
llamado "vida media" o "vida media". Después de otro intervalo de tiempo
igual a la vida media, los átomos restantes se reducirán de nuevo a la mitad
(así, después de un tiempo hasta dos vidas medias, la cantidad de uranio
presente al principio se reducirá a un cuarto del original; después de tres
vidas medias, a un octavo; y así sucesivamente). Gracias a la mecánica
cuántica y a algunas ecuaciones complicadas, somos capaces de calcular en
principio el valor de la vida media del uranio, y de muchas otras partículas
fundamentales. Podemos poner a trabajar a equipos de físicos teóricos y
obtener muchos resultados interesantes. Sin embargo, somos absolutamente
incapaces de predecir cuando un átomo de uranio en particular se
descompondrá.
Este es un resultado asombroso. Si los átomos de uranio siguieran las leyes
de la física clásica newtoniana, habría algún mecanismo en funcionamiento
que, siempre que hagamos los cálculos con precisión, nos permitiría
predecir exactamente cuándo decaerá un determinado átomo. Las leyes
cuánticas no ofrecen mecanismos deterministas y nos proporcionan
probabilidades y datos borrosos no por simple desconocimiento del
problema, sino por razones más profundas: según la teoría, la probabilidad
de que el decaimiento de ese átomo se produzca en un determinado período
es todo lo que podemos conocer.
Pasemos a otro ejemplo. Consideremos dos fotones idénticos (las partículas
de las que está hecha la luz) y disparémoslos en dirección a una ventana.
Hay varias alternativas: ambos rebotan en el vidrio, ambos lo cruzan, uno
rebota y el otro lo cruza. Bueno, la física cuántica no es capaz de predecir
cómo se comportarán los fotones individuales, cuyo futuro ni siquiera
conocemos en principio. Sólo podemos calcular la probabilidad con la que
las diversas alternativas sucederán - por ejemplo, que el fotón sea rechazado
en un 10% y aumente al 90%, pero nada más. La física cuántica puede
parecer vaga e imprecisa en este punto, pero en realidad proporciona los
procedimientos correctos (los únicos procedimientos correctos, para ser
precisos) que nos permiten comprender cómo funciona la materia. También
es la única manera de entender el mundo atómico, la estructura y el
comportamiento de las partículas, la formación de las moléculas, el
mecanismo de la radiación (la luz que vemos proviene de los átomos).
Gracias a ella pudimos, en un segundo tiempo, penetrar en el núcleo,
entender cómo los quarks que forman protones y neutrones se unen, cómo
el Sol obtiene su gigantesca energía, y más.
Pero ¿cómo es posible que la física de Galileo y Newton, tan trágicamente
inadecuada para describir los movimientos atómicos, pueda predecir con
unas pocas y elegantes ecuaciones los movimientos de los cuerpos celestes,
fenómenos como los eclipses o el regreso del cometa Halley en 2061 (un
jueves por la tarde) y las trayectorias de las naves espaciales? Gracias a la
física clásica podemos diseñar las alas de aviones, rascacielos y puentes
capaces de soportar fuertes vientos y terremotos, o robots capaces de
realizar cirugías de alta precisión. ¿Por qué todo funciona tan bien, si la
mecánica cuántica nos muestra tan claramente que el mundo no funciona en
absoluto como pensábamos?
Esto es lo que sucede: cuando enormes cantidades de átomos se unen para
formar objetos macroscópicos, como en los ejemplos que acabamos de
hacer (aviones, puentes y robots), los inquietantes y contra-intuitivos
fenómenos cuánticos, con su carga de incertidumbre, parecen anularse entre
sí y devuelven los fenómenos a los cimientos de la precisa previsibilidad de
la física newtoniana. La razón por la que esto sucede, en el dinero, es de
naturaleza estadística. Cuando leemos que el promedio de miembros de las
familias americanas es igual a 2.637 individuos nos enfrentamos a un dato
preciso y determinístico. Lástima, sin embargo, que ninguna familia tenga
exactamente 2.637 miembros.
En el siglo XXI la mecánica cuántica se ha convertido en la columna
vertebral de todas las investigaciones en el mundo atómico y subatómico,
así como de amplios sectores de las ciencias de los materiales y la
cosmología. Los frutos de la nueva física generan miles de miles de
millones de dólares cada año, gracias a la industria electrónica, y otros
tantos se derivan de las mejoras en la eficiencia y la productividad que son
posibles gracias al uso sistemático de las leyes cuánticas. Sin embargo,
algunos físicos algo rebeldes, impulsados por los vítores de cierto tipo de
filósofos, siguen buscando un significado más profundo, un principio oculto
dentro de la mecánica cuántica en el que se encuentra el determinismo. Pero
es una minoría.
¿Por qué la física cuántica es perturbadora desde el punto de vista
psicológico?
En un famoso pasaje de una carta a Max Born, Einstein escribió: "Usted
cree que Dios juega a los dados con el mundo, yo creo en cambio que todo
obedece a una ley, en un mundo de realidad objetiva que trato de captar por
medios furiosamente especulativos [...] Ni siquiera el gran éxito inicial de la
teoría cuántica logra convencerme de que en la base de todo hay azar,
aunque sé que los colegas más jóvenes consideran esta actitud como un
efecto de la esclerosis. 3 Erwin Schrödinger pensaba de manera similar: "Si
hubiera sabido que mi ecuación de onda se usaría de esta manera, habría
quemado el artículo antes de publicarlo [...] No me gusta y me arrepiento de
haber tenido algo que ver con ello".4 ¿Qué perturbó a estas eminentes
figuras, tanto que se vieron obligadas a negar su hermosa creación?
Entremos en un pequeño detalle sobre estas lamentaciones, en la protesta de
Einstein contra un Dios que "juega a los dados". El punto de inflexión de la
teoría cuántica moderna se remonta a 1925, precisamente a las solitarias
vacaciones que el joven físico alemán Werner Heisenberg pasó en
Helgoland, una pequeña isla del Mar del Norte donde se había retirado para
encontrar alivio a la fiebre del heno. Allí tuvo una idea revolucionaria.
La comunidad científica apoyó cada vez más la hipótesis de que los átomos
estaban compuestos por un núcleo central más denso rodeado por una nube
de electrones, similar a los planetas que orbitan el Sol. Heisenberg examinó
el comportamiento de estos electrones y se dio cuenta de que para sus
cálculos no era necesario conocer sus trayectorias precisas alrededor del
núcleo. Las partículas parecían saltar misteriosamente de una órbita a otra y
en cada salto los átomos emitían luz de un cierto color (los colores reflejan
la frecuencia de las ondas de luz). Desde un punto de vista matemático,
Heisenberg había logrado encontrar una descripción sensata de estos
fenómenos, pero involucraba un modelo de átomo diferente al de un
diminuto sistema solar, con los planetas confinados en órbitas inmutables.
Al final abandonó el cálculo de la trayectoria de un electrón que se mueve
de la posición observada A a B, porque se dio cuenta de que cualquier
medida de la partícula en ese tiempo interferiría necesariamente con su
comportamiento. Así que Heisenberg elaboró una teoría que tomaba en
cuenta los colores de la luz emitida, pero sin requerir el conocimiento de la
trayectoria precisa seguida por el electrón. Al final sólo importaba que un
determinado evento fuera posible y que sucediera con una cierta
probabilidad. La incertidumbre se convirtió en una característica intrínseca
del sistema: nació la nueva realidad de la física cuántica.
La revolucionaria solución de Heisenberg a los problemas planteados por
una serie de desconcertantes datos experimentales desató la imaginación de
su mentor, Niels Bohr, padre, abuelo y obstetra de la nueva teoría. Bohr
llevó las ideas del joven colega al extremo, tanto que el propio Heisenberg
se vio inicialmente perturbado. Finalmente cambió de opinión y se convirtió
al nuevo verbo, lo que muchos de sus eminentes colegas se negaron a hacer.
Bohr había razonado de esta manera: si conocer el camino que ha recorrido
un determinado electrón no es relevante para el cálculo de los fenómenos
atómicos, entonces la idea misma de "órbita", de una trayectoria establecida
como la de un planeta alrededor de una estrella, debe ser abandonada por
carecer de sentido. Todo se reduce a la observación y a la medición: el acto
de medir obliga al sistema a elegir entre las distintas posibilidades. En otras
palabras, no es la incertidumbre de la medición lo que oculta la realidad;
por el contrario, es la realidad misma la que nunca proporciona certeza en el
sentido clásico-galileo del término, cuando se examinan los fenómenos a
escala atómica.
En la física cuántica parece haber un vínculo mágico entre el estado físico
de un sistema y su percepción consciente por parte de un observador
sensible. Pero es el mismo acto de medir, es decir, la llegada de otro sistema
a la escena, lo que restablece todas las posibilidades menos una, haciendo
que el estado cuántico "colapse", como se dice, en una de las muchas
alternativas. Veremos cuán inquietante puede ser esto más adelante, cuando
nos encontremos con electrones que pasan de uno en uno a través de dos
rendijas en una pantalla y que forman configuraciones que dependen del
conocimiento de la rendija precisa por la que pasaron, es decir, si alguien o
algo ha hecho una medición en el sistema. Parece que un solo electrón,
como por arte de magia, pasa por las dos rendijas al mismo tiempo si nadie
lo está observando, mientras que elige un posible camino si alguien o algo
lo está observando! Esto es posible porque los electrones no son ni
partículas ni ondas: son algo más, completamente nuevo. Han sido
cuánticos.6
No es de extrañar que muchos de los pioneros de la nueva física, que habían
participado en la creación de la ciencia atómica, fueran reacios a aceptar
estas extrañas consecuencias. La mejor manera de dorar la píldora y hacer
que las tesis de Heisenberg y Bohr sean aceptadas es la llamada
"interpretación de Copenhague". Según esta versión de los hechos, cuando
medimos un sistema a escala atómica introducimos en el propio sistema una
importante interferencia, dada por los instrumentos de medición. Pero
cualquiera que sea la interpretación que demos, la física cuántica no
corresponde a nuestras ideas intuitivas de la realidad. Debemos aprender a
vivir con ella, a jugar con ella, a verificar su bondad con experimentos, a
imaginar problemas teóricos que ejemplifiquen diversas situaciones, a
hacerla cada vez más familiar. De esta manera podríamos desarrollar una
nueva "intuición cuántica", por muy contraria al sentido común que pueda
parecer en un principio.
En 1925, independientemente de las ideas de Heisenberg, otro físico teórico
tenía otra idea fundamental, también mientras estaba de vacaciones (aunque
no solo). Fue el vienés Erwin Schrödinger, quien había formado un vínculo
de amistad y colaboración científica con su colega Hermann Weyl. Este
último fue un matemático de gran valor, que desempeñó un papel decisivo
en el desarrollo de la teoría de la relatividad y la versión relativista de la
teoría del electrón. Weyl ayudó a Schrödinger con los cálculos y como
compensación pudo dormir con su esposa Anny. No sabemos qué pensaba
la mujer sobre el asunto, pero experimentos sociales de este tipo no eran
infrecuentes en el crepúsculo de la sociedad intelectual vienesa. Este
acuerdo también incluía la posibilidad de que Schrödinger se embarcara en
mil aventuras extramatrimoniales, una de las cuales condujo (en cierto
sentido) a un gran descubrimiento en el campo cuántico7.
En diciembre de 1925, Schrödinger se fue de vacaciones durante veinte días
a Arosa, un pueblo de los Alpes suizos. Dejando a Anny en casa, fue
acompañado por una vieja llama vienesa. También puso un artículo
científico de su colega francés Louis de Broglie y tapones para los oídos en
su maleta. Mientras se concentraba en su escritura, al abrigo de ruidos
molestos (y quién sabe qué hacía la señora mientras tanto), se le ocurrió la
idea de la llamada "mecánica de las olas". Era una forma nueva y diferente
de formalizar la naciente teoría cuántica en términos matemáticamente más
sencillos, gracias a ecuaciones que eran generalmente bien conocidas por
los principales físicos de la época. Esta revolucionaria idea fue un gran
apoyo para la entonces frágil teoría cuántica, que llegó a ser conocida por
un número mucho mayor de personas . La nueva ecuación, que en honor a
su descubridor se llama "ecuación de Schrödinger", por un lado, aceleró el
camino de la mecánica cuántica, pero por otro, volvió loco a su inventor por
la forma en que fue interpretada. Es sorprendente leer el arrepentimiento de
Schrödinger, debido a la revolución científica y filosófica provocada por sus
ideas.
La idea era esta: describir el electrón con las herramientas matemáticas
utilizadas para las ondas. Esta partícula, que antes se pensaba que estaba
modelada como una bola microscópica, a veces se comporta como una
onda. La física de las ondas (fenómenos que se encuentran en muchas áreas,
desde el agua hasta el sonido, desde la luz hasta la radio, etc.) era entonces
bien conocida. Schrödinger estaba muy convencido de que una partícula
como el electrón era realmente una onda de un nuevo tipo, una "onda de
materia", por así decirlo. Parecía una hipótesis de bizcocho, pero la
ecuación resultante era útil en los cálculos y proporcionaba resultados
concretos de manera relativamente sencilla. La mecánica ondulatoria de
Schrödinger dio consuelo a aquellos sectores de la comunidad científica
cuyos miembros tenían grandes dificultades para comprender la
aparentemente imparable teoría cuántica y que encontraban la versión de
Heisenberg demasiado abstracta para su gusto.
El punto central de la idea de Schrödinger es el tipo de solución de la
ecuación que describe la onda. Está escrito por convención con la letra
griega mayúscula psi, Ψ - la llamada "función de onda". Ψ es una función
en las variables espacio y tiempo que contiene toda la información sobre el
electrón. La ecuación de Schrödinger, por lo tanto, nos dice cómo varía la
función de la onda a medida que cambia el espacio y el tiempo.
Aplicada al átomo de hidrógeno, la ecuación de Schrödinger permitió
descubrir el comportamiento del electrón alrededor del núcleo. Las ondas
electrónicas determinadas por Ψ se asemejaban a las ondas sonoras
producidas por una campana o algún otro instrumento musical. Es como
tocar las cuerdas de un violín o una guitarra: el resultado son vibraciones
que corresponden de manera precisa y observable a varios niveles de
energía. La ecuación de Schrödinger proporcionó los valores correctos de
estos niveles correspondientes a las oscilaciones del electrón. Los datos en
el caso del átomo de hidrógeno ya habían sido determinados por Bohr en su
primer intento de arreglo teórico (que hoy en día se denomina con cierta
suficiencia "vieja teoría cuántica"). El átomo emite luz con niveles de
energía bien definidos (las llamadas "líneas espectrales") que gracias a la
mecánica cuántica hoy sabemos que están conectadas a los saltos del
electrón, que pasa de un estado de movimiento asociado a la onda digamos
Ψ2 al asociado a la onda Ψ1.
La ecuación de Schrödinger demostró ser una herramienta poderosa, gracias
a la cual las funciones de onda pueden ser determinadas a través de métodos
puramente matemáticos. La misma idea podría aplicarse no sólo a los
electrones, sino a cualquier fenómeno que requiriera un tratamiento a nivel
cuántico: sistemas compuestos por varios electrones, átomos enteros,
moléculas, cristales, metales conductores, protones y neutrones en el
núcleo. Hoy hemos extendido el método a todas las partículas compuestas
por quarks, los bloques de construcción fundamentales de la materia
nuclear.
Para Schrödinger, los electrones eran ondas puras y simples, similares a las
ondas marinas o de sonido, y su naturaleza de partículas podía ser pasada
por alto como ilusoria. Ψ representaba ondas de un nuevo tipo, las de la
materia. Pero al final, esta interpretación suya resultó ser errónea. ¿Qué era
realmente Ψ? Después de todo, los electrones siguieron comportándose
como si fueran partículas puntuales, que se podían ver cuando chocaban
con una pantalla fluorescente, por ejemplo. ¿Cómo se reconcilió este
comportamiento con la naturaleza ondulatoria?
Otro físico alemán, Max Born (quien, por cierto, fue un antepasado de la
cantante Olivia Newton-John), propuso una nueva interpretación de la
ecuación de Schrödinger, que sigue siendo una piedra angular de la física
actual. Según él, la onda asociada con el electrón era la llamada "onda de
probabilidad "10 . Para ser precisos, el cuadrado de Ψ(x, t), es decir, Ψ2(x,
t), era la probabilidad de encontrar el electrón en el punto x en el tiempo t.
Cuando el valor de Ψ2 es alto, hay una fuerte probabilidad de encontrar el
electrón. Donde Ψ2=0, por otro lado, no hay ninguna posibilidad. Fue una
propuesta impactante, similar a la de Heisenberg, pero tuvo el mérito de ser
más fácil de entender, porque fue formulada dentro del terreno más familiar
de la ecuación de Schrödinger. Casi todo el mundo estaba convencido y el
asunto parecía cerrado.
La hipótesis de Born establece claramente que no sabemos y nunca
podremos saber dónde está el electrón. ¿Está ahí? Bueno, hay un 85% de
probabilidades de que así sea. ¿Está en el otro lado? No podemos
descartarlo, hay un 15% de posibilidades. La interpretación de Born
también define sin vacilación lo que puede o no puede predecirse en los
experimentos, y no excluye el caso de que dos pruebas aparentemente
idénticas den resultados muy diferentes. Parece que las partículas pueden
permitirse el lujo de estar donde están en un momento determinado sin
tener que obedecer las estrictas reglas de causalidad que suelen asociarse a
la física clásica. La teoría cuántica parece como si Dios estuviera jugando a
los dados con el universo.
Schrödinger no estaba contento de haber sido protagonista de esa
inquietante revolución. Junto con Einstein, quien irónicamente escribió un
artículo en 1911 que dio a Born la inspiración para su idea, permaneció en
el campo de los disidentes toda su vida. Otro "transeúnte" fue el gran Max
Planck, quien escribió: "La interpretación probabilística propuesta por el
grupo de Copenhague debe ser condenada sin falta, por alta traición contra
nuestro querido físico".
Planck era uno de los más grandes físicos teóricos activos a principios de
siglo, y a él tampoco le gustaba el pliegue que había tomado la teoría
cuántica. Era la paradoja suprema, ya que él había sido el verdadero
progenitor de la nueva física, además de haber acuñado el término
"cuántico" ya a finales del siglo XIX.
Tal vez podamos entender al científico que habla de "traición" con respecto
a la entrada de la probabilidad en las leyes de la física en lugar de certezas
sólidas de causa y efecto. Imaginemos que tenemos una pelota de tenis
normal y la hacemos rebotar contra un muro de hormigón liso. No nos
movemos del punto donde lo lanzamos y seguimos golpeándolo con la
misma fuerza y apuntando en la misma dirección. Bajo las mismas
condiciones de límite (como el viento), un buen jugador de tenis debe ser
capaz de llevar la pelota exactamente al mismo lugar, tiro tras tiro, hasta
que se canse o la pelota (o la pared) se rompa. Un campeón como André
Agassi contaba con estas características del mundo físico para desarrollar
en el entrenamiento las habilidades que le permitieron ganar Wimbledon.
¿Pero qué pasaría si el rebote no fuera predecible? ¿O si en alguna ocasión
la bola pudo incluso cruzar la pared? ¿Y si sólo se conoce la probabilidad
del fenómeno? Por ejemplo, cincuenta y cinco veces de cada cien la pelota
regresa, las otras cuarenta y cinco pasan a través de la pared. Y así
sucesivamente, para todo: también hay una probabilidad de que pase a
través de la barrera formada por la raqueta. Sabemos que esto nunca sucede
en el mundo macroscópico y newtoniano de los torneos de tenis. Pero a
nivel atómico todo cambia. Un electrón disparado contra el equivalente de
una pared de partículas tiene una probabilidad diferente de cero de
atravesarla, gracias a una propiedad conocida como "efecto túnel". Imagine
el tipo de dificultad y frustración que un jugador de tenis encontraría en el
mundo subatómico.
Sin embargo, hay casos en los que se observa un comportamiento no
determinante en la realidad cotidiana, especialmente en la de los fotones.
Miras a través del escaparate de una tienda llena de ropa interior sexy, y te
das cuenta de que se ha formado una imagen descolorida de ti mismo en los
zapatos del maniquí. ¿Por qué? El fenómeno se debe a la naturaleza de la
luz, una corriente de partículas (fotones) con extrañas propiedades
cuánticas. Los fotones, que suponemos que vienen del Sol, en su mayoría
rebotan en tu cara, atraviesan el cristal y muestran una imagen clara de ti
(pero no eres malo) a la persona que está dentro de la tienda (tal vez el
escaparatista que está vistiendo el maniquí). Pero una pequeña parte de los
fotones se refleja en el vidrio y proporciona a los ojos el tenue retrato de su
rostro perdido en la contemplación de esas ropas microscópicas. ¿Pero
cómo es posible, ya que todos los fotones son idénticos?
Incluso con los experimentos más sofisticados, no hay manera de predecir
lo que pasará con los fotones. Sólo conocemos la probabilidad del evento:
aplicando la ecuación de Schrödinger, podemos calcular que las partículas
luminosas pasan a través de la ventana 96 veces de cada 100 y rebotan las 4
veces restantes. ¿Somos capaces de saber lo que hace el fotón único? No, de
ninguna manera, ni siquiera con los mejores instrumentos imaginables. Dios
tira los dados cada vez para decidir por dónde pasar la partícula, o al menos
eso es lo que nos dice la física cuántica (tal vez prefiere la ruleta... lo que
sea, está claro que juega con probabilidades).
Para replicar la situación de la vitrina en un contexto experimental (y
mucho más costoso), disparamos electrones contra una barrera formada por
una red de cables conductores dentro de un contenedor al vacío, conectados
al polo negativo de una batería con un voltaje igual, por ejemplo, a 10
voltios. Un electrón con una energía equivalente a un potencial de 9 voltios
debe ser reflejado, porque no puede contrarrestar la fuerza de repulsión de
la barrera. Pero la ecuación de Schrödinger nos dice que una parte de la
onda asociada con el electrón todavía se las arregla para pasar a través de
ella, tal como lo hizo con los fotones con el vidrio. Pero en nuestra
experiencia no hay "fracciones" de fotón o electrón: estas partículas no
están hechas de plastilina y no se pueden desprender pedazos de ellas a
voluntad. Así que el resultado final siempre debe ser uno, es decir, la
reflexión o el cruce. Si los cálculos nos dicen que la primera eventualidad
ocurre en el 20 por ciento de los casos, esto significa que todo el electrón o
fotón se refleja con una probabilidad del 20 por ciento. Lo sabemos gracias
a la ecuación de Schrödinger, que nos da el resultado en términos de Ψ2.
Fue precisamente con la ayuda de experimentos análogos que los físicos
abandonaron la interpretación original de Schrödinger, que preveía
electrones de "plastilina", es decir, ondas de materia, para llegar a la mucho
menos intuitiva probabilística, según la cual una cierta función matemática,
Ψ2, proporcionaba la probabilidad de encontrar partículas en una
determinada posición en un instante dado. Si disparamos mil electrones
contra una pantalla y comprobamos con un contador Geiger cuántos de
ellos pasan por ella, podemos encontrar que 568 han pasado y 432 se han
reflejado. ¿A cuál de ellos le afectó esto? No hay forma de saberlo, ni ahora
ni nunca. Esta es la frustrante realidad de la física cuántica. Todo lo que
podemos hacer es calcular la probabilidad del evento, Ψ2.
Schrödinger tenía un gatito...
Al examinar las paradojas filosóficas que aporta la teoría cuántica no
podemos pasar por alto el ya famoso caso del gato de Schrödinger, en el que
el divertido mundo microscópico con sus leyes probabilísticas está ligado al
macroscópico con sus precisos pronunciamientos newtonianos. Al igual que
Einstein, Podolsky y Rosen, Schrödinger no quería aceptar el hecho de que
la realidad objetiva no existía antes de la observación, sino que se
encontraba en una maraña de estados posibles. Su paradoja del gato fue
originalmente pensada como una forma de burlarse de una visión del
mundo que era insostenible para él, pero ha demostrado ser una de las
pesadillas más tenaces de la ciencia moderna hasta el día de hoy. Esto
también, como el EPR, es un experimento mental o conceptual, diseñado
para hacer que los efectos cuánticos se manifiesten de manera resonante
incluso en el campo macroscópico. Y también hace uso de la radiactividad,
un fenómeno que implica el decaimiento de la materia según una tasa
predecible, pero sin saber exactamente cuándo se desintegrará la única
partícula (es decir, como hemos visto anteriormente, podemos decir cuántas
partículas decaerán en una hora, por ejemplo, pero no cuándo lo hará una de
ellas).
Esta es la situación imaginada por Schrödinger. Encerramos un gato dentro
de una caja junto con un frasco que contiene un gas venenoso. Por otro
lado, ponemos una pequeña y bien sellada cantidad de material radioactivo
para tener un 50% de posibilidades de ver una sola descomposición en el
espacio de una hora. Inventemos algún tipo de dispositivo que conecte el
contador Geiger que detecta la descomposición a un interruptor, que a su
vez activa un martillo, que a su vez golpea el vial, liberando así el gas y
matando al gato (por supuesto estos intelectuales vieneses de principios del
siglo XX eran muy extraños...).
Dejemos pasar una hora y preguntémonos: ¿el gato está vivo o muerto? Si
describimos el sistema con una función de onda, obtenemos un estado
"mixto "15 como el que se ha visto anteriormente, en el que el gato es
"embadurnado" (pedimos disculpas a los amantes de los gatos) a partes
iguales entre la vida y la muerte. En los símbolos podríamos escribir
Ψgatto-vivo + Ψgatto-morto. A nivel macroscópico, sólo podemos calcular
la probabilidad de encontrar al gato vivo, igual a (Ψgatto-live)2, y la de
encontrarlo muerto, igual a (Ψgatto-dead)2.
Pero aquí está el dilema: ¿el colapso del estado cuántico inicial en el "gato
vivo" o en el "gato muerto" está determinado por el momento en que
alguien (o algo) se asoma a la caja? ¿No podría ser el propio gato,
angustiado al mirar el contador Geiger, la entidad capaz de tomar la
medida? O, si queremos una crisis de identidad más profunda: la
desintegración radiactiva podría ser monitoreada por una computadora, que
en cualquier momento es capaz de imprimir el estado del gato en una hoja
de papel dentro de la caja. Cuando la computadora registra la llegada de la
partícula, ¿el gato está definitivamente vivo o muerto? ¿O es cuando la
impresión del estado está terminada? ¿O cuando un observador humano lo
lee? ¿O cuando el flujo de electrones producido por la descomposición se
encuentra con un sensor dentro del contador Geiger que lo activa, es decir,
cuando pasamos del mundo subatómico al macroscópico? La paradoja del
gato de Schrödinger, como la del EPR, parece a primera vista una fuerte
refutación de los principios fundamentales de la física cuántica. Está claro
que el gato no puede estar en un estado "mixto", mitad vivo y mitad muerto.
¿O puede?
Como veremos mejor más adelante, algunos experimentos han demostrado
que el gato visible de Schrödinger, que representa a todos los sistemas
macroscópicos, puede estar realmente en un estado mixto; en otras palabras,
la teoría cuántica implica la existencia de estas situaciones también a nivel
macroscópico. Otra victoria para la nueva física.
Los efectos cuánticos, de hecho, pueden ocurrir a varias escalas, desde el
más pequeño de los átomos hasta el más grande de los sistemas. Un
ejemplo de ello es la llamada "superconductividad", por la que a muy bajas
temperaturas ciertos materiales no tienen resistencia eléctrica y permiten
que la corriente circule infinitamente sin la ayuda de baterías, y que los
imanes permanezcan suspendidos sobre los circuitos para siempre. Lo
mismo ocurre con la "superfluidez", un estado de la materia en el que, por
ejemplo, un flujo de helio líquido puede subir por las paredes de un tubo de
ensayo o alimentar fuentes perpetuas, sin consumir energía. Y lo mismo
ocurre con el misterioso fenómeno gracias al cual todas las partículas
adquieren masa, el llamado "mecanismo de Higgs". No hay forma de
escapar de la mecánica cuántica: al final, todos somos gatos encerrados en
alguna caja.
No hay matemáticas, lo prometo, pero sólo unos pocos números...
Con este libro queremos dar una idea de las herramientas que la física ha
desarrollado para intentar comprender el extraño mundo microscópico
habitado por los átomos y las moléculas. Pedimos a los lectores sólo dos
pequeños esfuerzos: tener un sano sentido de la curiosidad por el mundo y
dominar las técnicas avanzadas de resolución de ecuaciones diferenciales
con derivadas parciales. Muy bien, bromeamos. Después de años de dar
cursos de física elemental a estudiantes de facultades no científicas,
sabemos lo extendido que está el terror a las matemáticas entre la
población. No hay fórmulas, entonces, o al menos el mínimo, unas pocas y
dispersas aquí y allá.
La visión científica del mundo debería ser enseñada a todo el mundo. La
mecánica cuántica, en particular, es el cambio de perspectiva más radical
que se ha producido en el pensamiento humano desde que los antiguos
griegos comenzaron a abandonar el mito en favor de la búsqueda de
principios racionales en el universo. Gracias a la nueva teoría, nuestra
comprensión del mundo se ha ampliado enormemente. El precio pagado por
la ciencia moderna por esta ampliación de los horizontes intelectuales ha
sido la aceptación de muchas ideas aparentemente contrarias a la intuición.
Pero recuerden que la culpa de esto recae principalmente en nuestro viejo
lenguaje newtoniano, que es incapaz de describir con precisión el mundo
atómico. Como científicos, prometemos hacer lo mejor posible.
Como estamos a punto de entrar en el reino de lo infinitamente pequeño, es
mejor que usemos la conveniente notación de los "poderes de diez". No se
asuste por esta taquigrafía científica que a veces usaremos en el libro: es
sólo un método para registrar sin esfuerzo números muy grandes o muy
pequeños. Si ves escrito por ejemplo 104 ("diez elevado a la cuarta
potencia", o "diez a la cuarta"), todo lo que tienes que hacer es traducirlo
como "uno seguido de cuatro ceros": 104=10000. Por el contrario, 10-4
indica "uno precedido de cuatro ceros", uno de los cuales debe estar
obviamente antes de la coma: 10-4=0,0001, es decir, 1/10000, una
diezmilésima.
Usando este simple lenguaje, veamos cómo expresar las escalas en las que
ocurren varios fenómenos naturales, en orden descendente.
- 100 m=1 m, es decir un metro: es la típica escala humana, igual a la altura
de un niño, la longitud de un brazo o un escalón;
- 10-2 m=1 cm, es decir un centímetro: es el ancho de una pulgada, el largo
de una abeja o una avellana.
- 10-4 m, un décimo de milímetro: es el grosor de un alfiler o de las patas
de una hormiga; hasta ahora siempre estamos en el dominio de aplicación
de la física clásica newtoniana.
- 10-6 m, una micra o millonésima de metro: estamos al nivel de las
mayores moléculas que se encuentran en las células de los organismos,
como el ADN; también estamos en la longitud de onda de la luz visible;
aquí empezamos a sentir los efectos cuánticos.
- 10-9 m, un nanómetro o una milmillonésima parte de un metro: este es el
diámetro de un átomo de oro; el más pequeño de los átomos, el átomo de
hidrógeno, tiene un diámetro de 10-10 m.
- 10-15 m: estamos en las partes del núcleo atómico; los protones y los
neutrones tienen un diámetro de 10-16 m, y por debajo de esta longitud
encontramos los quarks.
- 10-19 m: es la escala más pequeña que se puede observar con el
acelerador de partículas más potente del mundo, el LHC del CERN en
Ginebra.
- 10-35 m: es la escala más pequeña que creemos que existe, bajo la cual la
misma idea de "distancia" pierde su significado debido a los efectos
cuánticos.
Los datos experimentales nos dicen que la mecánica cuántica es válida y
fundamental para la comprensión de los fenómenos de 10-9 a 10-15 metros,
es decir, de los átomos a los núcleos (en palabras: de una milmillonésima a
una millonésima de una milmillonésima de metro). En algunas
investigaciones recientes, gracias al Tevatrón del Fermilab, hemos podido
investigar distancias del orden de 10-18 metros y no hemos visto nada que
nos convenza del fracaso a esa escala de la mecánica cuántica. Pronto
penetraremos en territorios más pequeños por un factor de diez, gracias al
colosal LHC, el acelerador del CERN que está a punto de empezar a
funcionar.* La exploración de estos nuevos mundos no es similar a la
geográfica, al descubrimiento de un nuevo continente hasta ahora
desconocido. Es más bien una investigación dentro de nuestro mundo,
porque el universo se compone de la colección de todos los habitantes del
dominio microscópico. De sus propiedades, y sus consecuencias, depende
nuestro futuro.
¿Por qué necesitamos una "teoría"?
Algunos de ustedes se preguntarán si una simple teoría vale la pena. Bueno,
hay teorías y teorías, y es culpa de nosotros los científicos que usamos la
misma palabra para indicar contextos muy diferentes. En sí misma, una
"teoría" no está ni siquiera científicamente bien definida.
Tomemos un ejemplo un tanto trivial. Una población que vive a orillas del
Océano Atlántico nota que el Sol sale en el horizonte todas las mañanas a
las 5 a.m. y se pone en dirección opuesta todas las tardes a las 7 p.m. Para
explicar este fenómeno, un venerable sabio propone una teoría: hay un
número infinito de soles ocultos bajo el horizonte, que aparecen cada 24
horas. Sin embargo, hay una hipótesis que requiere menos recursos: todo lo
que se necesita es un solo Sol girando alrededor de la Tierra, supuestamente
esférico, en 24 horas. Una tercera teoría, la más extraña y contraria a la
intuición, argumenta en cambio que el Sol se queda quieto y la Tierra gira
sobre sí misma en 24 horas. Así que tenemos tres ideas contradictorias. En
este caso la palabra "teoría" implica la presencia de una hipótesis que
explica de manera racional y sistemática por qué ocurre lo que observamos.
La primera teoría es fácilmente refutada, por muchas buenas razones (o
simplemente porque es idiota). Es más difícil deshacerse del segundo; por
ejemplo, se podría observar que los otros planetas del cielo giran sobre sí
mismos, así que por analogía la Tierra debería hacer lo mismo. Sea como
fuere, al final, gracias a precisas mediciones experimentales, comprobamos
que es nuestro mundo el que gira. Así que sólo una teoría sobrevive, que
llamaremos rotación axial o RA.
Sin embargo, hay un problema: en toda la discusión anterior nunca
hablamos de "verdades" o "hechos", sólo de "teorías". Sabemos muy bien
que la RA tiene siglos de antigüedad, y sin embargo todavía la llamamos
"teoría copernicana", aunque estamos seguros de que es verdad, que es un
hecho establecido. En realidad, queremos subrayar el hecho de que la
hipótesis de la AR es la mejor, en el sentido de que encaja mejor con las
observaciones y pruebas, que son muy diferentes e incluso realizadas en
circunstancias extremas. Hasta que tengamos una mejor explicación, nos
quedaremos con ésta. Sin embargo, seguimos llamándolo teoría. Tal vez
porque hemos visto en el pasado que las ideas dadas por sentadas en
algunas áreas han requerido cambios en el cambio a diferentes áreas.
Así que hoy en día hablamos de "teoría de la relatividad", "teoría cuántica",
"teoría del electromagnetismo", "teoría darwiniana de la evolución" y así
sucesivamente, aunque sabemos que todas ellas han alcanzado un mayor
grado de credibilidad y aceptación científica. Sus explicaciones de los
diversos fenómenos son válidas y se consideran "verdades objetivas" en sus
respectivos ámbitos de aplicación. También hay teorías propuestas pero no
verificadas, como la de las cuerdas, que parecen excelentes intentos, pero
que podrían ser aceptadas como rechazadas. Y hay teorías que se
abandonan definitivamente, como la del flogisto (un misterioso fluido
responsable de la combustión) y la calórica (un fluido igualmente
misterioso responsable de la transmisión del calor). Sin embargo, hoy en
día, la teoría cuántica es la mejor verificada de todas las teorías científicas
jamás propuestas. Aceptémoslo como un hecho: es un hecho.
Basta con lo intuitivo, hurra por lo contrario.
A medida que nos acercamos a los nuevos territorios atómicos, todo lo que
la intuición sugiere se vuelve sospechoso y la información acumulada hasta
ahora puede ya no sernos útil. La vida cotidiana tiene lugar dentro de una
gama muy limitada de experiencias. No sabemos, por ejemplo, lo que se
siente al viajar un millón de veces más rápido que una bala, o al soportar
temperaturas de miles de millones de grados; tampoco hemos bailado nunca
en la luna llena con un átomo o un núcleo. La ciencia, sin embargo, ha
compensado nuestra limitada experiencia directa con la naturaleza y nos ha
hecho conscientes de lo grande y lleno de cosas diferentes que es el mundo
ahí fuera. Para usar la metáfora querida por un colega nuestro, somos como
embriones de gallina que se alimentan de lo que encuentran en el huevo
hasta que se acaba la comida, y parece que nuestro mundo también debe
acabar; pero entonces intentamos darle un pico a la cáscara, salir y
descubrir un universo inmensamente más grande e interesante.
Entre las diversas intuiciones típicas de un ser humano adulto está la de que
los objetos que nos rodean, ya sean sillas, lámparas o gatos, existen
independientemente de nosotros y tienen ciertas propiedades objetivas.
También creemos, basándonos en lo que estudiamos en la escuela, que si
repetimos un experimento en varias ocasiones (por ejemplo, si dejamos que
dos coches diferentes circulen por una rampa) deberíamos obtener siempre
los mismos resultados. También es obvio, intuitivo, que una pelota de tenis
que pasa de una mitad de la cancha a otra tiene una posición y velocidad
definidas en todo momento. Basta con filmar el evento, es decir, obtener
una colección de instantáneas, conocer la situación en varios momentos y
reconstruir la trayectoria general del balón.
Estas intuiciones siguen ayudándonos en el mundo macroscópico, entre
máquinas y bolas, pero como ya hemos visto (y volveremos a ver en el
curso del libro), si bajamos al nivel atómico vemos que ocurren cosas
extrañas, que nos obligan a abandonar los preconceptos que nos son tan
queridos: prepárense para dejar sus intuiciones en la entrada, queridos
lectores. La historia de la ciencia es una historia de revoluciones, pero no
tiran todo el conocimiento previo. El trabajo de Newton, por ejemplo,
comprendió y amplió (sin destruirlos) las investigaciones previas de
Galileo, Kepler y Copérnico. James Clerk Maxwell, inventor de la teoría
del electromagnetismo en el siglo XIX17 , tomó los resultados de Newton y
los usó para extender ciertos aspectos de la teoría a otros campos. La
relatividad einsteniana incorporó la física de Newton y amplió su dominio
hasta incluir casos en los que la velocidad es muy alta o el espacio muy
extendido, campos en los que las nuevas ecuaciones son válidas (mientras
que las antiguas siguen siendo válidas en los demás casos). La mecánica
cuántica partió de Newton y Maxwell para llegar a una teoría coherente de
los fenómenos atómicos. En todos estos casos, el paso a las nuevas teorías
se hizo, al menos al principio, utilizando el lenguaje de las antiguas; pero
con la mecánica cuántica vemos el fracaso del lenguaje clásico de la física
anterior, así como de los lenguajes humanos naturales.
Einstein y sus colegas disidentes se enfrentaron a nuestra propia dificultad,
es decir, entender la nueva física atómica a través del vocabulario y la
filosofía de los objetos macroscópicos. Tenemos que aprender a entender
que el mundo de Newton y Maxwell se encuentra como consecuencia de la
nueva teoría, que se expresa en el lenguaje cuántico. Si fuéramos también
tan grandes como los átomos, habríamos crecido rodeados de fenómenos
que nos serían familiares; y tal vez un día un alienígena tan grande como un
quark nos preguntaría, "¿Qué clase de mundo crees que obtenemos si
juntamos 1023 átomos y formamos un objeto que yo llamo una "bola"?
Tal vez sean los conceptos de probabilidad e indeterminación los que
desafían nuestras habilidades lingüísticas. Este no es un pequeño problema
que permanece en nuestros días y frustra incluso a las grandes mentes. Se
dice que el famoso físico teórico Richard Feynman se negó a responder a un
periodista que, durante una entrevista, le pidió que explicara al público qué
fuerza actuaba entre dos imanes, alegando que era una tarea imposible. Más
tarde, cuando se le pidió una aclaración, dijo que era debido a preconceptos
intuitivos. El periodista y una gran parte de la audiencia entienden la
"fuerza" como lo que sentimos si recompensamos
la palma de tu mano contra la mesa. Este es su mundo, y su lenguaje. Pero
en realidad el acto de poner la mano contra la mesa implica fuerzas
electromagnéticas, la cohesión de la materia, la mecánica cuántica, es muy
complicado. No fue posible explicar la fuerza magnética pura en términos
familiares a los habitantes del "viejo mundo".
Como veremos, para entender la teoría cuántica debemos entrar en un
nuevo mundo. Es ciertamente el fruto más importante de las exploraciones
científicas del siglo XX, y será esencial a lo largo del nuevo siglo. No está
bien dejar que sólo los profesionales lo disfruten.
Incluso hoy, a principios de la segunda década del siglo XXI, algunos
científicos ilustres siguen buscando con gran esfuerzo una versión más
"amistosa" de la mecánica cuántica que perturbe menos nuestro sentido
común. Pero estos esfuerzos hasta ahora parecen no llevar a ninguna parte.
Otros científicos simplemente aprenden las reglas del mundo cuántico y
hacen progresos, incluso importantes, por ejemplo adaptándolas a nuevos
principios de simetría, utilizándolas para formular hipótesis sobre un mundo
en el que las cuerdas y las membranas sustituyen a las partículas
elementales, o imaginando lo que ocurre a escalas miles de millones de
veces más pequeñas que las que hemos alcanzado hasta ahora con nuestros
instrumentos. Esta última línea de investigación parece la más prometedora
y podría darnos una idea de lo que podría unificar las diversas fuerzas y la
propia estructura del espacio y el tiempo.
Nuestro objetivo es hacerles apreciar la inquietante rareza de la teoría
cuántica, pero sobre todo las profundas consecuencias que tiene en nuestra
comprensión del mundo. Por nuestra parte, creemos que el malestar se debe
principalmente a nuestros prejuicios. La naturaleza habla en un idioma
diferente, que debemos aprender, así como sería bueno leer a Camus en el
francés original y no en una traducción llena de argot americano. Si unos
pocos pasos nos hacen pasar un mal rato, tomemos unas buenas vacaciones
en Provenza y respiremos el aire de Francia, en lugar de quedarnos en
nuestra casa de los suburbios y tratar de adaptar el lenguaje que usamos
cada día a ese mundo tan diferente. En los próximos capítulos intentaremos
transportarle a un lugar que es parte de nuestro universo y que al mismo
tiempo va más allá de la imaginación, y en los próximos capítulos también
le enseñaremos el lenguaje para entender el nuevo mundo.
Capítulo 2
El comienzo

Un factor de complicación

A ntes de intentar comprender el vertiginoso universo cuántico, es


necesario familiarizarse con algunos aspectos de las teorías científicas
que lo precedieron, es decir, con la llamada física clásica. Este conjunto
de conocimientos es la culminación de siglos de investigación, iniciados
incluso antes de la época de Galileo y completados por genios como Isaac
Newton, Michael Faraday, James Clerk Maxwell, Heinrich Hertz y muchos
otros2. La física clásica, que reinó sin cuestionamientos hasta principios del
siglo XX, se basa en la idea de un universo de relojería: ordenado,
predecible, gobernado por leyes causales.
Para tener un ejemplo de una idea contraria a la intuición, tomemos nuestra
Tierra, que desde nuestro típico punto de vista parece sólida, inmutable,
eterna. Somos capaces de equilibrar una bandeja llena de tazas de café sin
derramar una sola gota, y sin embargo nuestro planeta gira rápido sobre sí
mismo. Todos los objetos de su superficie, lejos de estar en reposo, giran
con él como los pasajeros de un colosal carrusel. En el Ecuador, la Tierra se
mueve más rápido que un jet, a más de 1600 kilómetros por hora; además,
corre desenfrenadamente alrededor del Sol a una increíble velocidad media
de 108.000 kilómetros por hora. Y para colmo, todo el sistema solar,
incluyendo la Tierra, viaja alrededor de la galaxia a velocidades aún
mayores. Sin embargo, no lo notamos, no sentimos que estamos corriendo.
Vemos el Sol saliendo por el este y poniéndose por el oeste, y nada más.
¿Cómo es posible? Escribir una carta mientras se monta a caballo o se
conduce un coche a cien millas por hora en la autopista es una tarea muy
difícil, pero todos hemos visto imágenes de astronautas haciendo trabajos
de precisión dentro de una estación orbital, lanzada alrededor de nuestro
planeta a casi 30.000 millas por hora. Si no fuera por el globo azul que
cambia de forma en el fondo, esos hombres que flotan en el espacio parecen
estar quietos.
La intuición generalmente no se da cuenta si lo que nos rodea se mueve a la
misma velocidad que nosotros, y si el movimiento es uniforme y no
acelerado no sentimos ninguna sensación de desplazamiento. Los griegos
creían que había un estado de reposo absoluto, relativo a la superficie de la
Tierra. Galileo cuestionó esta venerable idea aristotélica y la reemplazó por
otra más científica: para la física no hay diferencia entre quedarse quieto y
moverse con dirección y velocidad constantes (incluso aproximadas). Desde
su punto de vista, los astronautas están quietos; vistos desde la Tierra, nos
están rodeando a una loca velocidad de 28.800 kilómetros por hora.
El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos de
diferente peso caen a la misma velocidad y llegan al suelo al mismo tiempo.
Para casi todos sus contemporáneos, sin embargo, estaba lejos de ser obvio,
porque la experiencia diaria parecía decir lo contrario. Pero el científico
hizo los experimentos correctos para probar su tesis, y también encontró
una justificación racional: era la resistencia del aire que barajaba las cartas.
Para Galileo esto era sólo un factor de complicación, que ocultaba la
profunda simplicidad de las leyes naturales. Sin aire entre los pies, todos los
cuerpos caen con la misma velocidad, desde la pluma hasta la roca colosal.
Se descubrió entonces que la atracción gravitatoria de la Tierra, que es una
fuerza, depende de la masa del objeto que cae, donde la masa es una medida
de la cantidad de materia contenida en el propio objeto.
El peso, por otro lado, es la fuerza ejercida por la gravedad sobre los
cuerpos dotados de masa (recordarán que el profesor de física en el instituto
repetía: "Si transportas un objeto a la Luna, su masa permanece igual,
mientras que el peso se reduce". Hoy en día todo esto está claro para
nosotros gracias al trabajo de hombres como Galileo). La fuerza de
gravedad es directamente proporcional a la masa: dobla la masa y también
dobla la fuerza. Al mismo tiempo, sin embargo, a medida que la masa
crece, también lo hace la resistencia a cambiar el estado de movimiento.
Estos dos efectos iguales y opuestos se anulan mutuamente y así sucede que
todos los cuerpos caen al suelo a la misma velocidad - como de costumbre
descuidando ese factor de fricción que se complica.
Para los filósofos de la antigua Grecia el estado de descanso parecía
obviamente el más natural para los cuerpos, a los que todos tienden. Si
pateamos una pelota, tarde o temprano se detiene; si nos quedamos sin
combustible en un auto, también se detiene; lo mismo sucede con un disco
que se desliza sobre una mesa. Todo esto es perfectamente sensato y
también perfectamente aristotélico (esto del aristotelismo debe ser nuestro
instinto innato).
Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho, de que si
se abisagraba la superficie de la mesa y se alisaba el disco, continuaría
funcionando durante mucho más tiempo; podemos verificarlo, por ejemplo,
deslizando un disco de hockey sobre un lago helado. Eliminemos toda la
fricción y otros factores complicados, y veamos que el disco sigue
deslizándose interminablemente a lo largo de una trayectoria recta a una
velocidad uniforme. Esto es lo que causa el final del movimiento, dijo
Galileo: la fricción entre el disco y la mesa (o entre el coche y la carretera),
es un factor que complica.
Normalmente en los laboratorios de física hay una larga pista metálica con
numerosos pequeños agujeros por los que pasa el aire. De esta manera, un
carro colocado en el riel, el equivalente a nuestro disco, puede moverse
flotando en un cojinete de aire. En los extremos de la barandilla hay
parachoques de goma. Todo lo que se necesita es un pequeño empujón
inicial y el carro comienza a rebotar sin parar entre los dos extremos, de ida
y vuelta, a veces durante toda la hora. Parece animado con su propia vida,
¿cómo es posible? El espectáculo es divertido porque va en contra del
sentido común, pero en realidad es una manifestación de un principio
profundo de la física, que se manifiesta cuando eliminamos la complicación
de la fricción. Gracias a experimentos menos tecnológicos pero igualmente
esclarecedores, Galileo descubrió una nueva ley de la naturaleza, que dice:
"Un cuerpo aislado en movimiento mantiene su estado de movimiento para
siempre. Por "aislado" nos referimos a que la fricción, las diversas fuerzas,
o lo que sea, no actúan sobre él. Sólo la aplicación de una fuerza puede
cambiar un estado de movimiento.
Es contraintuitivo, ¿no? Sí, porque es muy difícil imaginar un cuerpo
verdaderamente aislado, una criatura mitológica que no se encuentra en
casa, en el parque o en cualquier otro lugar de la Tierra. Sólo podemos
acercarnos a esta situación ideal en un laboratorio, con equipos diseñados
según las necesidades. Pero después de presenciar alguna otra versión del
experimento de la pista de aire, los estudiantes de física de primer año
suelen dar por sentado el principio.
El método científico implica una cuidadosa observación del mundo. Una de
las piedras angulares de su éxito en los últimos cuatro siglos es su
capacidad para crear modelos abstractos, para referirse a un universo ideal
en nuestras mentes, desprovisto de las complicaciones del real, donde
podemos buscar las leyes de la naturaleza. Después de haber logrado un
resultado en este mundo, podemos ir al ataque del otro, el más complicado,
después de haber cuantificado los factores de complicación como la
fricción.
Pasemos a otro ejemplo importante. El sistema solar es realmente
intrincado. Hay una gran estrella en el centro, el Sol, y hay nueve (o más
bien ocho, después de la degradación de Plutón) cuerpos más pequeños de
varias masas que giran a su alrededor; los planetas a su vez pueden tener
satélites. Todos estos cuerpos se atraen entre sí y se mueven según una
compleja coreografía. Para simplificar la situación, Newton redujo todo a
un modelo ideal: una estrella y un solo planeta. ¿Cómo se comportarían
estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un
sistema complejo (ocho planetas y el Sol) y consideremos un subconjunto
más manejable del mismo (un planeta y el Sol). Ahora quizás el problema
pueda ser abordado (en este caso sí). Resuélvelo y trata de entender qué
características de la solución se conservan en el retorno al sistema complejo
de partida (en este caso vemos que cada planeta se comporta prácticamente
como si estuviera solo, con mínimas correcciones debido a la atracción
entre los propios planetas).
El reduccionismo no siempre es aplicable y no siempre funciona. Por eso
todavía no tenemos una descripción precisa de objetos como los tornados o
el flujo turbulento de un fluido, sin mencionar los complejos fenómenos a
nivel de moléculas y organismos vivos. El método resulta útil cuando el
modelo ideal no se desvía demasiado de su versión fea y caótica, en la que
vivimos. En el caso del sistema solar, la masa de la estrella es tan grande
que es posible pasar por alto la atracción de Marte, Venus, Júpiter y la
compañía cuando estudiamos los movimientos de la Tierra: el sistema
estrella + planeta proporciona una descripción aceptable de los
movimientos de la Tierra. Y a medida que nos familiarizamos con este
método, podemos volver al mundo real y hacer un esfuerzo extra para tratar
de tener en cuenta el siguiente factor de complicación en orden de
importancia.
La parábola y el péndulo
La física clásica, o física precuántica, se basa en dos piedras angulares. La
primera es la mecánica galileo-newtoniana, inventada en el siglo XVII. La
segunda está dada por las leyes de la electricidad, el magnetismo y la
óptica, descubiertas en el siglo XIX por un grupo de científicos cuyos
nombres, quién sabe por qué, todos recuerdan algunas unidades de cantidad
física: Coulomb, Ørsted, Ohm, Ampère, Faraday y Maxwell. Comencemos
con la obra maestra de Newton, la continuación de la obra de nuestro héroe
Galileo.
Los cuerpos salieron en caída libre, con una velocidad que aumenta a
medida que pasa el tiempo según un valor fijo (la tasa de variación de la
velocidad se llama aceleración). Una bala, una pelota de tenis, una bala de
cañón, todas describen en su movimiento un arco de suprema elegancia
matemática, trazando una curva llamada parábola. Un péndulo, es decir, un
cuerpo atado a un cable colgante (como un columpio hecho por un
neumático atado a una rama, o un viejo reloj), oscila con una regularidad
notable, de modo que (precisamente) se puede ajustar el reloj. El Sol y la
Luna atraen las aguas de los mares terrestres y crean mareas. Estos y otros
fenómenos pueden ser explicados racionalmente por las leyes de
movimiento de Newton.
Su explosión creativa, que tiene pocos iguales en la historia del
pensamiento humano, lo llevó en poco tiempo a dos grandes
descubrimientos. Para describirlos con precisión y comparar sus
predicciones con los datos, utilizó un lenguaje matemático particular
llamado cálculo infinitesimal, que tuvo que inventar en su mayor parte
desde cero. El primer descubrimiento, normalmente denominado "las tres
leyes del movimiento", se utiliza para calcular los movimientos de los
cuerpos una vez conocidas las fuerzas que actúan sobre ellos (Newton
podría haber presumido así: "Dame las fuerzas y un ordenador lo
suficientemente potente y te diré lo que ocurrirá en el futuro". Pero parece
que nunca lo dijo).
Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil maneras: a
través de cuerdas, palos, músculos humanos, viento, presión del agua,
imanes y así sucesivamente. Una fuerza natural particular, la gravedad, fue
el centro del segundo gran descubrimiento de Newton. Describiendo el
fenómeno con una ecuación de asombrosa sencillez, estableció que todos
los objetos dotados de masa se atraen entre sí y que el valor de la fuerza de
atracción disminuye a medida que aumenta la distancia entre los objetos, de
esta manera: si la distancia se duplica, la fuerza se reduce en una cuarta
parte; si se triplica, en una novena parte; y así sucesivamente. Es la famosa
"ley de la inversa del cuadrado", gracias a la cual sabemos que podemos
hacer que el valor de la fuerza de gravedad sea pequeño a voluntad,
simplemente alejándonos lo suficiente. Por ejemplo, la atracción ejercida
sobre un ser humano por Alfa Centauri, una de las estrellas más cercanas (a
sólo cuatro años luz), es igual a una diez milésima de una milmillonésima, o
10-13, de la ejercida por la Tierra. Por el contrario, si nos acercáramos a un
objeto de gran masa, como una estrella de neutrones, la fuerza de gravedad
resultante nos aplastaría hasta el tamaño de un núcleo atómico. Las leyes de
Newton describen la acción de la gravedad sobre todo: manzanas que caen
de los árboles, balas, péndulos y otros objetos situados en la superficie de la
Tierra, donde casi todos pasamos nuestra existencia. Pero también se
aplican a la inmensidad del espacio, por ejemplo entre la Tierra y el Sol,
que están en promedio a 150 millones de kilómetros de distancia.
¿Estamos seguros, sin embargo, de que estas leyes todavía se aplican fuera
de nuestro planeta? Una teoría es válida si proporciona valores de acuerdo
con los datos experimentales (teniendo en cuenta los inevitables errores de
medición). Piensa: la evidencia muestra que las leyes de Newton funcionan
bien en el sistema solar. Con muy buena aproximación, los planetas
individuales pueden ser estudiados gracias a la simplificación vista
anteriormente, es decir, descuidando los efectos de los demás y sólo
teniendo en cuenta el Sol. La teoría newtoniana predice que los planetas
giran alrededor de nuestra estrella siguiendo órbitas perfectamente elípticas.
Pero si examinamos bien los datos, nos damos cuenta de que hay pequeñas
discrepancias en el caso de Marte, cuya órbita no es exactamente la
predicha por la aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente
pequeños) efectos en el planeta rojo de cuerpos como la Tierra, Venus,
Júpiter y así sucesivamente. Este último, en particular, es muy grande y le
da a Marte un buen golpe cada vez que se acerca a sus órbitas. A largo
plazo, estos efectos se suman. No es imposible que dentro de unos pocos
miles de millones de años Marte sea expulsado del sistema solar como un
concursante de un reality show. Así que vemos que el problema de los
movimientos planetarios se vuelve más complejo si consideramos los largos
intervalos de tiempo. Pero gracias a los ordenadores modernos podemos
hacer frente a estas pequeñas (y no tan pequeñas) perturbaciones -
incluyendo las debidas a la teoría de la relatividad general de Einstein, que
es la versión moderna de la gravitación newtoniana. Con las correcciones
correctas, vemos que la teoría siempre está en perfecto acuerdo con los
datos experimentales. Sin embargo, ¿qué podemos decir cuando entran en
juego distancias aún mayores, como las que hay entre las estrellas? Las
mediciones astronómicas más modernas nos dicen que la fuerza de
gravedad está presente en todo el cosmos y, por lo que sabemos, se aplica
en todas partes.
Tomemos un momento para contemplar una lista de fenómenos que tienen
lugar según la ley de Newton. Las manzanas caen de los árboles, en
realidad se dirigen hacia el centro de la Tierra. Las balas de artillería
siembran la destrucción después de los arcos de parábola. La Luna se asoma
a sólo 384.000 kilómetros de nosotros y causa mareas y languidez
romántica. Los planetas giran alrededor del Sol en órbitas ligeramente
elípticas, casi circulares. Los cometas, por otro lado, siguen trayectorias
muy elípticas y tardan cientos o miles de años en dar un giro y volver a
mostrarse. Desde el más pequeño al más grande, los ingredientes del
universo se comportan de manera perfectamente predecible, siguiendo las
leyes descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz

ntes de dejar atrás la física clásica, tenemos que pasar unos minutos
A hablando sobre la luz y jugando con ella, porque será la protagonista de
muchas cuestiones importantes (y al principio desconcertantes) cuando
empecemos a entrar en el mundo cuántico. Así que ahora haremos una
mirada histórica a la teoría de la luz en el mundo clásico.1
La luz es una forma de energía. Puede producirse de diversas maneras, ya
sea transformando la energía eléctrica (como se ve, por ejemplo, en una
bombilla, o en el enrojecimiento de las resistencias de las tostadoras) o la
energía química (como en las velas y los procesos de combustión en
general). La luz solar, consecuencia de las altas temperaturas presentes en la
superficie de nuestra estrella, proviene de procesos de fusión nuclear que
tienen lugar en su interior. E incluso las partículas radiactivas producidas
por un reactor nuclear aquí en la Tierra emiten una luz azul cuando entran
en el agua (que se ionizan, es decir, arrancan electrones de los átomos).
Todo lo que se necesita es una pequeña cantidad de energía inyectada en
cualquier sustancia para calentarla. A pequeña escala, esto puede sentirse
como un aumento moderado de la temperatura (como saben los que
disfrutan del bricolaje los fines de semana, los clavos se calientan después
de una serie de martillazos, o si se arrancan de la madera con unas pinzas).
Si suministramos suficiente energía a un trozo de hierro, éste comienza a
emitir radiación luminosa; inicialmente es de color rojizo, luego a medida
que aumenta la temperatura vemos aparecer en orden los tonos naranja,
amarillo, verde y azul. Al final, si el calor es lo suficientemente alto, la luz
emitida se convierte en blanca, el resultado de la suma de todos los colores.
La mayoría de los cuerpos que nos rodean, sin embargo, son visibles no
porque emitan luz, sino porque la reflejan. Excluyendo el caso de los
espejos, la reflexión es siempre imperfecta, no total: un objeto rojo se nos
aparece como tal porque refleja sólo este componente de la luz y absorbe
naranja, verde, violeta y así sucesivamente. Los pigmentos de pintura son
sustancias químicas que tienen la propiedad de reflejar con precisión ciertos
colores, con un mecanismo selectivo. Los objetos blancos, en cambio,
reflejan todos los componentes de la luz, mientras que los negros los
absorben todos: por eso el asfalto oscuro de un aparcamiento se calienta en
los días de verano, y por eso en los trópicos es mejor vestirse con ropas de
colores claros. Estos fenómenos de absorción, reflexión y calentamiento, en
relación con los diversos colores, tienen propiedades que pueden ser
medidas y cuantificadas por diversos instrumentos científicos.
La luz está llena de rarezas. Aquí estás, te vemos porque los rayos de luz
reflejados por tu cuerpo llegan a nuestros ojos. ¡Qué interesante! Nuestro
amigo mutuo Edward está observando el piano en su lugar: los rayos de la
interacción entre tú y nosotros (normalmente invisibles, excepto cuando
estamos en una habitación polvorienta o llena de humo) se cruzan con los
de la interacción entre Edwar y el piano sin ninguna interferencia aparente.
Pero si concentramos en un objeto los rayos producidos por dos linternas,
nos damos cuenta de que la intensidad de la iluminación se duplica, por lo
que hay una interacción entre los rayos de luz.
Examinemos ahora la pecera. Apagamos la luz de la habitación y
encendemos una linterna. Ayudándonos con el polvo suspendido en el aire,
tal vez producido por el golpeteo de dos borradores de pizarrón o un trapo
de polvo, vemos que los rayos de luz se doblan cuando golpean el agua (y
también que el pobre pececillo nos observa perplejo, esperando con
esperanza el alimento). Este fenómeno por el cual las sustancias
transparentes como el vidrio desvían la luz se denomina refracción. Cuando
los Boy Scouts encienden un fuego concentrando los rayos del sol en un
trozo de madera seca a través de una lente, aprovechan esta propiedad: la
lente curva todos los rayos de luz haciendo que se concentren en un punto
llamado "fuego", y esto aumenta la cantidad de energía hasta el punto en
que desencadena la combustión.
Un prisma de vidrio es capaz de descomponer la luz en sus componentes, el
llamado "espectro". Estos corresponden a los colores del arco iris: rojo,
naranja, amarillo, verde, azul, índigo y violeta (para memorizar la orden
recuerde las iniciales RAGVAIV). Nuestros ojos reaccionan a este tipo de
luz, llamada "visible", pero sabemos que también hay tipos invisibles. En
un lado del espectro se encuentra el llamado rango de onda larga
"infrarrojo" (de este tipo, por ejemplo, es la radiación producida por ciertos
calentadores, por resistencias tostadoras o por las brasas de un fuego
moribundo); en el otro lado están los rayos "ultravioleta", de onda corta (un
ejemplo de esto es la radiación emitida por una máquina de soldadura de
arco, y por eso quienes la usan deben usar gafas protectoras). La luz blanca,
por lo tanto, es una mezcla de varios colores en partes iguales. Con
instrumentos especiales podemos cuantificar las características de cada
banda de color, más adecuadamente su longitud de onda, y reportar los
resultados en un gráfico. Al someter cualquier fuente de luz a esta
medición, encontramos que el gráfico asume una forma de campana (véase
la fig. 4.1), cuyo pico se encuentra a una cierta longitud de onda (es decir,
de color). A bajas temperaturas, el pico corresponde a las ondas largas, es
decir, a la luz roja. A medida que el calor aumenta, el máximo de la curva
se desplaza hacia la derecha, donde se encuentran las ondas cortas, es decir,
la luz violeta, pero hasta ciertos valores de temperatura la cantidad de otros
colores es suficiente para asegurar que la luz emitida permanezca blanca.
Después de estos umbrales, los objetos emiten un brillo azul. Si miramos el
cielo en una noche clara, notaremos que las estrellas brillan con colores
ligeramente diferentes: las que tienden a ser rojizas son más frías que las
blancas, que a su vez son más frías que las azules. Estos tonos corresponden
a diferentes etapas de la evolución en la vida de las estrellas a medida que
consumen su combustible nuclear. Este simple documento de identidad de
la luz fue el punto de partida de la teoría cuántica, como veremos con más
detalle en un momento.
¿A qué velocidad viaja la luz?
El hecho de que la luz sea una entidad que "viaja" por el espacio, por
ejemplo de una bombilla a nuestra retina, no es del todo intuitivo. En los
ojos de un niño, la luz es algo que brilla, no que se mueve. Pero eso es
exactamente lo que es. Galileo fue uno de los primeros en tratar de medir su
velocidad, con la ayuda de dos asistentes colocados en la cima de dos
colinas cercanas que pasaron la noche cubriendo y descubriendo dos
linternas a horas predeterminadas. Cuando veían la otra luz, tenían que
comunicarla en voz alta a un observador externo (el propio Galileo), que
tomaba sus medidas moviéndose a varias distancias de las dos fuentes. Esta
es una excelente manera de medir la velocidad del sonido, de acuerdo con
el mismo principio de que hay una cierta cantidad de tiempo entre ver un
rayo y escuchar un trueno. El sonido no es muy rápido, va a unos 1200 por
hora (o 330 metros por segundo), por lo que el efecto es perceptible a
simple vista: por ejemplo, se tarda 3 segundos antes de que el rayo venga de
un relámpago que cae a un kilómetro de distancia. Pero el simple
experimento de Galileo no era adecuado para medir la velocidad de la luz,
que es enormemente mayor.
En 1676 un astrónomo danés llamado Ole Römer, que en ese momento
trabajaba en el Observatorio de París, apuntó con su telescopio a los
entonces conocidos satélites de Júpiter (llamados "galileos" o "Médicis"
porque habían sido descubiertos por el habitual Galileo menos de un siglo
antes y dedicados por él a Cosme de' Médicis). 2 Se concentró en sus
eclipses y notó un retraso con el que las lunas desaparecían y reaparecían
detrás del gran planeta; este pequeño intervalo de tiempo dependía
misteriosamente de la distancia entre la Tierra y Júpiter, que cambia durante
el año (por ejemplo, Ganímedes parecía estar a principios de diciembre y a
finales de julio). Römer entendió que el efecto se debía a la velocidad finita
de la luz, según un principio similar al del retardo entre el trueno y el
relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia entre los
dos planetas, que combinados con las precisas observaciones de Römer
permitieron calcular la velocidad de la luz: dio como resultado un
impresionante valor de 300.000 kilómetros por segundo, inmensamente
superior al del sonido. En 1850 Armand Fizeau y Jean Foucault, dos hábiles
experimentadores franceses en feroz competencia entre sí, fueron los
primeros en calcular esta velocidad usando métodos directos, en la Tierra,
sin recurrir a mediciones astronómicas. Fue el comienzo de una carrera de
persecución entre varios científicos en busca del valor más preciso posible,
que continúa hasta hoy. El valor más acreditado hoy en día, que en la física
se indica con la letra c, es de 299792,45 kilómetros por segundo.
Observamos incidentalmente que esta c es la misma que aparece en la
famosa fórmula E=mc2. Lo encontraremos varias veces, porque es una de
las piezas principales de ese gran rompecabezas llamado universo.
cambiado.
Thomas Young
En ese año un médico inglés con muchos intereses, incluyendo la física,
realizó un experimento que pasaría a la historia. Thomas Young (1773-129)
fue un niño prodigio: aprendió a leer a los dos años, y a los seis ya había
leído la Biblia entera dos veces y había empezado a estudiar latín3 . Pronto
se enfrentó a la filosofía, la historia natural y el análisis matemático
inventado por Newton; también aprendió a construir microscopios y
telescopios. Antes de los veinte años aprendió hebreo, caldeo, arameo, la
variante samaritana del hebreo bíblico, turco, parsis y amárico. De 1792 a
1799 estudió medicina en Londres, Edimburgo y Göttingen, donde,
olvidando su educación cuáquera, también se interesó por la música, la
danza y el teatro. Se jactaba de que nunca había estado ocioso un día.
Obsesionado con el antiguo Egipto, este extraordinario caballero,
aficionado y autodidacta, fue uno de los primeros en traducir jeroglíficos.
La compilación del diccionario de las antiguas lenguas egipcias fue una
hazaña que lo mantuvo literalmente ocupado hasta el día de su muerte.
Su carrera como médico fue mucho menos afortunada, quizás porque no
infundía confianza a los enfermos o porque carecía del je ne sais quoi que
necesitaba en sus relaciones con los pacientes. La falta de asistencia a su
clínica de Londres, sin embargo, le permitió tomar tiempo para asistir a las
reuniones de la Royal Society y discutir con las principales figuras
científicas de la época. Por lo que nos interesa aquí, sus mayores
descubrimientos fueron en el campo de la óptica. Empezó a investigar el
tema en 1800 y en siete años estableció una extraordinaria serie de
experimentos que parecían confirmar la teoría ondulatoria de la luz con
creciente confianza. Pero antes de llegar a la más famosa, tenemos que
echar un vistazo a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los poetas
románticos. Veámoslos en la costa, libres para viajar. La distancia entre dos
crestas consecutivas (o entre dos vientres) se denomina longitud de onda,
mientras que la altura de la cresta en relación con la superficie del mar en
calma se denomina amplitud. Las ondas se mueven a una cierta velocidad,
que en el caso de la luz, como ya hemos visto, se indica con c. Fijémoslo en
un punto: el período entre el paso de una cresta y la siguiente es un ciclo. La
frecuencia es la velocidad a la que se repiten los ciclos; si, por ejemplo,
vemos pasar tres crestas en un minuto, digamos que la frecuencia de esa
onda es de 3 ciclos/minuto. Tenemos que la longitud de onda multiplicada
por la frecuencia es igual a la velocidad de la onda misma; por ejemplo, si
la onda de 3 ciclos/minuto tiene una longitud de onda de 30 metros, esto
significa que se está moviendo a 90 metros por minuto, lo que equivale a
5,4 kilómetros por hora.
Ahora vemos un tipo de ondas muy familiares, esas ondas de sonido.
Vienen en varias frecuencias. Los audibles para el oído humano van desde
30 ciclos/segundo de los sonidos más bajos hasta 17000 ciclos/segundo de
los de arriba. La nota "la centrale", o la3, está fijada en 440 ciclos/segundo.
La velocidad del sonido en el aire, como ya hemos visto, es de unos 1200
km/h. Gracias a simples cálculos y recordando que la longitud de onda es
igual a la velocidad dividida por la frecuencia, deducimos que la longitud
de onda de la3 es (330 metros/segundo): (440 ciclos/segundo) = 0,75
metros. Las longitudes de onda audibles por los humanos varían de (330
metros/segundo) : (440 ciclos/segundo) = 0,75 metros: (17 000
ciclos/segundo) = 2 centímetros a (330 metros/segundo) : (30
ciclos/segundo) = 11 metros. Es este parámetro, junto con la velocidad del
sonido, el que determina lo que ocurre con las ondas sonoras cuando
resuenan en un desfiladero, o se propagan en un gran espacio abierto como
un estadio, o llegan al público en un teatro.
En la naturaleza hay muchos tipos de ondas: además de las ondas marinas y
sonoras, recordamos, por ejemplo, las vibraciones de las cuerdas y las
ondas sísmicas que sacuden la tierra bajo nuestros pies. Todos ellos pueden
describirse bien con la física clásica (no cuántica). Las amplitudes se
refieren de vez en cuando a diferentes cantidades mensurables: la altura de
la ola sobre el nivel del mar, la intensidad de las ondas sonoras, el
desplazamiento de la cuerda desde el estado de reposo o la compresión de
un resorte. En cualquier caso, siempre estamos en presencia de una
perturbación, una desviación de la norma dentro de un medio de
transmisión que antes era tranquilo. La perturbación, que podemos
visualizar como el pellizco dado a una cuerda, se propaga en forma de onda.
En el reino de la física clásica, la energía transportada por este proceso está
determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su línea. En
la superficie se puede ver un flotador, que sirve tanto para evitar que el
anzuelo llegue al fondo como para señalar que algo ha picado el cebo. El
agua se ondula, y el flotador sube y baja siguiendo las olas. Su posición
cambia regularmente: del nivel cero a una cresta, luego de vuelta al nivel
cero, luego de vuelta a un vientre, luego de vuelta al nivel cero y así
sucesivamente. Este movimiento cíclico está dado por una onda llamada
armónica o sinusoidal. Aquí lo llamaremos simplemente una ola.
Problemas abiertos
La teoría, en ese momento, no podía responder satisfactoriamente a varias
preguntas: ¿cuál es exactamente el mecanismo por el cual se genera la luz?
¿cómo tiene lugar la absorción y por qué los objetos de color absorben sólo
ciertas longitudes de onda precisas, es decir, los colores? ¿qué misteriosa
operación en el interior de la retina nos permite "ver"? Todas las preguntas
que tenían que ver con la interacción entre la luz y la materia. En este
sentido, ¿cuál es la forma en que la luz se propaga en el espacio vacío,
como entre el Sol y la Tierra? La analogía con las ondas sonoras y
materiales nos llevaría a pensar que existe un medio a través del cual se
produce la perturbación, una misteriosa sustancia transparente e ingrávida
que impregna el espacio profundo. En el siglo XIX se planteó la hipótesis
de que esta sustancia existía realmente y se la llamó éter.
Entonces todavía hay un misterio sobre nuestra estrella. Este colosal
generador de luz produce tanto luz visible como invisible, entendiéndose
por "luz invisible" la luz con una longitud de onda demasiado larga (desde
el infrarrojo) o demasiado corta (desde el ultravioleta hacia abajo) para ser
observada. La atmósfera de la Tierra, principalmente la capa de ozono de la
estratosfera superior, bloquea gran parte de los rayos ultravioletas y ondas
aún más cortas, como los rayos X. Ahora imaginemos que hemos inventado
un dispositivo que nos permite sin demasiadas complicaciones absorber la
luz selectivamente, sólo en ciertas frecuencias, y medir su energía.
Este dispositivo existe (incluso está presente en los laboratorios mejor
equipados de las escuelas secundarias) y se llama espectrómetro. Es la
evolución del prisma newtoniano, capaz de descomponer la luz en varios
colores desviando selectivamente sus componentes según varios ángulos. Si
insertamos un mecanismo que permita una medición cuantitativa de estos
ángulos, también podemos determinar las respectivas longitudes de onda
(que dependen directamente de los propios ángulos).
Concentrémonos ahora en el punto donde el rojo oscuro se desvanece en
negro, es decir, en el borde de la luz visible. La escala del espectrómetro
nos dice que estamos en 7500 Å, donde la letra "Å" es el símbolo del
angstrom, una unidad de longitud nombrada en honor al físico sueco
Anders Jonas Ångström, uno de los pioneros de la espectroscopia. Un
angstrom es de 10-8 centímetros, que es una cienmillonésima parte de un
centímetro. Por lo tanto, hemos descubierto que entre dos crestas de ondas
de luz en el borde de la pista visible corren 7500 Å, o 7,5 milésimas de
centímetro. Para longitudes mayores necesitamos instrumentos sensibles a
los infrarrojos y a las ondas largas. Si, por otro lado, vamos al otro lado del
espectro visible, en el lado violeta, vemos que la longitud de onda
correspondiente es de unos 3500 Å. Por debajo de este valor los ojos no
vienen en nuestra ayuda y necesitamos usar otros instrumentos.
Hasta ahora todo bien, sólo estamos aclarando los resultados obtenidos por
Newton sobre la descomposición de la luz. En 1802, sin embargo, el
químico inglés William Wollaston apuntó un espectrómetro en la dirección
de la luz solar y descubrió que además del espectro de colores ordenados de
rojo a violeta había muchas líneas oscuras y delgadas. ¿Qué era esto?
En este punto entra en escena Joseph Fraunhofer (1787-1826), un bávaro
con gran talento y poca educación formal, hábil fabricante de lentes y
experto en óptica10 . Después de la muerte de su padre, el enfermizo
encontró un empleo no cualificado como aprendiz en una fábrica de vidrio
y espejos en Munich. En 1806 logró unirse a una compañía de instrumentos
ópticos en la misma ciudad, donde con la ayuda de un astrónomo y un hábil
artesano aprendió los secretos de la óptica a la perfección y desarrolló una
cultura matemática. Frustrado por la mala calidad del vidrio que tenía a su
disposición, el perfeccionista Fraunhofer rompió un contrato que le permitía
espiar los secretos industriales celosamente guardados de una famosa
cristalería suiza, que recientemente había trasladado sus actividades a
Munich. Esta colaboración dio como resultado lentes técnicamente
avanzadas y sobre todo, por lo que nos interesa aquí, un descubrimiento
fundamental que aseguraría a Fraunhofer un lugar en la historia de la
ciencia.
En su búsqueda de la lente perfecta, se le ocurrió la idea de usar el
espectrómetro para medir la capacidad de refracción de varios tipos de
vidrio. Al examinar la descomposición de la luz solar, notó que las líneas
negras descubiertas por Wollaston eran realmente muchas, alrededor de
seiscientas. Empezó a catalogarlas sistemáticamente por longitud de onda, y
para 1815 ya las había examinado casi todas. Las más obvias estaban
etiquetadas con las letras mayúsculas de la A a la I, donde la A era una línea
negra en la zona roja y yo estaba en el límite extremo del violeta. ¿Por qué
fueron causadas? Fraunhofer conocía el fenómeno por el cual ciertos
metales o sales emitían luz de colores precisos cuando se exponían al fuego;
midió estos rayos con el espectrómetro y vio aparecer muchas líneas claras
en la región de las longitudes de onda correspondientes al color emitido.
Lo interesante fue que su estructura era idéntica a la de las líneas negras del
espectro solar. La sal de mesa, por ejemplo, tenía muchas líneas claras en la
región que Fraunhofer había marcado con la letra D. Un modelo explicativo
del fenómeno tuvo que esperar un poco más. Como sabemos, cada longitud
de onda bien definida corresponde únicamente a una frecuencia igualmente
definida. Tenía que haber un mecanismo en funcionamiento que hiciera
vibrar la materia, presumiblemente a nivel atómico, de acuerdo con ciertas
frecuencias establecidas. Los átomos (cuya existencia aún no había sido
probada en la época de Fraunhofer) dejaron huellas macroscópicas.
Las huellas de los átomos
Como hemos visto arriba, un diapasón ajustado para "dar la señal" vibra a
una frecuencia de 440 ciclos por segundo. En el ámbito microscópico de los
átomos las frecuencias son inmensamente más altas, pero ya en la época de
Fraunhofer era posible imaginar un mecanismo por el cual las misteriosas
partículas estaban equipadas con muchos equivalentes de diapasón muy
pequeños, cada uno con su propia frecuencia característica y capaces de
vibrar y emitir luz con una longitud de onda correspondiente a la propia
frecuencia.
¿Y por qué entonces aparecen las líneas negras? Si los átomos de sodio
excitados por el calor de la llama vibran con frecuencias que emiten luz
entre 5911 y 5962 Å (valores que corresponden a tonos de amarillo), es
probable que, a la inversa, prefieran absorber la luz con las mismas
longitudes de onda. La superficie al rojo vivo del Sol emite luz de todo tipo,
pero luego pasa a través de la "corona", es decir, los gases menos calientes
de la atmósfera solar. Aquí es donde se produce la absorción selectiva por
parte de los átomos, cada uno de los cuales retiene la luz de la longitud de
onda que le conviene; este mecanismo es responsable de las extrañas líneas
negras observadas por Fraunhofer. Una pieza a la vez, las investigaciones
posteriores han revelado que cada elemento, cuando es excitado por el
calor, emite una serie característica de líneas espectrales, algunas agudas y
nítidas (como las líneas de neón de color rojo brillante), otras débiles (como
el azul de las lámparas de vapor de mercurio). Estas líneas son las huellas
dactilares de los elementos, y su descubrimiento fue una primera indicación
de la existencia de mecanismos similares a los "diapasones" que se ven
arriba (o alguna otra diablura) dentro de los átomos.
Las líneas espectrales están muy bien definidas, por lo que es posible
calibrar el espectrómetro para obtener resultados muy precisos,
distinguiendo por ejemplo una luz con una longitud de onda de 6503,2 Å
(rojo oscuro) de otra de 6122,7 Å (rojo claro). A finales del siglo XIX, se
publicaron gruesos tomos que enumeraban los espectros de todos los
elementos entonces conocidos, gracias a los cuales los más expertos en
espectroscopia pudieron determinar la composición química de compuestos
desconocidos y reconocer hasta la más mínima contaminación. Sin
embargo, nadie tenía idea de cuál era el mecanismo responsable de producir
mensajes tan claros. Cómo funcionaba el átomo seguía siendo un misterio.
Otro éxito de la espectroscopia fue de una naturaleza más profunda. En la
huella del Sol, increíblemente, se podían leer muchos elementos en la
Tierra: hidrógeno, helio, litio, etc. Cuando la luz de estrellas y galaxias
distantes comenzó a ser analizada, el resultado fue similar. El universo está
compuesto de los mismos elementos en todas partes, siguiendo las mismas
leyes de la naturaleza, lo que sugiere que todo tuvo un origen único gracias
a un misterioso proceso físico de creación.
Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba resolver
otro problema: ¿cómo transmiten las fuerzas, y en particular la gravedad, su
acción a grandes distancias? Si unimos un carruaje a un caballo, vemos que
la fuerza utilizada por el animal para tirar del vehículo se transmite
directamente, a través de los arneses y las barras. ¿Pero cómo "siente" la
Tierra al Sol, que está a 150 millones de kilómetros de distancia? ¿Cómo
atrae un imán a un clavo a cierta distancia? En estos casos no hay
conexiones visibles, por lo que se debe asumir una misteriosa "acción a
distancia". Según la formulación de Newton, la gravedad actúa a distancia,
pero no se sabe cuál es la "varilla" que conecta dos cuerpos como la Tierra
y el Sol. Después de haber luchado en vano con este problema, incluso el
gran físico inglés tuvo que rendirse y dejar que la posteridad se ocupara de
la materia.
¿Qué es un cuerpo negro y por qué estamos tan interesados en él?
Todos los cuerpos emiten energía y la absorben de sus alrededores. Aquí
por "cuerpo" nos referimos a un objeto grande, o macroscópico, compuesto
de muchos miles de millones de átomos. Cuanto más alta es su temperatura,
más energía emite.
Los cuerpos calientes, en todas sus partes (que podemos considerar a su vez
como cuerpos), tienden a alcanzar un equilibrio entre el valor de la energía
dada al ambiente externo y la absorbida. Si, por ejemplo, tomas un huevo
de la nevera y lo sumerges en una olla llena de agua hirviendo, el huevo se
calienta y la temperatura del agua disminuye. Por el contrario, si se tira un
huevo caliente en agua fría, la transferencia de calor se produce en la
dirección opuesta. Si no se proporciona más energía, después de un tiempo
el huevo y el agua estarán a la misma temperatura. Este es un experimento
casero fácil de hacer, que ilustra claramente el comportamiento de los
cuerpos con respecto al calor. El estado final en el que las temperaturas del
huevo y del agua son iguales se llama equilibrio térmico, y es un fenómeno
universal: un objeto caliente sumergido en un ambiente frío se enfría, y
viceversa. En el equilibrio térmico, todas las partes del cuerpo están a la
misma temperatura, por lo que emiten y absorben energía de la misma
manera.
Cuando se está tumbado en una playa en un día hermoso, el cuerpo está
emitiendo y absorbiendo radiación electromagnética: por un lado se absorbe
la energía producida por el radiador primitivo, el Sol, y por otro lado se
emite una cierta cantidad de calor porque el cuerpo tiene mecanismos de
regulación que le permiten mantener la temperatura interna correcta1 . Las
diversas partes del cuerpo, desde el hígado hasta el cerebro, desde el
corazón hasta las puntas de los dedos, se mantienen en equilibrio térmico,
de modo que los procesos bioquímicos se desarrollan sin problemas. Si el
ambiente es muy frío, el organismo debe producir más energía, o al menos
no dispersarla, si quiere mantener la temperatura ideal. El flujo sanguíneo,
que es responsable de la transferencia de calor a la superficie del cuerpo, se
reduce por lo tanto para que los órganos internos no pierdan calor, por lo
que sentimos frío en los dedos y la nariz. Por el contrario, cuando el
ambiente es muy caliente, el cuerpo tiene que aumentar la energía dispersa,
lo que sucede gracias al sudor: la evaporación de este líquido caliente sobre
la piel implica el uso de una cantidad adicional de energía del cuerpo (una
especie de efecto de acondicionamiento del aire), que luego se dispersa
hacia el exterior. El hecho de que el cuerpo humano irradia calor es
evidente en las habitaciones cerradas y abarrotadas: treinta personas
apiladas en una sala de reuniones producen 3 kilovatios, que son capaces de
calentar el ambiente rápidamente. Por el contrario, en la Antártida esos
mismos colegas aburridos podrían salvarle la vida si los abraza con fuerza,
como hacen los pingüinos emperadores para proteger sus frágiles huevos de
los rigores del largo invierno.
Los humanos, los pingüinos e incluso las tostadoras son sistemas complejos
que producen energía desde el interior. En nuestro caso, el combustible es
dado por la comida o la grasa almacenada en el cuerpo; una tostadora en
cambio tiene como fuente de energía las colisiones de los electrones de la
corriente eléctrica con los átomos de metales pesados de los cuales se hace
la resistencia. La radiación electromagnética emitida, en ambos casos, se
dispersa en el ambiente externo a través de la superficie en contacto con el
aire, en nuestro caso la piel. Esta radiación suele tener un color que es la
huella de determinadas "transiciones atómicas", es decir, es hija de la
química. Los fuegos artificiales, por ejemplo, cuando explotan están
ciertamente calientes y la luz que emiten depende de la naturaleza de los
compuestos que contienen (cloruro de estroncio, cloruro de bario y otros),2
gracias a cuya oxidación brillan con colores brillantes y espectaculares.
Estos casos particulares son fascinantes, pero la radiación electromagnética
se comporta siempre de la misma manera, en cualquier sistema, en el caso
más simple: aquel en el que todos los efectos cromáticos debidos a los
distintos átomos se mezclan y se borran, dando vida a lo que los físicos
llaman radiación térmica. El objeto ideal que lo produce se llama cuerpo
negro. Por lo tanto, es un cuerpo que por definición sólo produce radiación
térmica cuando se calienta, sin que prevalezca ningún color en particular, y
sin los efectos especiales de los fuegos artificiales. Aunque es un concepto
abstracto, hay objetos cotidianos que se pueden aproximar bastante bien a
un cuerpo negro ideal. Por ejemplo, el Sol emite luz con un espectro bien
definido (las líneas de Fraunhofer), debido a la presencia de varios tipos de
átomos en la corona gaseosa circundante; pero si consideramos la radiación
en su conjunto vemos que es muy similar a la de un cuerpo negro (muy
caliente). Lo mismo puede decirse de las brasas calientes, las resistencias de
las tostadoras, la atmósfera de la Tierra, el hongo de una explosión nuclear
y el universo primordial: todas aproximaciones razonables de un cuerpo
negro.
Un muy buen modelo lo da una caldera de carbón anticuada, como la que se
encuentra en los trenes de vapor, que, al aumentar la temperatura, produce
en su interior una radiación térmica prácticamente pura. De hecho, este fue
el modelo utilizado por los físicos a finales del siglo XIX para el estudio del
cuerpo negro. Para tener una fuente de radiación térmica pura, debe estar
aislada de alguna manera de la fuente de calor, en este caso el carbón en
combustión. Para ello construimos un robusto contenedor de paredes
gruesas, digamos de hierro, en el que hacemos un agujero para observar lo
que ocurre en su interior y tomar medidas. Pongámoslo en la caldera,
dejémoslo calentar y asomarse por el agujero. Detectamos radiación de
calor puro, que llena toda la nave. Esto se emite desde las paredes calientes
y rebota de un extremo al otro; una pequeña parte sale del agujero de
observación.
Con la ayuda de unos pocos instrumentos podemos estudiar la radiación
térmica y comprobar en qué medida están presentes los distintos colores (es
decir, las distintas longitudes de onda). También podemos medir cómo
cambia la composición cuando cambia la temperatura de la caldera, es
decir, estudiar la radiación en equilibrio térmico.
Al principio el agujero emite sólo la radiación infrarroja cálida e invisible.
Cuando subimos la calefacción vemos una luz roja oscura que se parece a la
luz visible dentro de la tostadora. A medida que la temperatura aumenta
más, el rojo se vuelve más brillante, hasta que se vuelve amarillo. Con una
máquina especialmente potente, como el convertidor Bessemer en las
acerías (donde se inyecta el oxígeno), podemos alcanzar temperaturas muy
altas y ver cómo la radiación se vuelve prácticamente blanca. Si pudiéramos
usar una fuente de calor aún más fuerte (por lo tanto no una caldera clásica,
que se derretiría), observaríamos una luz brillante y azulada saliendo del
agujero a muy alta temperatura. Hemos alcanzado el nivel de explosiones
nucleares o estrellas brillantes como Rigel, la supergigante azul de la
constelación de Orión que es la fuente de energía más alta de radiación
térmica en nuestra vecindad galáctica.3
El estudio de las radiaciones térmicas era un importante campo de
investigación, en aquel momento completamente nuevo, que combinaba dos
temas diferentes: el estudio del calor y el equilibrio térmico, es decir, la
termodinámica, y la radiación electromagnética. Los datos recogidos
parecían completamente inofensivos y daban la posibilidad de hacer
investigaciones interesantes. Nadie podía sospechar que eran pistas
importantes en lo que pronto se convertiría en el amarillo científico del
milenio: las propiedades cuánticas de la luz y los átomos (que al final son
los que hacen todo el trabajo).
Capítulo 4
SU MAESTREADO SR. PLANCK

a teoría clásica de la luz y los cálculos de Planck llevaron no sólo a la


L conclusión de que la distribución de las longitudes de onda se
concentraba en las partes azul-violeta, sino incluso (debido a la
desesperación de los físicos teóricos, que estaban cada vez más perplejos)
que la intensidad se hizo infinita en las regiones más remotas del
ultravioleta. Hubo alguien, tal vez un periodista, que llamó a la situación
una "catástrofe ultravioleta". De hecho fue un desastre, porque la predicción
teórica no coincidía en absoluto con los datos experimentales. Escuchando
los cálculos, las brasas no emitirían luz roja, como la humanidad ha
conocido por lo menos durante cien mil años, sino luz azul.
Fue una de las primeras grietas en la construcción de la física clásica, que
hasta entonces parecía inexpugnable. (Gibbs había encontrado otro,
probablemente el primero de todos, unos veinticinco años antes; en ese
momento su importancia no había sido comprendida, excepto quizás por
Maxwell). Todos ellos, sin embargo, caen rápidamente a cero en el área de
ondas muy cortas. ¿Qué sucede cuando una teoría elegante y bien probada,
concebida por las más grandes mentes de la época y certificada por todas
las academias europeas, choca con los brutales y crudos datos
experimentales? Si para las religiones los dogmas son intocables, para la
ciencia las teorías defectuosas están destinadas a ser barridas tarde o
temprano.
La física clásica predice que la tostadora brillará azul cuando todos sepan
que es roja. Recuerda esto: cada vez que haces una tostada, estás
observando un fenómeno que viola descaradamente las leyes clásicas. Y
aunque no lo sepas (por ahora), tienes la confirmación experimental de que
la luz está hecha de partículas discretas, está cuantificada. ¡Es mecánica
cuántica en vivo! Pero, ¿podría objetar, no vimos en el capítulo anterior que
gracias al genio del Sr. Young se ha demostrado que la luz es una onda? Sí,
y es verdad. Preparémonos, porque las cosas están a punto de ponerse muy
extrañas. Seguimos siendo viajeros que exploran extraños nuevos mundos
lejanos - y sin embargo también llegamos allí desde una tostadora.
Max Planck
Berlín, el epicentro de la catástrofe del ultravioleta, fue el reino de Max
Planck, un físico teórico de unos cuarenta años, gran experto en
termodinámica7 . En 1900, a partir de los datos experimentales recogidos
por sus colegas y utilizando un truco matemático, logró transformar la
fórmula derivada de la teoría clásica en otra que encajaba muy bien con las
mediciones. La manipulación de Planck permitió que las ondas largas se
mostraran tranquilamente a todas las temperaturas, más o menos como se
esperaba en la física clásica, pero cortó las ondas cortas imponiendo una
especie de "peaje" a su emisión. Este obstáculo limitó la presencia de la luz
azul, que de hecho irradiaba menos abundantemente.
El truco parecía funcionar. El "peaje" significaba que las frecuencias más
altas (recuerde: ondas cortas = frecuencias altas) eran más "caras", es decir,
requerían mucha más energía que las más bajas. Así que, según el
razonamiento correcto de Planck, a bajas temperaturas la energía no era
suficiente para "pagar el peaje" y no se emitían ondas cortas. Para volver a
nuestra metáfora teatral, había encontrado una forma de liberar las primeras
filas y empujar a los espectadores hacia las filas del medio y los túneles.
Una intuición repentina (que no era típica de su forma de trabajar) permitió
a Planck conectar la longitud de onda (o la frecuencia equivalente) con la
energía: cuanto más larga sea la longitud, menos energía.
Parece una idea elemental, y de hecho lo es, porque así es como funciona la
naturaleza. Pero la física clásica no lo contempló en absoluto. La energía de
una onda electromagnética, según la teoría de Maxwell, dependía sólo de su
intensidad, no del color o la frecuencia. ¿Cómo encajó Planck esto en su
tratamiento del cuerpo negro? ¿Cómo transmitió la idea de que la energía
no sólo depende de la intensidad sino también de la frecuencia? Todavía
falta una pieza del rompecabezas, porque hay que especificar qué tiene más
energía a medida que las frecuencias aumentan.
Para resolver el problema, Planck encontró una manera eficiente de dividir
la luz emitida, cualquiera que sea su longitud de onda, en paquetes llamados
paquetes cuánticos, cada uno con una cantidad de energía relacionada con
su frecuencia. La fórmula iluminadora de Planck es realmente tan simple
como es posible:
E=hf
En palabras: "la energía de un quantum de luz es directamente proporcional
a su frecuencia". Así, la radiación electromagnética está compuesta por
muchos pequeños paquetes, cada uno de los cuales está dotado de una cierta
energía, igual a su frecuencia multiplicada por una constante h. El esfuerzo
de Planck por conciliar los datos con la teoría llevó a la idea de que las altas
frecuencias (es decir, las ondas cortas) eran caras en términos de energía
para el cuerpo negro. Su ecuación, a todas las temperaturas, estaba en
perfecta armonía con las curvas obtenidas de las mediciones
experimentales.
Es interesante notar que Planck no se dio cuenta inmediatamente de que su
modificación a la teoría de Maxwell tenía que ver directamente con la
naturaleza de la luz. En cambio, estaba convencido de que la clave del
fenómeno estaba en los átomos que formaban las paredes del cuerpo negro,
la forma en que se emitía la luz. La preferencia por el rojo sobre el azul no
se debía, para él, a las propiedades intrínsecas de estas longitudes de onda,
sino a la forma en que los átomos se movían y emitían radiaciones de varios
colores. De esta manera esperaba evitar conflictos con la teoría clásica, que
hasta entonces había hecho maravillas: después de todo, los motores
eléctricos conducían trenes y tranvías por toda Europa y Marconi acababa
de patentar el telégrafo inalámbrico. La teoría de Maxwell obviamente no
estaba equivocada y Planck no tenía intención de corregirla: mejor tratar de
modificar la termodinámica más misteriosa.
Sin embargo, su hipótesis sobre la radiación térmica implicaba dos rotundas
desviaciones de la física clásica. En primer lugar, la correlación entre la
intensidad (es decir, el contenido de energía) de la radiación y su
frecuencia, completamente ausente en el cuadro Maxwelliano. Luego, la
introducción de cantidades discretas, quanta. Son dos aspectos relacionados
entre sí. Para Maxwell la intensidad era una cantidad continua, capaz de
asumir cualquier valor real, dependiente sólo de los valores de los campos
eléctricos y magnéticos asociados a la onda de luz. Para Planck la
intensidad a una frecuencia dada es igual al número de cuantos que
corresponden a la propia frecuencia, cada uno de los cuales lleva una
energía igual a E=hf. Era una idea que olía sospechosamente a "partículas
de luz", pero todos los experimentos de difracción e interferencia
continuaron confirmando la naturaleza ondulatoria.
Nadie entonces, incluyendo a Planck, comprendió plenamente el
significado de este punto de inflexión. Para su descubridor, los cuantos eran
impulsos concentrados de radiación, provenientes de los átomos de cuerpo
negro en frenético movimiento a través de la agitación térmica,
emitiéndolos según mecanismos desconocidos. No podía saber que esa h,
ahora llamada constante de Planck, se convertiría en la chispa de una
revolución que llevaría a los primeros rugidos de la mecánica cuántica y la
física moderna. Por el gran descubrimiento de la "energía cuántica", que
tuvo lugar cuando tenía cuarenta y dos años, Planck fue galardonado con el
Premio Nobel de Física en 1918.
Entra Einstein
Las extraordinarias consecuencias de la introducción de los cuantos fueron
comprendidas poco después por un joven físico entonces desconocido, nada
menos que Albert Einstein. Leyó el artículo de Planck en 1900 y, como
declaró más tarde, sintió que "la tierra bajo sus pies ha desaparecido".8 El
problema subyacente era el siguiente: ¿eran los paquetes de energía hijos
del mecanismo de emisión o eran una característica intrínseca de la luz?
Einstein se dio cuenta de que la nueva teoría establecía una entidad bien
definida, perturbadoramente discreta, similar a una partícula, que intervenía
en el proceso de emisión de luz de sustancias sobrecalentadas. Sin embargo,
al principio, el joven físico se abstuvo de abrazar la idea de que la
cuantificación era una característica fundamental de la luz.
Aquí tenemos que decir unas palabras sobre Einstein. No era un niño
prodigio y no le gustaba especialmente la escuela. De niño, nadie le hubiera
predicho un futuro exitoso. Pero la ciencia siempre le había fascinado,
desde que su padre le enseñó una brújula cuando tenía cuatro años. Estaba
hechizado por ello: fuerzas invisibles siempre forzaban a la aguja a apuntar
al norte, en cualquier dirección en la que se girara. Como escribió en su
vejez: "Recuerdo bien, o mejor dicho creo que recuerdo bien, la profunda y
duradera impresión que me dejó esta experiencia. Aún siendo joven,
Einstein también fue cautivado por la magia del álgebra, que había
aprendido de un tío, y fue hechizado por un libro de geometría leído a la
edad de doce años. A los dieciséis años escribió su primer artículo
científico, dedicado al éter en el campo magnético.
En el punto donde llegó nuestra historia, Einstein es todavía un extraño. Al
no haber obtenido un destino universitario de ningún tipo después de
finalizar sus estudios, comenzó a dar clases particulares y a hacer
suplencias, sólo para ocupar el puesto de empleado de la Oficina Suiza de
Patentes en Berna. Aunque sólo tenía fines de semana libres para sus
investigaciones, en los siete años que pasó allí sentó las bases de la física
del siglo XX y descubrió una forma de contar átomos (es decir, de medir la
constante de Avogadro), inventó la relatividad estrecha (con todas sus
profundas consecuencias en nuestras nociones del espacio y el tiempo, por
no mencionar E=mc2), hizo importantes contribuciones a la teoría cuántica
y más. Entre sus muchos talentos, Einstein podía incluir la sinestesia, es
decir, la capacidad de combinar datos de diferentes sentidos, por ejemplo, la
visión y el oído. Cuando meditaba sobre un problema, sus procesos
mentales siempre iban acompañados de imágenes y se daba cuenta de que
iba por el buen camino porque sentía un hormigueo en la punta de los
dedos. Su nombre se convertiría en sinónimo de gran científico en 1919,
cuando un eclipse de sol confirmó experimentalmente su teoría de la
relatividad general. El premio Nobel, sin embargo, fue otorgado por un
trabajo de 1905, diferente de la relatividad: la explicación del efecto
fotoeléctrico.
Imagínese el choque cultural que experimentaron los físicos en 1900, que se
mostraron tranquilos y serenos en sus estudios para consultar datos sobre
los continuos espectros de radiación emitidos por los objetos calientes,
datos que se habían acumulado durante casi medio siglo. Los experimentos
que los produjeron fueron posibles gracias a la teoría de Maxwell sobre el
electromagnetismo, aceptada hace más de treinta años, que predecía que la
luz era una onda. El hecho de que un fenómeno tan típicamente ondulante
pudiera, en determinadas circunstancias, comportarse como si estuviera
compuesto por paquetes de energía discretos, en otras palabras, "partículas",
sumió a la comunidad científica en un terrible estado de confusión. Planck y
sus colegas, sin embargo, dieron por sentado que tarde o temprano llegarían
a una explicación de alto nivel, por así decirlo, neoclásica. Después de todo,
la radiación de cuerpo negro era un fenómeno muy complicado, como el
clima atmosférico, en el que muchos eventos en sí mismos simples de
describir se juntan en un estado complejo aparentemente esquivo. Pero
quizás el aspecto más incomprensible de esto era la forma en que la
naturaleza parecía revelar por primera vez, a quienes tenían la paciencia de
observarla, sus secretos más íntimos.
Arthur Compton
En 1923 la hipótesis de las partículas marcó un punto a su favor gracias al
trabajo de Arthur Compton, que comenzó a estudiar el efecto fotoeléctrico
con los rayos X (luz de onda muy corta). Los resultados que obtuvo no
mintieron: los fotones que chocaban con los electrones se comportaban
como partículas, es decir, como pequeñas bolas de billar11 . Este fenómeno
se llama ahora el "efecto Compton" o más propiamente "dispersión
Compton".
Como en todas las colisiones elásticas de la física clásica, durante este
proceso se conservan la energía total y el momento del sistema electrón +
fotón. Pero para comprender plenamente lo que sucede, es necesario romper
las vacilaciones y tratar al fotón como una partícula a todos los efectos, un
paso al que Compton llegó gradualmente, después de haber notado el
fracaso de todas sus hipótesis anteriores. En 1923 la naciente teoría cuántica
(la "vieja teoría cuántica" de Niels Bohr) todavía no era capaz de explicar el
efecto Compton, que sólo se entendería gracias a los desarrollos posteriores.
Cuando el físico americano presentó sus resultados en una conferencia de la
Sociedad Americana de Física, tuvo que enfrentarse a la oposición abierta
de muchos colegas.
Como buen hijo de una familia de la minoría menonita de Wooster, Ohio,
acostumbrado a trabajar duro, Compton no se desanimó y continuó
perfeccionando sus experimentos e interpretaciones de los resultados. El
enfrentamiento final tuvo lugar en 1924, durante un seminario de la
Asociación Británica para el Avance de la Ciencia organizado
especialmente en Toronto. Compton fue muy convincente. Su
archienemigo, William Duane de Harvard, que hasta entonces no había
podido replicar sus resultados, volvió al laboratorio y rehizo él mismo el
controvertido experimento. Finalmente se vio obligado a admitir que el
efecto Compton era cierto. Su descubridor ganó el Premio Nobel en 1927.
Compton fue uno de los principales arquitectos del desarrollo de la física
americana en el siglo XX, tanto es así que recibió el honor de una portada
en el "Times" el 13 de enero de 1936.
¿Qué muestran estos resultados? Por un lado, nos enfrentamos a varios
fenómenos que muestran que la luz parece estar compuesta por una
corriente de partículas, cuántas luminosas llamadas fotones (pobre Newton,
si hubiera sabido...). Por otro lado, tenemos el experimento de Young con la
doble rendija (y millones de otros experimentos que lo confirman, todavía
realizados hoy en los laboratorios de las escuelas de todo el mundo), gracias
a los cuales la luz se comporta como una onda. Trescientos años después de
la disputa onda-partícula, todavía estamos de vuelta al principio. ¿Es una
paradoja irresoluble? ¿Cómo puede una entidad ser simultáneamente una
onda y una partícula? ¿Tenemos que dejar la física y centrarnos en el Zen y
el mantenimiento de las motocicletas?
Vidrio y espejos
El fotón, como partícula, simplemente "es". Dispara los detectores,
colisiona con otras partículas, explica el efecto fotoeléctrico y el efecto
Compton. ¡Existe! Pero no explica la interferencia, y otro fenómeno
también.
Recordarán que en el capítulo 1 nos detuvimos frente a un escaparate lleno
de ropa interior sexy. Ahora continuamos nuestro paseo y llegamos a los
escaparates de unos grandes almacenes, donde la colección primavera-
verano se exhibe en elegantes maniquíes. El sol brilla y el contenido de la
ventana es claramente visible; pero en el vidrio notamos que también hay
un débil reflejo de la calle y los transeúntes, incluyéndonos a nosotros. Por
casualidad, esta vitrina también contiene un espejo, que refleja nuestra
imagen en detalle. Así que nos vemos dos veces: claramente en el espejo y
débilmente en el cristal.
He aquí una explicación plausible: los rayos del sol se reflejan en la
superficie de nuestro cuerpo, atraviesan la vitrina, golpean el espejo y
vuelven hasta llegar a nuestra retina. Sin embargo, un pequeño porcentaje
de la luz también se refleja en la propia vitrina. Bueno, ¿y qué? Todo esto es
perfectamente lógico, como quiera que lo veas. Si la luz es una onda, no
hay problema: las ondas están normalmente sujetas a reflexión y refracción
parcial. Si la luz, en cambio, está compuesta por un flujo de partículas,
podemos explicarlo todo admitiendo que una cierta parte de los fotones,
digamos el 96%, atraviesa el cristal y el 4% restante se refleja. Pero si
tomamos un solo fotón de esta enorme corriente, formada por partículas de
todas formas, ¿cómo sabemos cómo se comportará frente al vidrio? ¿Cómo
decide nuestro fotón (llamémoslo Bernie) qué camino tomar?
Ahora imaginemos esta horda de partículas idénticas dirigiéndose hacia el
cristal. La gran mayoría lo atraviesa, pero unos pocos son rechazados de
vez en cuando. Recuerde que los fotones son indivisibles e irreductibles -
nadie ha visto nunca el 96 por ciento de un fotón en la naturaleza. Así que
Bernie tiene dos alternativas: o pasa de una pieza, o es rechazado de una
pieza. En este último caso, que ocurre el 4% de las veces, quizás chocó con
uno de los muchos átomos de vidrio. Pero si ese fuera el caso, no veríamos
nuestra imagen reflejada en la débil pero bien definida ventana, sino que
veríamos el vidrio ligeramente empañado por ese 4% de fotones perdidos.
La imagen, que reconocemos fácilmente como "nuestra", indica que
estamos en presencia de un fenómeno coherente y ondulante, pero que los
fotones existen. Aquí nos enfrentamos a otro problema, el de la reflexión
parcial. Parece que hay un 4% de probabilidad de que un fotón, entendido
como partícula, termine en una onda que se refleje. Que las hipótesis de
Planck llevaron a la introducción de elementos aleatorios y probabilísticos
en la física fue claro para Einstein ya en 1901. No le gustaba nada, y con el
tiempo su disgusto crecería.
La morsa y el panettone
Como si la solución de Planck al problema de la catástrofe del ultravioleta y
la explicación de Einstein del efecto fotoeléctrico no fueran lo
suficientemente impactantes, la física clásica se enfrentó a una tercera
llamada de atención a principios del siglo XX: el fracaso del modelo
atómico de Thomson, o "modelo panettone".
Ernest Rutherford (1871-1937) era un hombre grande y erizado que parecía
una morsa. Después de ganar el Premio Nobel de Química por su
investigación en radiactividad, se convirtió en director del prestigioso
Laboratorio Cavendish en Cambridge en 1917. Nació en Nueva Zelanda en
el seno de una gran familia de agricultores; la vida en la granja lo había
acostumbrado a trabajar duro y lo convirtió en un hombre de recursos.
Apasionado por las máquinas y las nuevas tecnologías, se dedicó desde su
infancia a reparar relojes y a construir modelos de funcionamiento de
molinos de agua. En sus estudios de postgrado había estado involucrado en
el electromagnetismo y había logrado construir un detector de ondas de
radio antes de que Marconi llevara a cabo sus famosos experimentos.
Gracias a una beca llegó a Cambridge, donde su radio, capaz de captar
señales a casi un kilómetro de distancia, impresionó favorablemente a
muchos profesores, incluyendo a J. J. Thomson, que en ese momento dirigía
el Laboratorio Cavendish.
Thomson invitó a Rutherford a trabajar con él en una de las novedades de la
época, los rayos X, entonces conocidos como rayos Becquerel, y a estudiar
el fenómeno de la descarga eléctrica en los gases. El joven kiwi tenía
nostalgia, pero era una oferta imprescindible. El fruto de su colaboración se
resumió en un famoso artículo sobre la ionización, que se explicó por el
hecho de que los rayos X, al colisionar con la materia, parecían crear un
número igual de partículas cargadas eléctricamente, llamadas "iones".
Thomson entonces afirmaría públicamente que nunca había conocido a
nadie tan hábil y apasionado por la investigación como su estudiante.
Alrededor de 1909, Rutherford coordinó un grupo de trabajo dedicado a las
llamadas partículas alfa, que fueron disparadas a una fina lámina de oro
para ver cómo sus trayectorias eran desviadas por átomos de metales
pesados. Algo inesperado sucedió en esos experimentos. Casi todas las
partículas se desviaron ligeramente, al pasar por la lámina de oro, a una
pantalla de detección a cierta distancia. Pero uno de cada 8.000 rebotó y
nunca pasó del papel de aluminio. Como Rutherford dijo más tarde, "fue
como disparar un mortero a un pedazo de papel y ver la bala regresar. ¿Qué
estaba pasando? ¿Había algo dentro del metal que pudiera repeler las
partículas alfa, pesadas y con carga positiva?
Gracias a las investigaciones previas de J.J. Thomson, se sabía en ese
momento que los átomos contenían luz, electrones negativos. Para que la
construcción fuera estable y para equilibrar todo, por supuesto, se requería
una cantidad igual y opuesta de cargas positivas. Sin embargo, dónde
estaban estos cargos era entonces un misterio. Antes de Rutherford, nadie
había sido capaz de dar forma al interior del átomo.
En 1905 J. J. Thomson había propuesto un modelo que preveía una carga
positiva repartida uniformemente dentro del átomo y los diversos electrones
dispersos como pasas en el panettone - por esta razón fue bautizado por los
físicos como el "modelo del panettone" (modelo del pudín de ciruela en
inglés). Si el átomo se hizo realmente así, las partículas alfa del
experimento anterior siempre tendrían que pasar a través de la lámina: sería
como disparar balas a un velo de espuma de afeitar. Aquí, ahora imagina
que en esta situación una bala de cada ocho mil es desviada por la espuma
hasta que vuelve. Esto sucedió en el laboratorio de Rutherford.
Según sus cálculos, la única manera de explicar el fenómeno era admitir
que toda la masa y la carga positiva del átomo se concentraba en un
"núcleo", una pequeña bola situada en el centro del propio átomo. De esta
manera habría habido las concentraciones de masa y carga necesarias para
repeler las partículas alfa, pesadas y positivas, que eventualmente llegaron
en un curso de colisión. Era como si dentro del velo de espuma de afeitar
hubiera muchas bolas duras y resistentes, capaces de desviar y repeler las
balas. Los electrones a su vez no se dispersaron sino que giraron alrededor
del núcleo. Gracias a Rutherford, entonces, el modelo de pan dulce fue
consignado al basurero de la historia. El átomo parecía más bien un
pequeño sistema solar, con planetas en miniatura (los electrones) orbitando
una densa y oscura estrella (el núcleo), todo ello unido por fuerzas
electromagnéticas.
Con experimentos posteriores se descubrió que el núcleo era realmente
diminuto: su volumen era una milésima de una milmillonésima del átomo.
Por el contrario, contenía más del 99,98% de la masa total del átomo. Así
que la materia estaba hecha en gran parte de vacío, de puntos alrededor de
los cuales los electrones giraban a grandes distancias. Realmente increíble:
¡la materia está básicamente hecha de nada! (incluso la silla "sólida" en la
que estás sentado ahora está prácticamente toda vacía). En el momento de
este descubrimiento, la física clásica, desde la F=ma de Newton hasta las
leyes de Maxwell, todavía se consideraba inexpugnable, tanto a nivel
microscópico como a gran escala, a nivel del sistema solar. Se creía que en
el átomo funcionaban las mismas leyes válidas en otros lugares. Todos
dormían en sueños tranquilos hasta que llegó Niels Bohr.
El danés melancólico
Un día, Niels Bohr, un joven teórico danés que se estaba perfeccionando en
ese momento en el Laboratorio Cavendish, asistió a una conferencia en
Rutherford y quedó tan impresionado por la nueva teoría atómica del gran
experimentador que le pidió que trabajara con él en la Universidad de
Manchester, donde estaba entonces. Aceptó acogerlo durante cuatro meses
en 1912.
Reflexionando tranquilamente sobre los nuevos datos experimentales, Bohr
pronto se dio cuenta de que había algo malo en el modelo. De hecho, ¡fue
un desastre! Si se aplican las ecuaciones de Maxwell a un electrón en una
órbita circular muy rápida alrededor del núcleo, resulta que la partícula
pierde casi inmediatamente toda su energía, en forma de ondas
electromagnéticas. Debido a esto el radio orbital se hace cada vez más
pequeño, reduciéndose a cero en sólo 10-16 segundos (una diez
millonésima de una billonésima de segundo). En pocas palabras, un
electrón según la física clásica debería caer casi instantáneamente en el
núcleo. Así que el átomo, es decir, la materia, es inestable, y el mundo tal
como lo conocemos es físicamente imposible. Las ecuaciones de Maxwell
parecían implicar el colapso del modelo orbital. Así que el modelo estaba
equivocado, o las venerables leyes de la física clásica estaban equivocadas.
Bohr se puso a estudiar el átomo más simple de todos, el átomo de
hidrógeno, que en el modelo de Rutherford consiste en un solo electrón
negativo que orbita alrededor del núcleo positivo. Pensando en los
resultados de Planck y Einstein, y en ciertas ideas que estaban en el aire
sobre el comportamiento ondulatorio de las partículas, el joven danés se
lanzó a una hipótesis muy poco clásica y muy arriesgada. Según Bohr, sólo
se permiten ciertas órbitas al electrón, porque su movimiento dentro del
átomo es similar al de las ondas. Entre las órbitas permitidas hay una de
nivel de energía mínimo, donde el electrón se acerca lo más posible al
núcleo: la partícula no puede bajar más que esto y por lo tanto no puede
emitir energía mientras salta a un nivel más bajo - que realmente no existe.
Esta configuración especial se llama el estado fundamental.
Con su modelo, Bohr intentaba principalmente explicar a nivel teórico el
espectro discreto de los átomos, esas líneas más o menos oscuras que ya
hemos encontrado. Como recordarán, los diversos elementos, al ser
calentados hasta que emiten luz, dejan una huella característica en el
espectrómetro que consiste en una serie de líneas de color que resaltan
claramente sobre un fondo más oscuro. En el espectro de la luz solar,
entonces, también hay líneas negras y delgadas en ciertos puntos precisos.
Las líneas claras corresponden a las emisiones, las oscuras a las
absorciones. El hidrógeno, como todos los elementos, tiene su "huella"
espectral: a estos datos, conocidos en su momento, Bohr trató de aplicar su
modelo recién nacido.
En tres artículos posteriores publicados en 1913, el físico danés expuso su
audaz teoría cuántica del átomo de hidrógeno. Las órbitas permitidas al
electrón se caracterizan por cantidades fijas de energía, que llamaremos E1,
E2, E3 etc. Un electrón emite radiación cuando "salta" de un nivel superior,
digamos E3, a uno inferior, digamos E2: es un fotón cuya energía (dada,
recordemos, por E=hf) es igual a la diferencia entre los de los dos niveles.
Así que E2-E3=hf. Añadiendo este efecto en los miles de millones de
átomos donde el proceso ocurre al mismo tiempo, obtenemos como
resultado las líneas claras del espectro. Gracias a un modelo que conservaba
parcialmente la mecánica newtoniana pero que se desviaba de ella cuando
no estaba de acuerdo con los datos experimentales, Bohr pudo calcular
triunfalmente las longitudes de onda correspondientes a todas las líneas
espectrales del hidrógeno. Sus fórmulas dependían sólo de constantes y
valores conocidos, como la masa y la carga de los electrones (como de
costumbre sazonada aquí y allá por símbolos como π y, obviamente, el
signo distintivo de la mecánica cuántica, la constante h de Planck).
Resumiendo, en el modelo de Bohr el electrón permanece confinado en
pocas órbitas permitidas, como por arte de magia, que corresponden a
niveles de energía bien definidos E1, E2, E3 etc. El electrón puede absorber
energía sólo en "paquetes" o "cuantos"; si absorbe un número adecuado,
puede "saltar" del nivel en que se encuentra a uno más alto, por ejemplo, de
E2 a E3; viceversa, los electrones de los niveles superiores pueden
deslizarse espontáneamente hacia abajo, regresando por ejemplo de E3 a
E2, y al hacerlo emiten cuantos de luz, es decir, fotones. Estos fotones
pueden ser observados porque tienen longitudes de onda específicas, que
corresponden a las líneas espectrales. Sus valores se predicen exactamente,
en el caso del átomo de hidrógeno, por el modelo de Bohr.
El carácter del átomo
Así es gracias a Rutherford y Bohr si hoy en día la representación más
conocida del átomo es la del sistema solar, donde pequeños electrones
zumban alrededor del núcleo como muchos planetas pequeños, en órbitas
similares a las elípticas predichas por Kepler. Muchos quizás piensan que el
modelo es preciso y que el átomo está hecho así. Desgraciadamente no,
porque las intuiciones de Bohr eran brillantes pero no del todo correctas. La
proclamación del triunfo resultó prematura. Se dio cuenta de que su modelo
se aplicaba sólo al átomo más simple, el átomo de hidrógeno, pero ya estaba
fallando en el siguiente paso, con el helio, el átomo con dos electrones. Los
años 20 estaban a la vuelta de la esquina y la mecánica cuántica parecía
atascada. Sólo se había dado el primer paso, correspondiente a lo que ahora
llamamos la vieja teoría cuántica.
Los padres fundadores, Planck, Einstein, Rutherford y Bohr, habían
comenzado la revolución pero aún no habían cosechado los beneficios.
Estaba claro para todos que la inocencia se había perdido y que la física se
estaba volviendo extraña y misteriosa: había un mundo de paquetes de
energía y electrones que saltaban mágicamente sólo en ciertas órbitas y no
en otras, un mundo donde los fotones son ondas y partículas al mismo
tiempo, sin estar en el fondo de ninguna de las dos. Todavía había mucho
que entender.
Capítulo 5
Un incierto Heisenberg

este es el momento que todos han estado esperando. Estamos a punto de


Y enfrentarnos a la verdadera mecánica cuántica de frente y entrar en un
territorio alienígena y desconcertante. La nueva ciencia empujó incluso
a Wolfgang Pauli, uno de los más grandes físicos de todos los tiempos, a la
exasperación. En 1925, en una carta a un colega, dijo que estaba dispuesto a
abandonar la lucha: "La física es ahora demasiado difícil. Prefiero ser un
actor cómico, o algo así, que un físico". Si tal gigante del pensamiento
científico hubiera abandonado la investigación para convertirse en el Jerry
Lewis de su tiempo, hoy no estaríamos hablando del "principio excluyente
de Pauli" y la historia de la ciencia podría haber tomado un rumbo muy
diferente1 . El viaje que estamos a punto de emprender no es recomendable
para los débiles de corazón, pero llegar al destino será una recompensa
extraordinaria.
La naturaleza está hecha en paquetes
Empecemos con la vieja teoría cuántica, formulada por Bohr para dar
cuenta de los resultados del experimento de Rutherford. Como recordarán,
reemplazó el modelo del átomo panettone con la idea de que había un denso
núcleo central rodeado de electrones zumbantes, una configuración similar
a la del sistema solar, con nuestra estrella en el centro y los planetas
orbitándola. Ya hemos dicho que este modelo también ha pasado a una vida
mejor. Víctima de refinamientos posteriores, la vieja teoría cuántica, con su
loca mezcla de mecánica clásica y ajustes cuánticos ad hoc, fue en un
momento dado completamente abandonada. Sin embargo, el mérito de Bohr
fue presentar al mundo por primera vez un modelo de átomo cuántico, que
ganó credibilidad gracias a los resultados del brillante experimento que
veremos en breve.
Según las leyes clásicas, ningún electrón podría permanecer en órbita
alrededor del núcleo. Su movimiento sería acelerado, como todos los
movimientos circulares (porque la velocidad cambia continuamente de
dirección con el tiempo), y según las leyes de Maxwell cada partícula
cargada en movimiento acelerado emite energía en forma de radiación
electromagnética, es decir, luz. Según los cálculos clásicos, un electrón en
órbita perdería casi inmediatamente su energía, que desaparecería en forma
de radiación electromagnética; por lo tanto, la partícula en cuestión perdería
altitud y pronto se estrellaría contra el núcleo. El átomo clásico no podría
existir, si no es en forma colapsada, por lo tanto químicamente muerto e
inservible. La teoría clásica no fue capaz de justificar los valores
energéticos de los electrones y los núcleos. Por lo tanto, era necesario
inventar un nuevo modelo: la teoría cuántica.
Además, como ya se sabía a finales del siglo XIX gracias a los datos de las
líneas espectrales, los átomos emiten luz pero sólo con colores definidos, es
decir, con longitudes de onda (o frecuencias) a valores discretos y
cuantificados. Casi parece que sólo pueden existir órbitas particulares, y los
electrones están obligados a saltar de una a otra cada vez que emiten o
absorben energía. Si el modelo "kepleriano" del átomo como sistema solar
fuera cierto, el espectro de la radiación emitida sería continuo, porque la
mecánica clásica permite la existencia de un rango continuo de órbitas.
Parece, en cambio, que el mundo atómico es "discreto", muy diferente de la
continuidad prevista por la física newtoniana.
Bohr centró su atención en el átomo más simple de todos, el átomo de
hidrógeno, equipado con un solo protón en el núcleo y un electrón
orbitando alrededor de él. Jugando un poco con las nuevas ideas de la
mecánica cuántica, se dio cuenta de que podía aplicar a los electrones la
hipótesis de Planck, es decir, asociar a una cierta longitud de onda (o
frecuencia) el momento (o energía) de un fotón, de la que se podía deducir
la existencia de órbitas discretas. Después de varios intentos, finalmente
llegó a la fórmula correcta. Las órbitas "especiales" de Bohr eran circulares
y cada una tenía una circunferencia asignada, siempre igual a la longitud de
onda cuántica del electrón derivada de la ecuación de Planck. Estas órbitas
mágicas correspondían a valores energéticos particulares, por lo que el
átomo sólo podía tener un conjunto discreto de estados de energía.
Bohr comprendió inmediatamente que había una órbita mínima, a lo largo
de la cual el electrón estaba lo más cerca posible del núcleo. Desde este
nivel no podía caer más bajo, por lo que el átomo no se derrumbó y su
destino fatal. Esta órbita mínima se conoce como el estado fundamental y
corresponde al estado de energía mínima del electrón. Su existencia implica
la estabilidad del átomo. Hoy sabemos que esta propiedad caracteriza a
todos los sistemas cuánticos.
La hipótesis de Bohr demostró ser realmente efectiva: de las nuevas
ecuaciones todos los números que correspondían a los valores observados
en los experimentos saltaron uno tras otro. Los electrones atómicos están,
como dicen los físicos, "ligados" y sin la contribución de la energía del
exterior continúan girando tranquilamente alrededor del núcleo. La cantidad
de energía necesaria para hacerlos saltar y liberarlos del enlace atómico se
llama, precisamente, energía de enlace, y depende de la órbita en la que se
encuentre la partícula. (Por lo general nos referimos a tal energía como el
mínimo requerido para alejar un electrón del átomo y llevarlo a una
distancia infinita y con energía cinética nula, un estado que
convencionalmente decimos energía nula; pero es, de hecho, sólo una
convención). Viceversa, si un electrón libre es capturado por un átomo,
libera una cantidad de energía, en forma de fotones, igual a la cantidad de
enlace de la órbita en la que termina.
Las energías de enlace de las órbitas (es decir, de los estados) se miden
generalmente en unidades llamadas voltios de electrones (símbolo: eV). El
estado fundamental en el átomo de hidrógeno, que corresponde a esa órbita
especial de mínima distancia del núcleo y máxima energía de enlace, tiene
una energía igual a 13,6 eV. Este valor se puede obtener teóricamente
también gracias a la llamada "fórmula de Rydberg", llamada así en honor
del físico sueco Johannes Rydberg, quien en 1888 (ampliando algunas
investigaciones de Johann Balmer y otros) había adelantado una explicación
empírica de las líneas espectrales del hidrógeno y otros átomos. De hecho,
el valor de 13,6 eV y la fórmula de la que puede derivarse se conocían
desde hacía algunos años, pero fue Bohr quien primero dio una rigurosa
justificación teórica.
Los estados cuánticos de un electrón en el átomo de hidrógeno (equivalente
a una de las órbitas de Bohr) se representan con un número entero n = 1, 2,
3, ... El estado con la mayor energía de unión, el fundamental, corresponde
a n=1; el primer estado excitado a n=2, y así sucesivamente. El hecho de
que este conjunto discreto de estados sea el único posible en los átomos es
la esencia de la teoría cuántica. El número n tiene el honor de tener un
nombre propio en la física y se llama "número cuántico principal". Cada
estado, o número cuántico, está caracterizado por un valor energético (en
eV, como el que se ve arriba) y está etiquetado con las letras E1, E2, E3,
etc. (véase la nota 3).
Como recordarán, en esta teoría, anticuada pero no olvidada, se espera que
los electrones emitan fotones al saltar de un estado de mayor energía a otro
de menor energía. Esta regla obviamente no se aplica al estado fundamental
E1, es decir, cuando n=1, porque en este caso el electrón no tiene disponible
una órbita inferior. Estas transiciones tienen lugar de una manera
completamente predecible y lógica. Si, por ejemplo, el electrón en el estado
n=3 baja al estado n=2, el ocupante de esta última órbita debe nivelarse
hasta n=1. Cada salto va acompañado de la emisión de un fotón con una
energía igual a la diferencia entre las energías de los estados implicados,
como E2-E3 o E1-E2. En el caso del átomo de hidrógeno, los valores
numéricos correspondientes son 10,5 eV - 9,2 eV = 1,3 eV, y 13,6 eV - 10,5
eV = 3,1 eV. Dado que la energía E y la longitud de onda λ de un fotón
están relacionadas por la fórmula de Planck E=hf=hc/λ, es posible derivar la
energía de los fotones emitidos midiendo su longitud de onda por
espectroscopia. En la época de Bohr los relatos parecían volver en lo que
respecta al átomo de hidrógeno, el más simple (sólo un electrón alrededor
de un protón), pero ya delante del helio, el segundo elemento en orden de
simplicidad, no se sabía bien cómo proceder.
A Bohr se le ocurrió otra idea, que es medir el momento de los electrones a
través de la absorción de energía por los átomos, invirtiendo el
razonamiento visto anteriormente. Si la hipótesis de los estados cuánticos es
cierta, entonces los átomos pueden adquirir energía sólo en paquetes
correspondientes a las diferencias entre las energías de los estados, E2 - E3,
E1 - E2 y así sucesivamente. El experimento crucial para probar esta
hipótesis fue realizado en 1914 por James Franck y Gustav Hertz en Berlín,
y fue quizás la última investigación importante realizada en Alemania antes
del estallido de la Primera Guerra Mundial. Los dos científicos obtuvieron
resultados perfectamente compatibles con la teoría de Bohr, pero no eran
conscientes de ello. No conocerían los resultados del gran físico danés hasta
varios años después.
Los terribles años 20
Es difícil darse cuenta del pánico que se extendió entre los más grandes
físicos del mundo a principios de los terribles años 20, entre 1920 y 1925.
Después de cuatro siglos de fe en la existencia de principios racionales que
subyacen a las leyes de la naturaleza, la ciencia se vio obligada a revisar sus
propios fundamentos. El aspecto que más perturbó las conciencias,
adormecidas por las tranquilizadoras certezas del pasado, fue la
desconcertante dualidad subyacente de la teoría cuántica. Por un lado, había
abundante evidencia experimental de que la luz se comportaba como una
onda, completa con interferencia y difracción. Como ya hemos visto en
detalle, la hipótesis de la onda es la única capaz de dar cuenta de los datos
obtenidos del experimento de la doble rendija.
Por otra parte, una cosecha igualmente abundante de experiencias demostró
fuertemente la naturaleza de partícula de la luz - y lo vimos en la anterior
con la radiación de cuerpo negro, el efecto fotoeléctrico y el efecto
Compton. La conclusión lógica a la que llevaron estos experimentos fue
una y sólo una: la luz de cualquier color, por lo tanto de cualquier longitud
de onda, estaba compuesta por una corriente de partículas, todas ellas
moviéndose en el vacío a la misma velocidad, c. Cada uno tenía su propio
impulso, una cantidad que en la física newtoniana venía dada por el
producto de la masa para la velocidad y que para los fotones es igual a la
energía dividida por c. El impulso es importante (como puede atestiguar
cualquiera que haya pasado delante de una cámara de velocidad), porque su
total en un sistema se conserva, es decir, no cambia ni siquiera después de
varios impactos. En el caso clásico se conoce el ejemplo de la colisión de
dos bolas de billar: aunque las velocidades cambien, la suma del momento
antes y después de la colisión permanece constante. El experimento de
Compton ha demostrado que esta conservación también es válida para los
que se comportan como coches y otros objetos macroscópicos.
Deberíamos detenernos un momento para aclarar la diferencia entre ondas y
partículas. En primer lugar, los últimos son discretos. Toma dos vasos, uno
lleno de agua y otro de arena fina. Ambas sustancias cambian de forma y
pueden ser vertidas, tanto que, en un examen no demasiado exhaustivo,
parecen compartir las mismas propiedades. Pero el líquido es continuo,
suave, mientras que la arena está formada por granos discretos y contables.
Una cucharadita de agua contiene un cierto volumen de líquido, una
cucharadita de arena se puede cuantificar en el número de granos. La
mecánica cuántica reevalúa cantidades discretas y números enteros, en lo
que parece ser un retorno a las teorías pitagóricas. Una partícula, en cada
instante, tiene una posición definida y se mueve a lo largo de una cierta
trayectoria, a diferencia de una onda, que está "embadurnada" en el espacio.
Las partículas, además, tienen una cierta energía e impulso, que puede
transferirse a otras partículas en las colisiones. Por definición, una partícula
no puede ser una onda y viceversa.
De vuelta a nosotros. Los físicos en la década de 1920 estaban
desconcertados ante esa extraña bestia, mitad partícula, mitad onda, que
algunos llamaban ondícula (contracción de onda, onda y partícula,
partícula). A pesar de las pruebas bien establecidas a favor de la naturaleza
ondulatoria, experimento tras experimento los fotones resultaron ser objetos
concretos, capaces de colisionar entre sí y con los electrones. Los átomos
emitieron uno cuando salieron de un estado de excitación, liberando la
misma cantidad de energía, E=hf, transportada por el propio fotón. La
historia tomó un giro aún más sorprendente con la entrada de un joven
físico francés, el aristócrata Louis-Cesar-Victor-Maurice de Broglie, y su
memorable tesis doctoral.
La familia de Broglie, entre cuyos miembros sólo había oficiales de alto
rango, diplomáticos o políticos, era muy hostil a las inclinaciones de Louis.
El viejo duque, su abuelo, llamaba a la ciencia "una anciana que busca la
admiración de los jóvenes". Así que el vástago, en aras del compromiso,
emprendió sus estudios para convertirse en oficial de la marina, pero
continuó experimentando en su tiempo libre, gracias al laboratorio que
había instalado en la mansión ancestral. En la marina se hizo un nombre
como experto en transmisión y después de la muerte del viejo duque se le
permitió tomarse un permiso para dedicarse a tiempo completo a su
verdadera pasión.
De Broglie había reflexionado largamente sobre las dudas de Einstein
acerca del efecto fotoeléctrico, que era incompatible con la naturaleza
ondulante de la luz y que corroboraba la hipótesis de los fotones. Mientras
releía el trabajo del gran científico, al joven francés se le ocurrió una idea
muy poco ortodoxa. Si la luz, que parecería ser una onda, exhibe un
comportamiento similar al de las partículas, quizás lo contrario también
pueda ocurrir en la naturaleza. Tal vez las partículas, todas las partículas,
exhiben un comportamiento ondulatorio en ciertas ocasiones. En palabras
de de Broglie: "La teoría del átomo de Bohr me llevó a formular la hipótesis
de que los electrones también podían considerarse no sólo partículas, sino
también objetos a los que era posible asignar una frecuencia, que es una
propiedad ondulatoria".
Unos años antes, un estudiante de doctorado que hubiera elegido esta audaz
hipótesis para su tesis se habría visto obligado a trasladarse a la facultad de
teología de alguna oscura universidad de Molvania Citeriore. Pero en 1924
todo era posible, y de Broglie tenía un admirador muy especial. El gran
Albert Einstein fue llamado por sus perplejos colegas parisinos como
consultor externo para examinar la tesis del candidato, que le pareció muy
interesante (tal vez también pensó "pero ¿por qué no tuve esta idea?"). En
su informe a la comisión parisina, el Maestro escribió: "De Broglie ha
levantado una solapa del gran velo". El joven francés no sólo obtuvo el
título, sino que unos años más tarde recibió incluso el Premio Nobel de
Física, gracias a la teoría presentada en su tesis. Su mayor éxito fue haber
encontrado una relación, modelada en la de Planck, entre el momento
clásico de un electrón (masa por velocidad) y la longitud de onda de la onda
correspondiente. Pero, ¿una ola de qué? Un electrón es una partícula, por el
amor de Dios, ¿dónde está la onda? De Broglie habló de "un misterioso
fenómeno con caracteres de periodicidad" que tuvo lugar dentro de la
propia partícula. Parece poco claro, pero estaba convencido de ello. Y
aunque su interpretación era humeante, la idea subyacente era brillante.
En 1927, dos físicos americanos que trabajaban en los prestigiosos
Laboratorios Bell de AT&T, Nueva Jersey, estudiaban las propiedades de
los tubos de vacío bombardeando con flujos de electrones varios tipos de
cristales. Los resultados fueron bastante extraños: los electrones salieron de
los cristales según las direcciones preferidas y parecían ignorar a los demás.
Los investigadores del Laboratorio Bell no lo sabían, hasta que
descubrieron la loca hipótesis de De Broglie. Visto desde este nuevo punto
de vista, su experimento era sólo una versión compleja del de Young, con la
doble rendija, y el comportamiento de los electrones mostraba una
propiedad bien conocida de las ondas, que es la difracción! Los resultados
habrían tenido sentido si se hubiera asumido que la longitud de onda de los
electrones estaba realmente relacionada con su impulso, tal como de
Broglie había predicho. La red regular de átomos en los cristales era el
equivalente a las fisuras del experimento de Young, que tenía más de un
siglo de antigüedad. Este descubrimiento fundamental de la "difracción
electrónica" corroboró la tesis de de Broglie: los electrones son partículas
que se comportan como ondas, y también es bastante fácil de verificar.
Volveremos en breve a la cuestión de la difracción, rehaciendo nuestro ya
conocido experimento de doble rendija con electrones, que nos dará un
resultado aún más desconcertante. Aquí sólo observamos que esta
propiedad es responsable del hecho de que los diversos materiales se
comportan como conductores, aislantes o semiconductores, y está en la base
de la invención de los transistores. Ahora tenemos que conocer a otro
protagonista - tal vez el verdadero superhéroe de la revolución cuántica.
Una matemática extraña
Werner Heisenberg (1901-1976) fue el príncipe de los teóricos, tan
desinteresado en la práctica del laboratorio que se arriesgó a reprobar su
tesis en la Universidad de Munich porque no sabía cómo funcionaban las
baterías. Afortunadamente para él y para la física en general, también fue
ascendido. Hubo otros momentos no fáciles en su vida. Durante la Primera
Guerra Mundial, mientras su padre estaba en el frente como soldado, la
escasez de alimentos y combustible en la ciudad era tal que las escuelas y
universidades se veían a menudo obligadas a suspender las clases. Y en el
verano de 1918 el joven Werner, debilitado y desnutrido, se vio obligado,
junto con otros estudiantes, a ayudar a los agricultores en una cosecha
agrícola bávara.
Al final de la guerra, a principios de los años 20, era un joven prodigio:
pianista de alto nivel, esquiador y alpinista hábil, así como matemático
licenciado en física. Durante las lecciones del viejo maestro Arnold
Sommerfeld, conoció a otro joven prometedor, Wolfgang Pauli, que más
tarde se convertiría en su más cercano colaborador y su más feroz crítico.
En 1922 Sommerfeld llevó a Heisenberg, de 21 años, a Göttingen, entonces
el faro de la ciencia europea, para asistir a una serie de conferencias sobre la
naciente física atómica cuántica, impartidas por el propio Niels Bohr. En
esa ocasión el joven investigador, nada intimidado, se atrevió a contrarrestar
algunas de las afirmaciones del gurú y desafiar su modelo teórico de raíz.
Sin embargo, después de este primer enfrentamiento, nació una larga y
fructífera colaboración entre ambos, marcada por la admiración mutua.
Desde ese momento Heisenberg se dedicó en cuerpo y alma a los enigmas
de la mecánica cuántica. En 1924 pasó un tiempo en Copenhague, para
trabajar directamente con Bohr en los problemas de emisión y absorción de
radiación. Allí aprendió a apreciar la "actitud filosófica" (en palabras de
Pauli) del gran físico danés. Frustrado por las dificultades de concretar el
modelo atómico de Bohr, con sus órbitas puestas de esa manera quién sabe
cómo, el joven se convenció de que debe haber algo malo en la raíz. Cuanto
más lo pensaba, más le parecía que esas órbitas simples, casi circulares,
eran un excedente, una construcción puramente intelectual. Para deshacerse
de ellos, comenzó a pensar que la idea misma de la órbita era un residuo
newtoniano del que había que prescindir.
El joven Werner se impuso una doctrina feroz: ningún modelo debe basarse
en la física clásica (por lo tanto, nada de sistemas solares en miniatura,
aunque sean lo suficientemente bonitos para dibujar). El camino a la
salvación no fue la intuición o la estética, sino el rigor matemático. Otro de
sus dikats conceptuales era la renuncia a todas las entidades (como las
órbitas, para ser precisos) que no se podían medir directamente.
En los átomos se medían las líneas espectrales, testigos de la emisión o
absorción de fotones por parte de los átomos como resultado del salto entre
los niveles de electrones. Así que fue a esas líneas netas, visibles y
verificables correspondientes al inaccesible mundo subatómico a las que
Heisenberg dirigió su atención. Para resolver este problema diabólicamente
complicado, y para encontrar alivio a la fiebre del heno, en 1925 se retiró a
Helgoland, una isla remota en el Mar del Norte.
Su punto de partida fue el llamado "principio de correspondencia",
enunciado por Bohr, según el cual las leyes cuánticas debían transformarse
sin problemas en las correspondientes leyes clásicas cuando se aplicaban a
sistemas suficientemente grandes. ¿Pero cómo de grande? Tan grande que
fue posible descuidar la constante h de Planck en las ecuaciones relativas.
Un objeto típico del mundo atómico tiene una masa igual a 10-27 kg;
consideremos que un grano de polvo apenas visible a simple vista puede
pesar 10-7 kg: muy poco, pero aún así es mayor que un factor
100000000000000, es decir, 1020, un uno seguido de veinte ceros. Así que
el polvo atmosférico está claramente dentro del dominio de la física clásica:
es un objeto macroscópico y su movimiento no se ve afectado por la
presencia de factores dependientes de la constante de Planck. Las leyes
cuánticas básicas se aplican naturalmente a los fenómenos del mundo
atómico y subatómico, mientras que pierde sentido utilizarlas para describir
fenómenos relacionados con agregados más grandes que los átomos, a
medida que las dimensiones crecen y la física cuántica da paso a las leyes
clásicas de Newton y Maxwell. El fundamento de este principio (como
volveremos a repetir muchas veces) radica en el hecho de que los extraños e
inéditos efectos cuánticos "se corresponden" directamente con los
conceptos clásicos de la física al salir del campo atómico para entrar en el
macroscópico.
Impulsado por las ideas de Bohr, Heisenberg redefinió en el campo cuántico
las nociones más banales de la física clásica, como la posición y la
velocidad de un electrón, para que estuvieran en correspondencia con los
equivalentes newtonianos. Pero pronto se dio cuenta de que sus esfuerzos
por reconciliar dos mundos llevaron al surgimiento de un nuevo y extraño
"álgebra de la física".
Todos aprendimos en la escuela la llamada propiedad conmutativa de la
multiplicación, es decir, el hecho de que, dados dos números cualesquiera a
y b, su producto no cambia si los intercambiamos; en símbolos: a×b=b×a.
Es obvio, por ejemplo, que 3×4 =4×3=12. Sin embargo, en la época de
Heisenberg se conoce desde hace mucho tiempo la existencia de sistemas
numéricos abstractos en los que la propiedad conmutativa no siempre es
válida y no se dice que a × b sea igual a b × a. Pensándolo bien, también se
pueden encontrar ejemplos de operaciones no conmutables en la naturaleza.
Un caso clásico son las rotaciones e inclinaciones (intente realizar dos
rotaciones diferentes en un objeto como un libro, y encontrará ejemplos en
los que el orden en que se producen es importante).
Heisenberg no había estudiado a fondo las fronteras más avanzadas de las
matemáticas puras de su tiempo, pero pudo contar con la ayuda de colegas
más experimentados, que reconocieron inmediatamente el tipo de álgebra
que contenían sus definiciones: no eran más que multiplicaciones de
matrices con valores complejos. El llamado "álgebra matricial" era una
exótica rama de las matemáticas, conocida desde hace unos sesenta años,
que se utilizaba para tratar objetos formados por filas y columnas de
números: matrices. El álgebra matrimonial aplicada al formalismo de
Heisenberg (llamada mecánica matricial) condujo a la primera disposición
concreta de la física cuántica. Sus cálculos condujeron a resultados sensatos
para las energías de los estados y las transiciones atómicas, es decir, saltos
en el nivel de los electrones.
Cuando se aplicó la mecánica matricial no sólo al caso del átomo de
hidrógeno, sino también a otros sistemas microscópicos simples, se
descubrió que funcionaba de maravilla: las soluciones obtenidas
teóricamente coincidían con los datos experimentales. Y de esas extrañas
manipulaciones de las matrices surgió un concepto revolucionario.
Los primeros pasos del principio de incertidumbre
La principal consecuencia de la no conmutación resultó ser esta. Si
indicamos con x la posición a lo largo de un eje y p el momento, siempre a
lo largo del mismo eje, de una partícula, el hecho de que xp no sea igual a
px implica que los dos valores no pueden ser medidos simultáneamente de
una manera definida y precisa. En otras palabras, si obtenemos la posición
exacta de una partícula, perturbamos el sistema de tal manera que ya no es
posible conocer su momento, y viceversa. La causa de esto no es
tecnológica, no son nuestros instrumentos los que son inexactos: es la
naturaleza la que está hecha de esta manera.
En el formalismo de la mecánica matricial podemos expresar esta idea de
manera concisa, lo que siempre ha enloquecido a los filósofos de la ciencia:
"La incertidumbre relacionada con la posición de una partícula, indicada
con Δx, y la relacionada con el impulso, Δp, están vinculadas por la
relación: ΔxΔp≥ħ/2, donde ħ=h/2π". En palabras: "el producto de las
incertidumbres relativas a la posición y el momento de una partícula es
siempre mayor o igual a un número igual a la constante de Planck dividido
por cuatro veces pi". Esto implica que si medimos la posición con gran
precisión, haciendo así que Δx sea lo más pequeño posible,
automáticamente hacemos que Δp sea arbitrariamente grande, y viceversa.
No se puede tener todo en la vida: hay que renunciar a saber exactamente la
posición, o el momento.
A partir de este principio también podemos deducir la estabilidad del átomo
de Bohr, es decir, demostrar la existencia de un estado fundamental, una
órbita inferior bajo la cual el electrón no puede descender, como sucede en
cambio en la mecánica newtoniana. Si el electrón se acercara cada vez más
al núcleo hasta que nos golpeara, la incertidumbre sobre su posición sería
cada vez menor, es decir, como dicen los científicos Δx "tendería a cero".
De acuerdo con el principio de Heisenberg Δp se volvería arbitrariamente
grande, es decir, la energía del electrón crecería más y más. Se muestra que
existe un estado de equilibrio en el que el electrón está "bastante" bien
ubicado, con Δx diferente de cero, y en el que la energía es la mínima
posible, dado el valor correspondiente de Δp.
La relación física del principio de incertidumbre es más fácil de entender si
nos ponemos en otro orden de razonamiento, à la Schrödinger, y
examinamos una propiedad (no cuántica) de las ondas electromagnéticas,
bien conocida en el campo de las telecomunicaciones. Sí, estamos a punto
de volver a las olas. La mecánica de las matrices parecía a primera vista la
única forma rigurosa de penetrar en los meandros del mundo atómico. Pero
afortunadamente, mientras los físicos se preparaban para convertirse en
expertos en álgebra, otra solución más atractiva para el problema surgió en
1926.
La ecuación más hermosa de la historia
Ya conocimos a Erwin Schrödinger en el capítulo 1. Como recordarán, en
un momento dado se tomó unas vacaciones en Suiza para estudiar en paz, y
el fruto de este período fue una ecuación, la ecuación de Schrödinger, que
aportó una claridad considerable al mundo cuántico.
¿Por qué es tan importante? Volvamos a la primera ley de Newton, la
F=pero que gobierna el movimiento de las manzanas, los planetas y todos
los objetos macroscópicos. Nos dice que la fuerza F aplicada a un objeto de
masa m produce una aceleración (es decir, un cambio de velocidad) a y que
estas tres cantidades están vinculadas por la relación escrita arriba. Resolver
esta ecuación nos permite conocer el estado de un cuerpo, por ejemplo una
pelota de tenis, en cada momento. Lo importante, en general, es conocer la
F, de la que luego derivamos la posición x y la velocidad v en el instante t.
Las relaciones entre estas cantidades se establecen mediante ecuaciones
diferenciales, que utilizan conceptos de análisis infinitesimal (inventados
por el propio Newton) y que a veces son difíciles de resolver (por ejemplo,
cuando el sistema está compuesto por muchos cuerpos). La forma de estas
ecuaciones es, sin embargo, bastante simple: son los cálculos y aplicaciones
los que se complican.
Newton asombró al mundo demostrando que combinando la ley de la
gravitación universal con la ley del movimiento, aplicada a la fuerza de la
gravedad, podíamos obtener las sencillas órbitas elípticas y las leyes del
movimiento planetario que Kepler había enunciado para el sistema solar. La
misma ecuación es capaz de describir los movimientos de la Luna, de una
manzana que cae del árbol y de un cohete disparado en órbita. Sin embargo,
esta ecuación no puede resolverse explícitamente si están involucrados
cuatro o más cuerpos, todos sujetos a la interacción gravitatoria; en este
caso es necesario proceder por aproximaciones y/o con la ayuda de métodos
numéricos (gracias a las calculadoras). Es un buen caso: en la base de las
leyes de la naturaleza hay una fórmula aparentemente simple, pero que
refleja la increíble complejidad de nuestro mundo. La ecuación de
Schrödinger es la versión cuántica de F=ma. Sin embargo, si lo resolvemos,
no nos encontramos con los valores de posición y velocidad de las
partículas, como en el caso newtoniano.
En esas vacaciones de diciembre de 1925, Schrödinger trajo consigo no
sólo a su amante, sino también una copia de la tesis doctoral de de Broglie.
Muy pocos, en ese momento, se habían dado cuenta de las ideas del francés,
pero después de la lectura de Schrödinger las cosas cambiaron rápidamente.
En marzo de 1926, este profesor de 40 años de la Universidad de Zurich,
que hasta entonces no había tenido una carrera particularmente brillante y
que para los estándares del joven físico de la época era casi decrépito, dio a
conocer al mundo su ecuación, que trataba del movimiento de los electrones
en términos de ondas, basada en la tesis de de Broglie. Para sus colegas
resultó ser mucho más digerible que las frías abstracciones de la mecánica
matricial. En la ecuación de Schrödinger apareció una nueva cantidad
fundamental, la función de onda, indicada con Ψ, que representa su
solución.
Desde mucho antes del nacimiento oficial de la mecánica cuántica, los
físicos fueron utilizados para tratar (clásicamente) varios casos de ondas
materiales en el continuo, como las ondas de sonido que se propagan en el
aire. Veamos un ejemplo con el sonido. La cantidad que nos interesa es la
presión ejercida por la onda en el aire, que indicamos con Ψ(x,t). Desde el
punto de vista matemático se trata de una "función", una receta que da el
valor de la presión de onda (entendida como una variación de la presión
atmosférica estándar) en cada punto x del espacio y en cada instante t. Las
soluciones de la ecuación clásica relativa describen naturalmente una onda
que "viaja" en el espacio y el tiempo, "perturbando" el movimiento de las
partículas de aire (o agua, o un campo electromagnético u otro). Las olas
del mar, los tsunamis y la bella compañía son todas las formas permitidas
por estas ecuaciones, que son del tipo "diferencial": implican cantidades
que cambian, y para entenderlas es necesario conocer el análisis
matemático. La "ecuación de onda" es un tipo de ecuación diferencial que si
se resuelve nos da la "función de onda" Ψ(x,t) - en nuestro ejemplo la
presión del aire que varía en el espacio y el tiempo a medida que pasa una
onda sonora.
Gracias a las ideas de de Broglie, Schrödinger comprendió inmediatamente
que los complejos tecnicismos de Heisenberg podían ser reescritos de tal
manera que se obtuvieran relaciones muy similares a las antiguas
ecuaciones de la física clásica, en particular las de las ondas. Desde un
punto de vista formal, una partícula cuántica fue descrita por la función
Ψ(x,t), que el propio Schrödinger llamó "función de onda". Con esta
interpretación y aplicando los principios de la física cuántica, es decir,
resolviendo la ecuación de Schrödinger, fue posible en principio calcular la
función de onda de cada partícula conocida en ese momento, en casi todos
los casos. El problema era que nadie tenía idea de lo que representaba esta
cantidad.
Como consecuencia de la introducción de Ψ, ya no se puede decir que "en
el instante t la partícula está en x", sino que hay que decir que "el
movimiento de la partícula está representado por la función Ψ(x,t), que da
la amplitud Ψ en el momento t en el punto x". Ya no se conoce la posición
exacta. Si vemos que Ψ es particularmente grande en un punto x y casi nada
en otro lugar, podemos sin embargo decir que la partícula está "más o
menos en la posición x". Las ondas son objetos difundidos en el espacio, y
también lo es la función de las ondas. Observamos que estos razonamientos
son retrospectivos, porque en los años que estamos considerando nadie,
incluyendo a Schrödinger, tenía ideas muy claras sobre la verdadera
naturaleza de la función de onda.
Aquí, sin embargo, hay un giro, que es uno de los aspectos más
sorprendentes de la mecánica cuántica. Schrödinger se dio cuenta de que su
función de onda era, como se esperaría de una onda, continua en el espacio
y en el tiempo, pero que para hacer que las cosas se sumen, tenía que tomar
números diferentes de los reales. Y esto es una gran diferencia con las
ondas normales, ya sean mecánicas o electromagnéticas, donde los valores
son siempre reales. Por ejemplo, podemos decir que la cresta de una ola
oceánica se eleva desde el nivel medio del mar por 2 metros (y por lo tanto
tenemos que exponer la bandera roja en la playa); o aún peor que se acerca
un tsunami de 10 metros de altura, y por lo tanto tenemos que evacuar las
zonas costeras a toda prisa. Estos valores son reales, concretos, medibles
con diversos instrumentos, y todos entendemos su significado.
La función de onda cuántica, por el contrario, asume valores en el campo de
los llamados "números complejos "15 . Por ejemplo, puede suceder que en
el punto x la amplitud sea igual a una "materia" que se escribe 0,3+0,5i,
donde i=√-1. En otras palabras, el número i multiplicado por sí mismo da el
resultado -1. Un objeto como el que está escrito arriba, formado por un
número real añadido a otro número real multiplicado por i, se llama un
número complejo. La ecuación de Schrödinger siempre implica la presencia
de i, un número que juega un papel fundamental en la propia ecuación, por
lo que la función de onda asume valores complejos.16
Esta complicación matemática es un paso inevitable en el camino hacia la
física cuántica y es otra indicación de que la función de onda de una
partícula no es directamente medible: después de todo, los números reales
siempre se obtienen en los experimentos. En la visión de Schrödinger, un
electrón es una ola para todos los propósitos, no muy diferente de un sonido
o una ola marina. ¿Pero cómo es posible, ya que una partícula tiene que
estar ubicada en un punto definido y no puede ocupar porciones enteras del
espacio? El truco es superponer varias ondas de tal manera que se borren
casi en todas partes excepto en el punto que nos interesa. Así pues, una
combinación de ondas logra representar un objeto bien situado en el
espacio, que estaríamos tentados de llamar "partícula" y que aparece cada
vez que la suma de las ondas da lugar a una concentración particular en un
punto. En este sentido, una partícula es una "onda anómala", similar al
fenómeno causado en el mar por la superposición de las olas, que crea una
gran perturbación capaz de hacer volcar las embarcaciones.
Una eterna adolescente
¿Dónde está la teoría cuántica después de los descubrimientos de
Heisenberg, Schrödinger, Bohr, Born y colegas? Existen las funciones de
onda probabilística por un lado y el principio de incertidumbre por el otro,
que permite mantener el modelo de partículas. La crisis de la dualidad "un
poco de onda un poco de partícula" parece resuelta: los electrones y los
fotones son partículas, cuyo comportamiento es descrito por ondas
probabilísticas. Como ondas están sujetas a fenómenos de interferencia,
haciendo que las partículas dóciles aparezcan donde se espera que lo hagan,
obedeciendo a la función de la onda. Cómo llegan allí no es un problema
que tenga sentido. Esto es lo que dicen en Copenhague. El precio a pagar
por el éxito es la intrusión en la física de la probabilidad y varias
peculiaridades cuánticas.
La idea de que la naturaleza (o Dios) juega a los dados con la materia
subatómica no le gustaba a Einstein, Schrödinger, de Broglie, Planck y
muchos otros. Einstein, en particular, estaba convencido de que la mecánica
cuántica era sólo una etapa, una teoría provisional que tarde o temprano
sería sustituida por otra, determinística y causal. En la segunda parte de su
carrera, el gran físico hizo varios intentos ingeniosos para evitar el
problema de la incertidumbre, pero sus esfuerzos se vieron frustrados uno
tras otro por Bohr, supuestamente para su maligna satisfacción.
Por lo tanto, debemos cerrar el capítulo suspendido entre los triunfos de la
teoría y un cierto sentimiento de inquietud. A finales de los años 20 la
mecánica cuántica era ahora una ciencia adulta, pero aún susceptible de
crecimiento: sería profundamente revisada varias veces, hasta los años 40.
Capítulo 6
Quantum

omo para confirmar su apariencia sobrenatural, la teoría cuántica de


C Heisenberg y Schrödinger realizó literalmente milagros. El modelo del
átomo de hidrógeno se aclaró sin necesidad de las muletas conceptuales
de Kepler: las órbitas fueron sustituidas por "orbitales", hijos de las nuevas
e indeterminadas funciones de onda. La nueva mecánica cuántica resultó ser
una herramienta formidable en manos de los físicos, que cada vez aplicaron
mejor la ecuación de Schrödinger a varios sistemas atómicos y subatómicos
y a campos de creciente complejidad. Como dijo Heinz Pagels, "la teoría
liberó las energías intelectuales de miles de jóvenes investigadores en todas
las naciones industrializadas. En ninguna otra ocasión una serie de ideas
científicas ha tenido consecuencias tan fundamentales en el desarrollo
tecnológico; sus aplicaciones siguen conformando la historia política y
social de nuestra civilización "1 .
Pero cuando decimos que una teoría o modelo "funciona", ¿qué queremos
decir exactamente? Que es matemáticamente capaz de hacer predicciones
sobre algún fenómeno natural, comparable con los datos experimentales. Si
las predicciones y mediciones acumuladas en nuestras experiencias se
coliman, entonces la teoría funciona "ex post", es decir, explica por qué
sucede un cierto hecho, que antes nos era desconocido.
Por ejemplo, podríamos preguntarnos qué sucede al lanzar dos objetos de
diferente masa desde un punto alto, digamos la torre de Pisa. La
demostración de Galileo y todos los experimentos realizados
posteriormente muestran que, a menos que haya pequeñas correcciones
debido a la resistencia del aire, dos objetos graves de masas diferentes que
caen desde la misma altura llegan al suelo al mismo tiempo. Esto es cien
por ciento cierto en ausencia de aire, como se ha demostrado
espectacularmente en la Luna en vivo por televisión: la pluma y el martillo
dejados caer por un astronauta llegaron exactamente al mismo tiempo.2 La
teoría original y profunda que se ha confirmado en este caso es la
gravitación universal newtoniana, combinada con sus leyes de movimiento.
Al juntar las ecuaciones relacionadas, podemos predecir cuál será el
comportamiento de un cuerpo en caída sujeto a la fuerza de la gravedad y
calcular cuánto tiempo llevará alcanzar el suelo. Es un juego de niños
verificar que dos objetos de masas diferentes lanzados desde la misma
altura deben llegar al suelo al mismo tiempo (si descuidamos la resistencia
del aire).3
Pero una buena teoría también debe hacernos capaces de predecir la
evolución de fenómenos aún no observados. Cuando se lanzó el satélite
ECHO en 1958, por ejemplo, se utilizaron la gravitación y las leyes de
movimiento de Newton para calcular de antemano la trayectoria que
seguiría, anotar la fuerza de empuje y otros factores correctivos
importantes, como la velocidad del viento y la rotación de la Tierra. El
poder de predicción de una ley depende, por supuesto, del grado de control
que pueda ejercerse sobre los diversos factores involucrados. Desde todo
punto de vista, la teoría de Newton ha demostrado ser extraordinariamente
exitosa, tanto en las verificaciones ex post como en el campo de la
predicción, cuando se aplica a su vasto alcance: velocidades no demasiado
altas (mucho más bajas que la luz) y escalas no demasiado pequeñas
(mucho más grandes que las atómicas).
Newton no escribe correos electrónicos
Preguntémonos ahora si la mecánica cuántica es capaz de explicar (ex post)
el mundo que nos rodea y si puede utilizarse para predecir la existencia de
fenómenos aún no observados, lo que la hace indispensable en el
descubrimiento de nuevas y útiles aplicaciones. La respuesta a ambas
preguntas es un sí convencido. La teoría cuántica ha pasado innumerables
pruebas experimentales, en ambos sentidos. Está injertada en las teorías que
la precedieron, la mecánica newtoniana y el electromagnetismo de
Maxwell, siempre que la marca cuántica, la famosa constante de Planck h,
no sea tan pequeña como para poder ser ignorada en los cálculos. Esto
ocurre cuando las masas, dimensiones y escalas de tiempo de los objetos y
eventos son comparables a las del mundo atómico. Y como todo está
compuesto de átomos, no debe sorprendernos que estos fenómenos a veces
levanten la cabeza y hagan sentir su presencia incluso en el mundo
macroscópico, donde se encuentran los seres humanos y sus instrumentos
de medición.
En este capítulo exploraremos las aplicaciones de esta extraña teoría, que
nos parecerá relacionada con la brujería. Podremos explicar toda la
química, desde la tabla periódica de los elementos hasta las fuerzas que
mantienen unidas las moléculas de los compuestos, de los cuales hay miles
de millones de tipos. Luego veremos cómo la física cuántica afecta
virtualmente todos los aspectos de nuestras vidas. Si bien es cierto que Dios
juega a los dados con el universo, ha logrado controlar los resultados de los
juegos para darnos el transistor, el diodo de túnel, los láseres, los rayos X, la
luz de sincrotrón, los marcadores radiactivos, los microscopios de efecto
túnel de barrido, los superconductores, la tomografía por emisión de
positrones, los superfluidos, los reactores nucleares, las bombas atómicas,
las imágenes de resonancia magnética y los microchips, sólo para dar
algunos ejemplos. Probablemente no tengas superconductores o
microscopios de escaneo, pero ciertamente tienes cientos de millones de
transistores en la casa. Su vida es tocada de mil maneras por tecnologías
posibles a través de la física cuántica. Si tuviéramos un universo
estrictamente newtoniano, no podríamos navegar por Internet, no sabríamos
qué es el software, y no habríamos visto las batallas entre Steve Jobs y Bill
Gates (o mejor dicho, habrían sido rivales multimillonarios en otro sector,
como los ferrocarriles). Podríamos habernos ahorrado unos cuantos
problemas que plagan nuestro tiempo, pero ciertamente no tendríamos las
herramientas para resolver muchos más.
Las consecuencias en otros campos científicos, más allá de los límites de la
física, son igualmente profundas. Erwin Schrödinger, a quien debemos la
elegante ecuación que rige todo el mundo cuántico, escribió en 1944 un
libro profético titulado Qué es la vida4 , en el que hizo una hipótesis sobre
la transmisión de la información genética. El joven James Watson leyó este
notable trabajo y fue estimulado a investigar la naturaleza de los genes. El
resto de la historia es bien conocida: junto con Francis Crick, en la década
de 1950 Watson descubrió la doble hélice del ADN, iniciando la revolución
de la biología molecular y, más tarde, la inescrupulosa ingeniería genética
de nuestros tiempos. Sin la revolución cuántica no habríamos podido
comprender la estructura de las moléculas más simples, y mucho menos el
ADN, que es la base de toda la vida.5 Al adentrarse en áreas más
fronterizas y especulativas, los cuantos podrían ofrecer la solución a
problemas como la naturaleza de la mente, la conciencia y la
autopercepción, o al menos esto es lo que afirman algunos físicos teóricos
temerarios que se atreven a enfrentarse al campo de las ciencias cognitivas.
La mecánica cuántica sigue arrojando luz sobre los fenómenos químicos
hasta el día de hoy. En 1998, por ejemplo, se concedió el Premio Nobel de
Química a dos físicos, Walter Kohn y John Pople, por el descubrimiento de
poderosas técnicas de computación para resolver las ecuaciones cuánticas
que describen la forma y las interacciones de las moléculas. Astrofísica,
ingeniería nuclear, criptografía, ciencia de los materiales, electrónica: estas
ramas del conocimiento y otras, incluyendo la química, la biología, la
bioquímica y así sucesivamente, se empobrecerían sin los cuantos. Lo que
llamamos computación probablemente sería poco más que diseñar archivos
para documentos en papel. ¿Qué haría esta disciplina sin la incertidumbre
de Heisenberg y las probabilidades de Born?
Sin los cuantos no hubiéramos podido entender realmente la estructura y las
propiedades de los elementos químicos, que habían estado bien asentados
en la tabla periódica durante medio siglo. Son los elementos, sus reacciones
y sus combinaciones los que dan vida a todo lo que nos rodea y a la vida
misma.
Un juego con Dmitri Mendeleev
La química era una ciencia seria y vital, como la física, mucho antes de que
la teoría cuántica entrara en escena. Fue a través de la investigación química
de John Dalton que la realidad de los átomos fue confirmada en 1803, y los
experimentos de Michael Faraday llevaron al descubrimiento de sus
propiedades eléctricas. Pero nadie entendía cómo eran realmente las cosas.
La física cuántica proporcionó a la química un modelo sofisticado y
racional capaz de explicar la estructura detallada y el comportamiento de
los átomos, así como un formalismo para comprender las propiedades de las
moléculas y predecir de forma realista su formación. Todos estos éxitos
fueron posibles precisamente por la naturaleza probabilística de la teoría.
Sabemos que la química no es un tema muy querido, aunque es la base de
mucha tecnología moderna. Todos esos símbolos y números escritos en el
fondo confunden las ideas. Pero estamos convencidos de que si se dejan
llevar en este capítulo para explorar la lógica de la disciplina, se
convencerán. El descubrimiento de los misterios del átomo es una de las
novelas de misterio más convincentes de la historia de la humanidad.
El estudio de la química, como todo el mundo sabe, parte de la tabla
periódica de los elementos, que adorna las paredes de cientos de miles de
aulas en todo el mundo. Su invento fue una verdadera hazaña científica,
lograda en gran parte por el sorprendentemente prolífico Dmitri Ivanovič
Mendeleev (1834-1907). Figura destacada de la Rusia zarista, Mendeleev
fue un gran erudito, capaz de escribir cuatrocientos libros y artículos, pero
también se interesó por las aplicaciones prácticas de su trabajo, tanto que
dejó contribuciones sobre temas como el uso de fertilizantes, la producción
de queso en cooperativas, la normalización de pesos y medidas, los
aranceles aduaneros en Rusia y la construcción naval. Políticamente radical,
se divorció de su esposa para casarse con una joven estudiante del instituto
de arte. A juzgar por las fotos de época, le gustaba mantener el pelo largo.7
El diagrama de Mendeleev proviene de ordenar los elementos aumentando
el peso atómico. Observamos que por "elemento" nos referimos a una
simple sustancia, compuesta por átomos del mismo tipo. Un bloque de
grafito y un diamante están hechos de la misma sustancia, el carbono,
aunque los átomos tengan una estructura diferente: en un caso dan lugar a
un material oscuro y útil para hacer lápices, en el otro a objetos útiles para
ser bellos a los ojos de la novia o para perforar el más duro de los metales.
Viceversa, el agua no es un elemento sino un compuesto químico, porque
está compuesta de átomos de oxígeno e hidrógeno unidos por fuerzas
eléctricas. Incluso las moléculas compuestas obedecen a la ecuación de
Schrödinger.
El "peso atómico" que mencionamos antes no es más que la masa
característica de cada átomo. Todos los átomos de la misma sustancia,
digamos el oxígeno, tienen la misma masa. Lo mismo ocurre con los
átomos de nitrógeno, que son un poco menos pesados que los átomos de
oxígeno. Hay sustancias muy ligeras, como el hidrógeno, la más ligera de
todas, y otras muy pesadas, como el uranio, cientos de veces más masivas
que el hidrógeno. La masa atómica se mide por comodidad con una unidad
de medida especial y se indica con la letra M,8 pero aquí no es importante
entrar en los detalles de los valores individuales. Estamos más bien
interesados en la lista de los elementos en orden creciente de peso atómico.
Mendeleev se dio cuenta de que la posición de un elemento en esta lista
tenía una clara correspondencia con sus propiedades químicas: era la clave
para penetrar en los misterios de la materia.
El Sr. Pauli entra en escena
Los sistemas físicos tienden a organizarse en un estado de menor energía.
En los átomos, las reglas cuánticas y la ecuación de Schrödinger
proporcionan las configuraciones permitidas en las que los electrones
pueden moverse, las orbitales, cada una de las cuales tiene su propio y
preciso nivel de energía. El último paso para desentrañar todos los misterios
del átomo comienza aquí, y es un descubrimiento extraordinario y
sorprendente: ¡cada órbita tiene espacio para un máximo de dos electrones!
Si no, el mundo físico sería muy diferente.
Aquí es donde entra en juego el genio de Wolfgang Pauli, este irascible y
legendario científico que representó en cierto sentido la conciencia de su
generación, el hombre que aterrorizaba a colegas y estudiantes, que a veces
firmaba él mismo "La Ira de Dios" y sobre el que oiremos más a menudo
(véase también la nota 1 del capítulo 5).
Para evitar las pilas de electrones en el s1, en 1925 Pauli formuló la
hipótesis de que era válido el llamado principio de exclusión, según el cual
dos electrones dentro de un átomo nunca pueden estar en el mismo estado
cuántico simultáneamente. Gracias al principio de exclusión hay un criterio
para poner las partículas en el lugar correcto al subir a los átomos cada vez
más pesados. Por cierto, el mismo principio es lo que nos impide atravesar
las paredes, porque nos asegura que los electrones de nuestro cuerpo no
pueden estar en el estado de los de la pared y deben permanecer separados
por vastos espacios, como las casas de las Grandes Praderas.
El profesor Pauli era un caballero bajito, regordete, creativo e hipercrítico
con un espíritu sarcástico que era el terror y el deleite de sus colegas.
Ciertamente no le faltó modestia, ya que escribió un artículo cuando era
adolescente en el que explicaba convincentemente la teoría de la relatividad
a los físicos. Su carrera estuvo marcada por bromas rápidas como, por
ejemplo, "¡Ah, tan joven y ya tan desconocido!", "Este artículo ni siquiera
tiene el honor de estar equivocado", "Su primera fórmula está equivocada,
pero la segunda no deriva de la primera", "No me importa que sea lento en
la comprensión, pero escribe los artículos más rápido de lo que piensa". Ser
el sujeto de una de estas flechas era ciertamente una experiencia que podía
reducir el tamaño de cualquiera.
Un autor que permaneció en el anonimato escribió este poema sobre Pauli,
según lo reportado por George Gamow en su libro "Treinta años que
sacudieron la física":
El principio de exclusión fue uno de los mayores logros científicos de Pauli.
Básicamente nos devolvió la química, permitiéndonos entender por qué la
tabla periódica de elementos está hecha de esa manera. Sin embargo, en su
formulación básica es muy simple: nunca dos electrones en el mismo estado
cuántico. No está hecho, verboten! Esta pequeña regla nos guía en la
construcción de átomos cada vez más grandes y en la comprensión de sus
propiedades químicas.
Repetimos las dos reglas de oro, de Pauli, que debemos seguir a medida que
avanzamos en la tabla periódica: 1) los electrones deben ocupar siempre
diferentes estados cuánticos y 2) los electrones deben estar configurados
para tener la menor energía posible. Esta segunda regla, por cierto, se aplica
en otras áreas y también explica por qué los cuerpos sujetos a la fuerza de
gravedad caen: un objeto en el suelo tiene menos energía que uno en el
decimocuarto piso. Pero volvamos al helio. Hemos dicho que los dos
electrones en s1 son consistentes con los datos experimentales. ¿No es eso
una violación del principio de exclusión? En realidad no, porque gracias a
otra gran idea de Pauli, tal vez la más ingeniosa, el giro entra en juego
(además de lo que diremos ahora, para una discusión más profunda de este
tema ver el Apéndice).
Los electrones, en cierto sentido, giran sobre sí mismos incesantemente,
como peonzas microscópicas. Esta rotación, desde el punto de vista
cuántico, puede ocurrir de dos maneras, que se llaman arriba (arriba) y
abajo (abajo). Es por eso que dos electrones pueden permanecer fácilmente
en la misma órbita 1 y respetar el dictado de Pauli: basta con que tengan un
espín opuesto para que se encuentren en diferentes estados cuánticos. Eso
es todo. Pero ahora que hemos agotado los 1s, no podemos sobrecargarlo
con un tercer electrón.
El átomo de helio satura la órbita 1 y está bien, porque no hay más espacio
disponible: los dos electrones están sentados y tranquilos. La consecuencia
de esta estructura es precisamente la inactividad química del helio, que no
desea interactuar con otros átomos. El hidrógeno, en cambio, tiene sólo un
electrón en 1s y es hospitalario con otras partículas que quieran unirse a él,
siempre y cuando tengan el espín opuesto; de hecho, la llegada de un
electrón de otro átomo (como veremos en breve) es la forma en que el
hidrógeno crea un vínculo con otros elementos16. En el lenguaje de la
química, la órbita del hidrógeno se denomina "incompleta" (o incluso que
su electrón sea "impar"), mientras que la del helio es "completa", porque
tiene el máximo número de electrones esperado: dos, de espín opuesto. La
química de estos dos elementos, por lo tanto, es tan diferente como el día o
la noche.
En resumen, el hidrógeno y el litio son químicamente similares porque
ambos tienen un solo electrón en la órbita exterior (1s y 2s
respectivamente). El helio y el neón son químicamente similares porque
todos sus electrones están en orbitales completos (1s y 1s, 2s, 2px, 2py y
2pz respectivamente), lo que da como resultado estabilidad y no reactividad
química. De hecho, son los niveles incompletos los que estimulan la
actividad de los átomos. El misterio de los sospechosos en el
enfrentamiento al estilo americano en bandas secretas, observado por
primera vez por Mendeleev, está casi completamente aclarado.
Ahora es hasta el sodio, Z=11, con once cargas positivas en el núcleo y
once electrones que de alguna manera tenemos que arreglar. Ya hemos visto
que los diez primeros completan las cinco primeras órbitas, por lo que
debemos recurrir a los tres y colocar allí el electrón solitario. Voilà: el sodio
es químicamente similar al hidrógeno y al litio, porque los tres tienen un
solo electrón en la órbita más exterior, que es del tipo s. Luego está el
magnesio, que añade al electrón en 3s otro compartido (en sentido cuántico)
entre 3px, 3py y 3pcs. Continuando con el llenado de 3s y 3p, nos damos
cuenta de que las configuraciones se replican exactamente las ya vistas para
2s y 2p; después de otros ocho pasos llegamos al argo, otro gas noble e
inerte que tiene todas las órbitas completas: 1s, 2s, 2p, 3s y 3p - todas
contienen sus dos buenos electrones de espín opuestos. La tercera fila de la
tabla periódica reproduce exactamente la segunda, porque las órbitas s y p
de sus átomos se llenan de la misma manera.
En la cuarta fila, sin embargo, las cosas cambian. Empezamos
tranquilamente con 4s y 4p pero luego nos encontramos con el 3d. Los
orbitales de este tipo corresponden a soluciones de orden aún más alto de la
ecuación de Schrödinger y se llenan de una manera más complicada, porque
en este punto hay muchos electrones. Hasta ahora hemos descuidado este
aspecto, pero las partículas cargadas negativamente interactúan entre sí,
repeliéndose entre sí debido a la fuerza eléctrica, lo que hace que los
cálculos sean muy complicados. Es el equivalente del problema newtoniano
de n cuerpos, es decir, es similar a la situación en la que los movimientos de
un sistema solar cuyos planetas están lo suficientemente cerca unos de otros
como para hacer sentir su influencia gravitatoria. Los detalles de cómo es
posible llegar a una solución son complejos y no son relevantes para lo que
diremos aquí, pero es suficiente saber que todo funciona al final. Las órbitas
3d se mezclan con las 4p para que encuentren espacio para hasta diez
electrones antes de completarse. Por eso el período ocho cambia a
dieciocho (18=8+10) y luego cambia de nuevo por razones similares a
treinta y dos. Las bases físicas del comportamiento químico de la materia
ordinaria, y por lo tanto también de las sustancias que permiten la vida,
están ahora claras. El misterio de Mendeleev ya no es tal.
a los detalles.
Capítulo 7
Einstein y Bohr

emos superado el obstáculo de los últimos capítulos y hemos llegado a


H comprender, gracias a Wolfgang Pauli, la esencia íntima de la química
(y por lo tanto de la biología) y por qué nunca, con gran probabilidad,
podremos pasar con nuestra mano por una mesa de granito, que también
consiste en su mayor parte en espacio vacío. Ha llegado el momento de
profundizar aún más en el mar de los misterios cuánticos y tratar la disputa
fundamental entre Niels Bohr y Albert Einstein. Vamos a escuchar algunas
buenas.
La creatividad científica, idealmente, es una eterna batalla entre la intuición
y la necesidad de pruebas incontrovertibles. Hoy sabemos que la ciencia
cuántica describe con éxito un número increíble de fenómenos naturales e
incluso tiene aplicaciones con efectos económicos muy concretos. También
nos hemos dado cuenta de que el mundo microscópico, es decir, cuántico,
es extraño, pero extraño de hecho. La física actual ni siquiera parece estar
relacionada con la que ha progresado tanto desde el siglo XVII hasta
principios del siglo XX. Hubo una verdadera revolución.
A veces los científicos (incluyéndonos a nosotros), en un intento de hacer
llegar los resultados de sus investigaciones al público en general, recurren a
metáforas. Son en cierto sentido hijas de la frustración de quienes no
pueden explicar de manera "sensata" lo que vieron en el laboratorio, porque
ello implicaría una revisión de nuestra forma de pensar: tenemos que tratar
de comprender un mundo del que estamos excluidos de la experiencia
directa y cotidiana. Seguramente nuestro lenguaje es inadecuado para
describirlo, ya que ha evolucionado para otros propósitos. Supongamos que
una raza de alienígenas del planeta Zyzzx ha recogido y analizado ciertos
datos macroscópicos del planeta Tierra y ahora sabe todo sobre el
comportamiento de las multitudes - desde los partidos en el estadio hasta
los conciertos en la plaza, desde los ejércitos en marcha hasta las protestas
masivas que terminan con las multitudes huyendo de las cargas policiales
(lo que sólo ocurre en los países atrasados, eh). Después de recopilar
información durante un siglo, los Zyzzxianos tienen un catálogo sustancial
de acciones colectivas a su disposición, pero no saben nada sobre las
habilidades y aspiraciones de los hombres, el razonamiento, el amor, la
pasión por la música o el arte, el sexo, el humor. Todas estas características
individuales se pierden en la melaza de las acciones colectivas.
Lo mismo ocurre en el mundo microscópico. Si pensamos en el hecho de
que el pelo de los cilios de una pulga contiene mil billones de billones de
átomos, entendemos por qué los objetos macroscópicos, elementos de
nuestra experiencia diaria, son inútiles en la comprensión de la realidad
microscópica. Como los individuos en la multitud, los átomos se mezclan
en cuerpos tangibles, aunque no del todo, como veremos más adelante. Así
que tenemos dos mundos: uno clásico, elegantemente descrito por Newton
y Maxwell, y uno cuántico. Por supuesto, al final del día, sólo hay un
mundo, en el que la teoría cuántica trata con éxito los átomos y se fusiona
con la clásica en el caso macroscópico. Las ecuaciones de Newton y
Maxwell son aproximaciones de las ecuaciones cuánticas. Revisemos
sistemáticamente algunos aspectos desconcertantes de este último.
Cuatro choques seguidos
1. Comencemos con la radiactividad y empecemos con una de las criaturas
más queridas de los físicos, el muón. Es una partícula que pesa unas
doscientas veces más que un electrón y tiene la misma carga. Parece ser
puntiforme, es decir, tiene un tamaño insignificante, y parece girar sobre sí
mismo. Cuando se descubrió esta copia pesada del electrón, creó
desconcierto en la comunidad científica, tanto que el gran Isaac Isidor Rabi
salió con la ahora famosa exclamación "¿Quién ordenó esto? "1. El muón,
sin embargo, tiene una diferencia fundamental con el electrón: es inestable,
es decir, está sujeto a la desintegración radiactiva, y se desintegra después
de unos dos microsegundos. Para ser precisos, su "vida media", es decir, el
tiempo en el que desaparece en promedio la mitad de los muones de un
grupo de mil, es igual a 2,2 microsegundos. Esto en promedio, porque si
nos fijamos en un solo muón (también podemos darle un nombre bonito,
como Hilda, Moe, Benito o Julia) no sabemos cuándo terminará su vida. El
evento "decadencia del muón X" es aleatorio, no determinístico, como si
alguien tirara un par de dados y decidiera los eventos basándose en las
combinaciones de números que salieron. Debemos abandonar el
determinismo clásico y la razón en términos probabilísticos para entender
los fundamentos de la nueva física.
2. En el mismo orden de ideas tenemos el fenómeno de la reflexión parcial,
que recordarán del capítulo 3. Se pensaba que la luz era una ola, sujeta a
todos los fenómenos de otras olas como las del mar, incluyendo la
reflexión, hasta que Planck y Einstein descubrieron los quanta, partículas
que se comportan como olas. Si se dispara un quantum de luz, es decir, un
fotón, contra una vitrina, se refleja o difracta; en el primer caso ayuda a dar
una imagen tenue de quienes admiran la ropa expuesta, en el segundo
ilumina los elegantes maniquíes. El fenómeno se describe matemáticamente
mediante una función de onda, que al ser una onda puede ser parcialmente
reflejada o difractada. Las partículas, por otro lado, son discretas, por lo que
deben ser reflejadas o refractadas, en total.
3. Ahora llegamos al ya conocido experimento de la doble rendija, cuya
noble historia se remonta a Thomas Young que niega a Newton en la teoría
corpuscular de la luz y sanciona el triunfo de la ondulatoria. Lo hemos visto
para los fotones, pero en realidad todas las partículas se comportan de la
misma manera: muones, quarks, bosones W y así sucesivamente. Todos
ellos, cuando son sometidos a un experimento similar al de Young, parecen
comportarse como olas.
Veamos, por ejemplo, el caso del electrón, que al igual que el fotón puede
ser emitido desde una fuente y disparado contra una pantalla en la que se
han hecho dos rendijas, más allá de las cuales hemos colocado una pantalla
detectora (con circuitos especiales en lugar de fotocélulas). Realizamos el
experimento disparando los electrones lentamente, por ejemplo uno por
hora, para asegurarnos de que las partículas pasen de una en una (sin
"interferir" entre ellas). Como descubrimos en el capítulo 4, al repetir las
mediciones muchas veces al final nos encontramos con un conjunto de
ubicaciones de electrones en la pantalla formando una figura de
interferencia. La partícula individual también parece "saber" si hay una o
dos rendijas abiertas, mientras que ni siquiera sabemos por dónde pasó. Si
cerramos una de las dos rendijas, la figura de interferencia desaparece. Y
desaparece incluso si colocamos un instrumento junto a las rendijas que
registra el paso de los electrones desde ese punto. En última instancia, la
cifra de interferencia aparece sólo cuando nuestra ignorancia del camino
seguido por el único electrón es total.
4. Como si esto no fuera suficiente, tenemos que lidiar con otras
propiedades perturbadoras. Por ejemplo, el giro. Tal vez el aspecto más
desconcertante de la historia esté dado por el hecho de que el electrón tiene
un valor de espín fraccionado, igual a 1/2, es decir, su "momento angular"
es ħ/2 (véase el Apéndice). Además, un electrón siempre está alineado en
cualquier dirección en la que elijamos medir su espín, que si tenemos en
cuenta su orientación puede ser +1/2 o -1/2, o como dijimos anteriormente
arriba (arriba) o abajo (abajo)2. La guinda del pastel es la siguiente: si
giramos un electrón en el espacio en 360°, su función de onda de Ψe se
convierte en -Ψe, es decir, cambia de signo (en el Apéndice hay un párrafo
que explica cómo ocurre esto). Nada de esto le sucede a los objetos del
mundo clásico.
Tomemos por ejemplo un palillo de tambor. Si el percusionista de una
banda, en la vena de las actuaciones, comienza a girarla entre sus dedos
entre un golpe y otro, girándola así 360°, el objeto vuelve a tener
exactamente la misma orientación espacial. Si en lugar de la baqueta
hubiera un electrón, después de la vuelta nos encontraríamos con una
partícula de signo contrario. Definitivamente estamos en un territorio
desconocido. Pero, ¿está sucediendo realmente o es sólo sofisticación
matemática? Como siempre, sólo podemos medir la probabilidad de un
evento, el cuadrado de la función de onda, así que ¿cómo sabemos si
aparece el signo menos o no? ¿Y qué significa "signo menos" en este caso,
qué tiene que ver con la realidad? ¿No son elucubraciones de filósofos que
contemplan el ombligo a expensas de los fondos públicos para la
investigación?
¡Nein! dice Pauli. El signo menos implica que si se toman dos electrones al
azar (recuerde que todos son idénticos), su estado cuántico conjunto debe
ser tal que cambie de signo si los dos se intercambian. La consecuencia de
todo esto es el principio de exclusión de Pauli, la fuerza de intercambio, el
relleno orbital, la tabla periódica, la razón por la cual el hidrógeno es
reactivo y el helio inerte, toda la química. Esta es la base de la existencia de
materia estable, conductores, estrellas de neutrones, antimateria y
aproximadamente la mitad del producto interno bruto de los Estados
Unidos.
¿Pero por qué tan extraño?
Volvamos al punto 1 del párrafo anterior y al querido viejo muón, partícula
elemental que pesa doscientas veces el electrón y vive dos millonésimas de
segundo, antes de descomponerse y transformarse en un electrón y
neutrinos (otras partículas elementales). A pesar de estas extrañas
características, realmente existen y en el Fermilab esperamos algún día
construir un acelerador que los haga funcionar a alta velocidad.
El decaimiento de los muones está básicamente determinado por la
probabilidad cuántica, mientras que la física newtoniana se mantiene al
margen observando. Sin embargo, en el momento de su descubrimiento, no
todos estaban dispuestos a tirar por la borda un concepto tan bello como el
"determinismo clásico", la perfecta previsibilidad de los fenómenos típicos
de la física clásica. Entre los diversos intentos de salvar lo rescatable, se
introdujeron las llamadas "variables ocultas".
Imaginemos que dentro del muón se esconde una bomba de tiempo, un
pequeño mecanismo con su buen reloj conectado a una carga de dinamita,
que hace estallar la partícula, aunque no sepamos cuándo. La bomba debe
ser, por lo tanto, un dispositivo mecánico de tipo newtoniano pero
submicroscópico, no observable con nuestras tecnologías actuales pero aún
así responsable en última instancia de la descomposición: las manecillas del
reloj llegan al mediodía, y hola muón. Si cuando se crea un muón
(generalmente después de choques entre otros tipos de partículas) el tiempo
de detonación se establece al azar (tal vez en formas relacionadas con la
creación del mecanismo oculto), entonces hemos replicado de manera
clásica el proceso aparentemente indeterminado que se observa. La pequeña
bomba de tiempo es un ejemplo de una variable oculta, nombre que se da a
varios dispositivos similares que podrían tener el importante efecto de
modificar la teoría cuántica en un sentido determinista, para barrer la
probabilidad "sin sentido". Pero como veremos en breve, después de
ochenta años de disputa sabemos que este intento ha fracasado y la mayoría
de los físicos contemporáneos aceptan ahora la extraña lógica cuántica.
Cosas ocultas
En la década de 1930, mucho antes de que se descubrieran los quarks,
Einstein dio rienda suelta a su profunda oposición a la interpretación de
Copenhague con una serie de intentos de transformar la teoría cuántica en
algo más parecido a la vieja, querida y sensata física de Newton y Maxwell.
En 1935, con la colaboración de los dos jóvenes físicos teóricos Boris
Podolsky y Nathan Rosen, se sacó el as de la manga8 . Su contrapropuesta
se basaba en un experimento mental (Gendankenexperiment, ya hemos
discutido) que pretendía demostrar con gran fuerza el choque entre el
mundo cuántico de la probabilidad y el mundo clásico de los objetos reales,
con propiedades definidas, y que también establecería de una vez por todas
dónde estaba la verdad.
Este experimento se hizo famoso bajo el nombre de "Paradoja EPR", por las
iniciales de los autores. Su propósito era demostrar lo incompleto de la
mecánica cuántica, con la esperanza de que un día se descubriera una teoría
más completa.
¿Qué significa estar "completo" o "incompleto" para una teoría? En este
caso, un ejemplo de "finalización" viene dado por las variables ocultas
vistas anteriormente. Estas entidades son exactamente lo que dicen ser:
factores desconocidos que influyen en el curso de los acontecimientos y que
pueden (o tal vez no) ser descubiertos por una investigación más profunda
(recuerde el ejemplo de la bomba de tiempo dentro del muón). En realidad
son presencias comunes en la vida cotidiana. Si lanzamos una moneda al
aire, sabemos que los dos resultados "cabeza" y "cruz" son igualmente
probables. En la historia de la humanidad, desde la invención de las
monedas, este gesto se habrá repetido miles de miles de millones de veces
(tal vez incluso por Bruto para decidir si matar o no a César). Todo el
mundo está de acuerdo en que el resultado es impredecible, porque es el
resultado de un proceso aleatorio. ¿Pero estamos realmente seguros? Aquí
es donde salen las variables ocultas.
Una es, para empezar, la fuerza utilizada para lanzar la moneda al aire, y en
particular cuánto de esta fuerza resulta en el movimiento vertical del objeto
y cuánto en su rotación sobre sí mismo. Otras variables son el peso y el
tamaño de la moneda, la dirección de las micro-corrientes de aire, el ángulo
preciso en el que golpea la mesa al caer y la naturaleza de la superficie de
impacto (¿está la mesa hecha de madera? ¿Está cubierta con un paño?). En
resumen, hay muchas variables ocultas que influyen en el resultado final.
Ahora imaginemos que estamos construyendo una máquina capaz de lanzar
la moneda con la misma fuerza. Siempre utilizamos el mismo ejemplar y
realizamos el experimento en un lugar protegido de las corrientes (tal vez
bajo una campana de vidrio donde creamos el vacío), asegurándonos de que
la moneda siempre caiga cerca del centro de la mesa, donde también
tenemos control sobre la elasticidad de la superficie. Después de gastar,
digamos, 17963,47 dólares en este artilugio, estamos listos para encenderlo.
¡Adelante! ¡Hagamos quinientas vueltas y consigamos quinientas cabezas!
Hemos logrado controlar todas las variables ocultas elusivas, que ahora no
son ni variables ni ocultas, ¡y hemos derrotado el caso! ¡El determinismo
manda! La física clásica newtoniana se aplica tanto a las monedas como a
las flechas, balas, pelotas de tenis y planetas. La aparente aleatoriedad del
lanzamiento de una moneda se debe a una teoría incompleta y a un gran
número de variables ocultas, que en principio son todas explicables y
controlables.
¿En qué otras ocasiones vemos el azar en el trabajo de la vida cotidiana?
Las tablas actuariales sirven para predecir cuánto tiempo vivirá una
determinada población (de humanos, pero también de perros y caballos),
pero la teoría general de la longevidad de una especie es ciertamente
incompleta, porque quedan muchas variables complejas ocultas, entre ellas
la predisposición genética a determinadas enfermedades, la calidad del
medio ambiente y de los alimentos, la probabilidad de ser alcanzado por un
asteroide y muchas otras. En el futuro, quizás, si excluimos los accidentes
ocasionales, podremos reducir el grado de incertidumbre y predecir mejor
hasta que disfrutemos de la compañía de los abuelos o primos.
La física ya ha domado algunas teorías llenas de variables ocultas.
Consideremos por ejemplo la teoría de los "gases perfectos" o "ideales",
que proporciona una relación matemática entre la presión, la temperatura y
el volumen de un gas en un entorno cerrado en condiciones ambientales
ordinarias. En los experimentos encontramos que al aumentar la
temperatura también aumenta la presión, mientras que al aumentar el
volumen la presión disminuye. Todo esto está elegantemente resumido en la
fórmula pV=nRT (en palabras: "el producto de la presión por volumen es
igual a la temperatura multiplicada por una constante R, todo ello
multiplicado por el número n de moléculas de gas"). En este caso las
variables ocultas son una enormidad, porque el gas está formado por un
número colosal de moléculas. Para superar este obstáculo, definimos
estadísticamente la temperatura como la energía media de una molécula,
mientras que la presión es la fuerza media con la que las moléculas golpean
una zona fija de las paredes del recipiente que las contiene. La ley de los
gases perfectos, un tiempo incompleto, gracias a los métodos estadísticos
puede ser justificada precisamente por los movimientos de las moléculas
"ocultas". Con métodos similares, en 1905 Einstein logró explicar el
llamado movimiento Browniano, es decir, los movimientos aparentemente
aleatorios del polvo suspendido en el agua. Estos "paseos aleatorios" de
granos eran un misterio insoluble antes de que Einstein se diera cuenta de
que entraban en juego colisiones "ocultas" con moléculas de agua.
Tal vez fue por este precedente que Einstein pensó naturalmente que la
mecánica cuántica era incompleta y que su naturaleza probabilística era
sólo aparente, el resultado del promedio estadístico hecho sobre entidades
desconocidas: variables ocultas. Si hubiera sido posible desvelar esta
complejidad interna, habría sido posible volver a la física determinista
newtoniana y reingresar en la realidad clásica subyacente al conjunto. Si,
por ejemplo, los fotones mantuvieran un mecanismo oculto para decidir si
se reflejaban o refractaban, la aleatoriedad de su comportamiento cuando
chocaban con la vitrina sólo sería aparente. Conociendo el funcionamiento
del mecanismo, podríamos predecir los movimientos de las partículas.
Aclaremos esto: esto nunca ha sido descubierto. Algunos físicos como
Einstein estaban disgustados, filosóficamente hablando, por la idea de que
la aleatoriedad era una característica intrínseca y fundamental de nuestro
mundo y esperaban recrear de alguna manera el determinismo newtoniano.
Si conociéramos y controláramos todas las variables ocultas, dijeron,
podríamos diseñar un experimento cuyo resultado fuera predecible, como
sostiene el núcleo del determinismo.
Por el contrario, la teoría cuántica en la interpretación de Bohr y Heisenberg
rechazó la existencia de variables ocultas y en su lugar adoptó la causalidad
y la indeterminación como características fundamentales de la naturaleza,
cuyo efecto se exhibía explícitamente a nivel microscópico. Si no podemos
predecir el resultado de un experimento, ciertamente no podemos predecir
el futuro curso de los acontecimientos: como la filosofía natural, el
determinismo ha fallado.
Así que preguntémonos si hay una forma de descubrir la existencia de
variables ocultas. Sin embargo, primero veamos cuál fue el desafío de
Einstein.
La respuesta de Bohr a la EPR
La clave para resolver la paradoja de la EPR reside en el hecho de que las
dos partículas A y B, por muy distantes que estén, nacieron al mismo
tiempo del mismo evento y por lo tanto están relacionadas en un enredo.
Sus posiciones, impulso, giro, etc. son siempre indefinidos, pero cualquiera
que sea el valor que adquieran, siempre permanecen unidos entre sí. Si, por
ejemplo, obtenemos un número preciso para la velocidad de A, sabemos
que la velocidad de B es la misma, sólo que opuesta en dirección; la misma
para la posición y el giro. Con el acto de medir hacemos colapsar una
función de onda que hasta entonces incluía en sí misma todos los valores
posibles para las propiedades de A y B. Gracias al enredo, sin embargo, lo
que aprendemos en nuestro laboratorio en la Tierra nos permite saber las
mismas cosas sobre una partícula que podría estar en Rigel 3, sin tocarla,
observarla o interferir con ella de ninguna manera. La función de onda de B
también colapsó al mismo tiempo, aunque la partícula está navegando a
años luz de distancia.
Todo esto no refuta de manera concreta el principio de incertidumbre de
Heisenberg, porque cuando medimos el impulso de A seguimos
perturbando su posición de manera irreparable. La objeción de EPR se
centró en el hecho de que un cuerpo debe tener valores precisos de impulso
y posición, aunque no podamos medirlos juntos. ¿Cómo decidiste
finalmente replicar a Bohr? ¿Cómo contraatacó?
Después de semanas de pasión, el Maestro llegó a la conclusión de que el
problema no existía. La capacidad de predecir la velocidad de B a través de
la medición de A no implica en absoluto que B tenga tal velocidad: hasta
que no la midamos, realmente no tiene sentido hacer tales suposiciones. De
manera similar para la posición, de la que no tiene sentido hablar antes de la
medición. Bohr, a quien más tarde se unieron Pauli y otros colegas,
argumentó esto en la práctica: el pobre Einstein no se deshizo de la
obsesión clásica por las propiedades de los cuerpos. En realidad, nadie
puede saber si tal objeto tiene o no ciertas propiedades hasta que lo
perturbamos con la medición. Y algo que no puedes saber puede muy bien
no existir. No se puede contar a los ángeles que pueden balancearse en la
cabeza de un alfiler, por lo que también pueden no existir. El principio de
localización en todo esto no se viola: nunca transmitirás instantáneamente
un mensaje de buenos deseos de la Tierra a Rigel 3, si has olvidado tu
aniversario de boda.
En una ocasión Bohr llegó a comparar la revolución cuántica con la
desatada por Einstein, la relatividad, después de la cual el espacio y el
tiempo se encontraron con nuevas y extrañas cualidades. La mayoría de los
físicos, sin embargo, estuvieron de acuerdo en que la primera tenía efectos
mucho más radicales en nuestra visión del mundo.
Bohr insistió en un aspecto: dos partículas, una vez que se enredan como
resultado de un evento microscópico, permanecen enredadas incluso si se
alejan a distancias siderales. Mirando a A, influimos en el estado cuántico
que incluye a A y B. El espín de B, por lo tanto, está determinado por el
tamaño del de A, dondequiera que se encuentren las dos partículas. Este
aspecto particular de la paradoja EPR habría sido mejor comprendido
treinta años después, gracias al esclarecedor trabajo de John Bell al que
volveremos. Por ahora, sepan que la palabra clave es "no-localidad", otra
versión de la entrometida definición de Einstein: "acción espectral a
distancia".
En la física clásica, el estado (A arriba, B abajo) es totalmente separado y
distinto del (A abajo, B arriba). Como hemos visto antes, todo está
determinado por la elección del amigo que empaqueta los paquetes, y en
principio la evolución del sistema es conocible por cualquiera que examine
los datos iniciales. Las dos opciones son independientes y al abrir el
paquete sólo se revela cuál fue la elegida. Desde el punto de vista cuántico,
en cambio, la función de onda que describe tanto A como B "enreda" (con
enredo) las opciones; cuando medimos A o B, toda la función cambia
simultáneamente en todos los lugares del espacio, sin que nadie emita
señales observables que viajen a velocidades superiores a la de la luz. Eso
es todo. Así es como funciona la naturaleza.
Esta insistencia autoritaria puede quizás silenciar las dudas de un físico
novato, pero ¿es realmente suficiente para salvar nuestras almas filosóficas
en problemas? Seguramente la "refutación" de Bohr no satisfizo para nada a
Einstein y sus colegas. Los dos contendientes parecían hablar idiomas
diferentes. Einstein creía en la realidad clásica, en la existencia de entidades
físicas con propiedades bien definidas, como los electrones y los protones.
Para Bohr, que había abandonado la creencia en una realidad independiente,
la "demostración" del rival de lo incompleto no tenía sentido, porque estaba
equivocado precisamente en la forma en que el otro concebía una teoría
"razonable". Einstein le preguntó a un colega nuestro un día: "Pero,
¿realmente crees que la Luna existe allí sólo cuando la miras?". Si
reemplazamos nuestro satélite por un electrón en esta pregunta, la respuesta
no es inmediata. La mejor manera de salir es sacar a relucir los estados
cuánticos y las probabilidades. Si nos preguntamos cuál es el espín de cierto
electrón emitido por un cable de tungsteno en una lámpara incandescente,
sabemos que estará arriba o abajo con una probabilidad igual al 50%; si
nadie lo mide, no tiene sentido decir que el espín está orientado en cierta
dirección. Acerca de la pregunta de Einstein, es mejor pasarla por alto. Los
satélites son mucho más grandes que las partículas.
¿Pero en qué clase de mundo vivimos?
Hemos dedicado este capítulo a uno de los aspectos más enigmáticos de la
física cuántica, la exploración del micromundo. Sería ya traumático si se
tratara de un nuevo planeta sujeto a nuevas y diferentes leyes de la
naturaleza, porque esto socavaría los fundamentos mismos de la ciencia y la
tecnología, cuyo control nos hace ricos y poderosos (algunos de nosotros,
digamos). Pero lo que es aún más desconcertante es que las extrañas leyes
del micromundo dan paso a la vieja y banal física newtoniana cuando la
escala dimensional crece hasta el nivel de las pelotas de tenis o los planetas.
Todas las fuerzas que conocemos (gravitación, electromagnetismo,
interacción fuerte y débil) son de tipo local: disminuyen con la distancia y
se propagan a velocidades estrictamente no superiores a la de la luz. Pero
un día salió un tal Sr. Bell, que nos obligó a considerar un nuevo tipo de
interacción, no local, que se propaga instantáneamente y no se debilita con
el aumento de la distancia. Y también demostró que existe, gracias al
método experimental.
¿Nos obliga esto a aceptar estas inconcebibles acciones a distancia no
locales? Estamos en un atolladero filosófico. A medida que comprendemos
cuán diferente es el mundo de nuestra experiencia cotidiana,
experimentamos un lento pero inevitable cambio de perspectiva. El último
medio siglo ha sido para la física cuántica la versión acelerada de la larga
serie de éxitos de Newton y Maxwell en la física clásica. Ciertamente
hemos llegado a una comprensión más profunda de los fenómenos, ya que
la mecánica cuántica está en la base de todas las ciencias (incluyendo la
física clásica, que es una aproximación) y puede describir completamente el
comportamiento de los átomos, núcleos y partículas subnucleares (quarks y
leptones), así como las moléculas, el estado sólido, los primeros momentos
de la vida en nuestro universo (a través de la cosmología cuántica), las
grandes cadenas en la base de la vida, los frenéticos desarrollos de la
biotecnología, tal vez incluso la forma en que opera la conciencia humana.
Nos ha dado tanto, pero los problemas filosóficos y conceptuales que trae
consigo continúan atormentándonos, dejándonos con un sentimiento de
inquietud mezclado con grandes esperanzas.
contempló las extrañas tierras de Bell.
Capítulo 8
La física cuántica en los tiempos actuales

n los capítulos anteriores hemos revivido las historias de los brillantes


E científicos del siglo XX que construyeron la física cuántica en medio de
mil dificultades y batallas. El viaje nos ha llevado a seguir el nacimiento
de ideas fundamentales que parecen revolucionarias y anti-intuitivas para
aquellos que conocen bien la física clásica, nacidas con Galileo y Newton y
refinadas a lo largo de tres siglos. Frente a la gran cantidad de gente había
muchos problemas sobre la naturaleza misma de la teoría, por ejemplo
sobre la validez y los límites de la interpretación de Copenhague (que
todavía hoy algunas personas desafían y tratan de negar). Sin embargo, la
mayoría de los investigadores se dieron cuenta de que tenían en sus manos
una nueva y poderosa herramienta para estudiar el mundo atómico y
subatómico y no tenían demasiados escrúpulos para utilizarla, aunque no
coincidiera con sus ideas en el campo filosófico. Así se crearon nuevas
áreas de investigación en física, aún activas hoy en día.
Algunas de estas disciplinas han cambiado completamente nuestra forma de
vida y han aumentado enormemente nuestro potencial para entender y
estudiar el universo. La próxima vez que uno de ustedes o un miembro de
su familia entre en una máquina de resonancia magnética (esperemos que
nunca), considere este hecho: mientras la máquina zumba, gira, avanza el
sofá y hace sonidos como una orquesta sobrenatural, mientras un monitor
en la sala de control forma una imagen detallada de sus órganos, usted está
experimentando de manera esencial con los efectos de la física cuántica
aplicada, un mundo de superconductores y semiconductores, giro,
electrodinámica cuántica, nuevos materiales y así sucesivamente. Dentro de
una máquina de resonancia estás, literalmente, dentro de un experimento
tipo EPR. Y si el aparato de diagnóstico es en cambio un PET, una
tomografía por emisión de positrones, ¡sabed que estáis siendo
bombardeados con antimateria!
Para superar el estancamiento de Copenhague, se han utilizado técnicas de
mecánica cuántica para abordar muchos problemas prácticos y específicos
en esferas que antes se consideraban intratables. Los físicos han comenzado
a estudiar los mecanismos que gobiernan el comportamiento de los
materiales, como la forma en que la fase cambia de sólido a líquido a gas, o
cómo la materia responde a la magnetización, el calentamiento y el
enfriamiento, o por qué algunos materiales son mejores conductores de la
corriente eléctrica que otros. Todo esto cae en gran parte dentro de la
llamada "física de la materia condensada". Para responder a las preguntas
anteriores bastaría con aplicar la ecuación de Schrödinger, pero con el
tiempo se han desarrollado técnicas matemáticas más refinadas, gracias a
las cuales hemos podido diseñar nuevos y sofisticados juguetes, como
transistores y láseres, en los que se basa toda la tecnología del mundo
digital en el que vivimos hoy en día.
La mayoría de las aplicaciones de valor económico colosal derivan de la
electrónica cuántica o de la física de la materia condensada y son "no
relativistas", es decir, no dependen de la teoría de la relatividad restringida
de Einstein porque implican fenómenos que se producen a velocidades
inferiores a la de la luz. La ecuación de Schrödinger en sí misma no es
relativista, y de hecho proporciona una excelente aproximación del
comportamiento de los electrones y los átomos a velocidades no altas, lo
que es cierto tanto para los electrones externos de los átomos,
químicamente activos e involucrados en los enlaces, como para los
electrones que se mueven dentro de los sólidos.1
Pero hay preguntas abiertas que involucran fenómenos que ocurren a
velocidades cercanas a las de la luz, por ejemplo: ¿qué es lo que mantiene
unido al núcleo? ¿cuáles son los bloques de construcción realmente
fundamentales de la materia, las verdaderas partículas elementales? ¿cómo
encaja la relatividad restringida en la teoría cuántica? Debemos entonces
entrar en un mundo más rápido, diferente al de la física material. Para
comprender lo que sucede en el núcleo, un lugar donde la masa puede ser
convertida en energía como en el caso de la desintegración radiactiva
(fisión o fusión), tenemos que considerar los fenómenos cuánticos que
tienen lugar a velocidades cercanas a la de la luz y que entran en el terreno
accidentado de la teoría de la relatividad restringida. Una vez que
entendemos cómo funcionan las cosas, podemos dar el siguiente paso hacia
la más complicada y profunda relatividad general, que se ocupa de la fuerza
de gravedad. Y por último, abordar el problema de los problemas, que
permanecieron abiertos hasta el final de la Segunda Guerra Mundial: cómo
describir plenamente las interacciones entre un electrón relativista (es decir,
rápido) y la luz.
El matrimonio entre la física cuántica y la relatividad estrecha
La teoría de Einstein es la versión correcta del concepto de movimiento
relativo, generalizado a velocidades incluso cercanas a las de la luz.
Básicamente, postula principios generales relacionados con la simetría de
las leyes físicas2 y tiene profundas implicaciones en la dinámica de las
partículas. Einstein descubrió la relación fundamental entre la energía y el
momento, que difiere radicalmente de la de Newton. Esta innovación
conceptual está en la base de las modificaciones que deben hacerse a la
mecánica cuántica para reformularla en un sentido relativista3.
Entonces surge espontáneamente una pregunta: ¿qué surge del matrimonio
de estas dos teorías? Algo extraordinario, como veremos en breve.
E = mc2
La ecuación E=mc2 es muy famosa. Lo puedes encontrar en todas partes:
en camisetas, en el diseño gráfico de la serie de televisión "At the Twilight
Zone", en ciertas marcas comerciales y en un sinfín de dibujos animados
del "New Yorker". Se ha convertido en una especie de emblema universal
de todo lo que es científico e "inteligente" en la cultura contemporánea.
Rara vez, sin embargo, algunos comentaristas de televisión se molestan en
explicar su verdadero significado, excepto para resumirlo en la expresión
"la masa es equivalente a la energía". Nada podría estar más equivocado: la
masa y la energía son en realidad completamente diferentes. Los fotones,
sólo para dar un ejemplo, no tienen masa, pero pueden tener energía
fácilmente.
El verdadero significado de E=mc2 es en realidad muy específico.
Traducido en palabras, la ecuación nos dice que "una partícula en reposo de
masa m tiene una energía E cuyo valor viene dado por la relación E=mc2".
Una partícula de masa, en principio, puede transformarse espontáneamente
en otras partículas más ligeras en un proceso (decadencia) que implica la
liberación de energía4 . La fisión nuclear, en la que un núcleo atómico
pesado se rompe dando lugar a núcleos más ligeros, como en el caso del
U235 (uranio-235), produce por tanto mucha energía. De manera similar,
los núcleos ligeros como el deuterio pueden combinarse en el proceso de
fusión nuclear para formar helio, liberando grandes cantidades de energía.
Esto sucede porque la masa de la suma de los dos núcleos iniciales es
mayor que la del núcleo de helio. Este proceso de conversión de energía en
masa era simplemente incomprensible antes de la relatividad de Einstein,
sin embargo es el motor que hace funcionar al Sol y es la razón por la que la
vida, la belleza, la poesía existen en la Tierra.
Cuando un cuerpo está en movimiento, se debe modificar la famosa
fórmula E = mc2, como bien sabía el propio Einstein5 . A decir verdad, la
fórmula estática (cuerpo con momento cero) se deduce de la fórmula
dinámica (cuerpo con momento no nulo) y su forma no es la que todo el
mundo conoce, sino ésta:
E2 = m2c4
Parecería ser un asunto de lana de cabra, pero en realidad hay una gran
diferencia, como explicaremos a continuación. Para derivar la energía de
una partícula tenemos que tomar la raíz cuadrada de los dos miembros de
esta ecuación y encontrar la conocida E=mc2. ¡Pero eso no es todo!
Es un simple hecho aritmético: los números tienen dos raíces cuadradas,
una positiva y otra negativa. La raíz cuadrada de 4, por ejemplo, es tanto
√4=2 como √4=-2, porque sabemos que 2×2=4 pero también (-2)×(-2)=4
(sabemos que dos números negativos multiplicados juntos dan un número
positivo). Así que también la ecuación escrita arriba, resuelta con respecto a
E, nos da dos soluciones: E=mc2 y E=-mc2.
He aquí un bonito enigma: ¿cómo podemos estar seguros de que la energía
derivada de la fórmula de Einstein es siempre positiva? ¿Cuál de las dos
raíces debemos tomar? ¿Y cómo lo sabe la naturaleza?
Al principio el problema no parecía muy grave, pero fue robado como una
sofisticación inútil y tonta. Los que lo sabían no tenían ninguna duda, la
energía siempre era o nada o positiva, y una partícula con energía negativa
era un absurdo que ni siquiera debería ser contemplado, so pena de ridículo.
Todos estaban demasiado ocupados jugando con la ecuación de
Schrödinger, que en su forma original sólo se aplica a las partículas lentas,
como los electrones externos de los átomos, las moléculas y los cuerpos
sólidos en general. En su versión no relativista, el problema no se plantea
porque la energía cinética de las partículas en movimiento siempre viene
dada por un número positivo. Y el sentido común nos lleva a pensar que la
energía total de una partícula de masa en reposo es mc2, es decir, también
es positiva. Por estas razones, los físicos de la época ni siquiera
consideraron la raíz cuadrada negativa y calificaron esa solución de
"espuria", es decir, "no aplicable a ningún cuerpo físico".
Pero supongamos por un momento que en su lugar hay partículas con
energía negativa, que corresponden a la solución con el signo menos delante
y es decir con una energía en reposo igual a -mc2. Si se movieran, la
energía aumentaría en módulo y por lo tanto se haría aún más pequeña a
medida que aumenta el impulso6 . En posibles colisiones con otras
partículas seguirían perdiendo energía, así como debido a la emisión de
fotones, y por lo tanto su velocidad aumentaría cada vez más, acercándose a
la de la luz. El proceso nunca se detendría y las partículas en cuestión
tendrían una energía que tendería a convertirse en infinita, o más bien
infinitamente negativa. Después de un tiempo, el universo se llenaría de
estas rarezas, partículas que irradian energía hundiéndose constantemente
más y más en el abismo del infinito negativo.7
El siglo de la raíz cuadrada
Es verdaderamente notable que uno de los motores fundamentales de la
física en el siglo XX es el problema de "acertar con la raíz cuadrada". En
retrospectiva, la construcción de la teoría cuántica puede considerarse como
la aclaración de la idea de "raíz cuadrada de una probabilidad", cuyo
resultado es la función de onda de Schrödinger (cuyo cuadrado,
recordemos, proporciona la probabilidad de encontrar un cuerpo en un
determinado lugar y en un determinado momento).
La simple extracción de la raíz puede dar lugar a verdaderas rarezas. Por
ejemplo, obtenemos objetos llamados números imaginarios y complejos,
que tienen un papel fundamental en la mecánica cuántica. Ya hemos
conocido un ejemplo notorio: i = √-1, la raíz de menos uno. La física
cuántica debe necesariamente involucrar a i y a sus hermanos debido a su
naturaleza matemática y no hay manera de evitarlos. También hemos visto
que la teoría predice rarezas como el enredo y los estados mixtos, que son
"casos excepcionales", consecuencias debidas al hecho de que todo se basa
en la raíz cuadrada de la probabilidad. Si sumamos y restamos estas raíces
antes de elevar todo al cuadrado, podemos obtener cancelaciones de
término y por lo tanto un fenómeno como la interferencia, como hemos
visto desde el experimento de Young en adelante. Estas rarezas desafían
nuestro sentido común tanto como, y tal vez más, la raíz cuadrada de menos
uno habría parecido absurda a las culturas que nos precedieron, como los
antiguos griegos. Al principio ni siquiera aceptaban números irracionales,
tanto que según una leyenda Pitágoras condenó a su discípulo que había
demostrado la irracionalidad de √2, es decir, el hecho de que este número
no puede escribirse en forma de fracción, una proporción entre dos números
enteros. En la época de Euclides las cosas habían cambiado y se aceptaba la
irracionalidad, pero hasta donde sabemos la idea de los números
imaginarios nunca fue contemplada (para más detalles ver la nota 15 del
capítulo 5).
Otro resultado sensacional obtenido por la física en el último siglo puede
considerarse una consecuencia de esta simple estructura matemática, a
saber, el concepto de espín y espinor. Un espinor es en la práctica la raíz
cuadrada de un vector (véase el Apéndice para más detalles). Un vector, que
quizás le resulte más familiar, es como una flecha en el espacio, con
longitud y dirección definidas, que representa cantidades como, por
ejemplo, la velocidad de una partícula. Tomar la raíz cuadrada de un objeto
con dirección espacial parece una idea extraña y de hecho tiene
consecuencias extrañas. Cuando giras un espinazo 360° no regresa igual a sí
mismo, sino que se vuelve menos él mismo. Los cálculos nos dicen
entonces que si intercambiamos la posición de dos electrones idénticos con
el espín 1/2, la función de onda del estado que incluye la posición de ambos
debe cambiar de signo: Ψ(x,y) = - Ψ(y,x). El principio de exclusión de Pauli
se deriva de este mismo hecho: dos partículas idénticas con espín 1/2 no
pueden tener el mismo estado, porque de lo contrario la función de onda
sería idénticamente nula. Ya hemos visto que el principio aplicado a los
electrones nos lleva a excluir la presencia de más de dos partículas en una
órbita, una de las cuales tiene spin up y la otra spin down. De ahí la
existencia de una "fuerza de intercambio" repulsiva entre dos partículas con
spin 1/2 que no quieren a toda costa permanecer en el mismo estado
cuántico, lo que incluye permanecer en el mismo lugar al mismo tiempo. El
principio de exclusión de Pauli rige la estructura de la tabla periódica de
elementos y es una consecuencia muy visible y fundamental del increíble
hecho de que los electrones se representan como raíces cuadradas de
vectores, es decir, espinores.
La fórmula de Einstein que une la masa y la energía nos da otra situación en
la que la física del siglo XX tuvo que lidiar con las raíces cuadradas. Como
dijimos, al principio todo el mundo ignoró el problema descuidando las
soluciones negativas en el estudio de las partículas como los fotones o los
mesones. Un mesón es una partícula con cero espín, mientras que el fotón
tiene espín igual a 1, y su energía es siempre positiva. En el caso de los
electrones, que tienen el espín 1/2, fue necesario encontrar una teoría que
integrara la mecánica cuántica y la relatividad estrecha; y en este campo nos
encontramos cara a cara con los estados de energía negativa, que aquí nos
dan la oportunidad de conocer una de las figuras más importantes de la
física del siglo XX.
Paul Dirac
Paul Dirac fue uno de los padres fundadores de la física cuántica, autor,
entre otras cosas, del libro sagrado de esta disciplina: Los Principios de la
Mecánica Cuántica8 . Es un texto de referencia que trata de manera
coherente con la teoría según la escuela de pensamiento de Bohr-
Heisenberg y combina la función de onda de Schrödinger con la mecánica
matricial de Heisenberg. Es una lectura recomendada para aquellos que
quieran profundizar en el tema, aunque requiera conocimientos a nivel de
los primeros años de universidad.
Las contribuciones originales de Dirac a la física del siglo XX son de suma
importancia. Cabe destacar, por ejemplo, su propuesta teórica sobre la
existencia de monopolios magnéticos, el campo magnético equivalente a las
cargas eléctricas, fuentes puntuales del propio campo. En la teoría clásica
de Maxwell esta posibilidad no se contempla, porque se considera que los
campos magnéticos son generados sólo por cargas en movimiento. Dirac
descubrió que los monopolos y las cargas eléctricas son conceptos que no
son independientes sino que están relacionados a través de la mecánica
cuántica. Sus especulaciones teóricas unieron la nueva física con una rama
de las matemáticas llamada topología, que estaba ganando importancia en
esos años. La teoría de Dirac de los monopolios magnéticos tuvo una fuerte
resonancia también desde un punto de vista estrictamente matemático y en
muchos sentidos anticipó el marco conceptual que más tarde desarrolló la
teoría de las cuerdas. Pero su descubrimiento fundamental, uno de los más
profundos en la física del siglo XX, fue la teoría relativista del electrón.
En 1926 el joven Dirac buscaba una nueva ecuación para describir las
partículas de espín 1/2, que pudiera superar a la de Schrödinger y tener en
cuenta la estrecha relatividad. Para ello necesitaba espinores (las raíces
cuadradas de los vectores, recuerde) y tenía que asumir que el electrón tenía
masa. Pero para que se tuviera en cuenta la relatividad, descubrió que tenía
que duplicar los espinores con respecto a la situación no relativista,
asignando así dos espinores a cada electrón.
En términos generales, un espinor consiste en un par de números complejos
que representan respectivamente la raíz de la probabilidad de tener un
espinor hacia arriba o hacia abajo. Para hacer que este instrumento entre en
el rango de la relatividad estrecha, Dirac encontró una nueva relación en la
que se necesitaban cuatro números complejos. Esto se conoce hoy en día,
tal vez lo hayas imaginado, como la ecuación de Dirac.
La ecuación de Dirac toma las raíces cuadradas muy en serio, en el sentido
más amplio. Los dos espinores iniciales representan dos electrones, uno
arriba y otro abajo, que sin considerar la relatividad tienen energía positiva,
así que de E2=m2c4 utilizamos sólo la solución E=+mc2. Pero si tenemos
en cuenta la relatividad, necesitamos otros dos espinores, a los que
asociamos la solución negativa de la ecuación de Einstein E=-mc2. Así que
tienen energía negativa. El propio Dirac no podía hacer nada al respecto,
porque esta elección era obligatoria si queríamos tener en cuenta los
requisitos de simetría exigidos por la relatividad restringida, esencialmente
referidos al tratamiento correcto de los movimientos. Fue frustrante.
El problema de la energía negativa está inextricablemente presente en el
corazón mismo de la relatividad restringida y por lo tanto no puede ser
ignorado. Dirac se dio cuenta de lo espinoso que se volvió a medida que
progresaba en su teoría cuántica del electrón. El signo menos no puede ser
ignorado diciendo que es una solución inadmisible, porque la teoría que
resulta de la combinación de cuántica y relatividad permite que las
partículas tengan tanto energía positiva como negativa. Podríamos resolver
el asunto diciendo que un electrón de energía negativa es sólo uno de los
muchos "estados cuánticos permitidos", pero esto llevaría al desastre: el
átomo de hidrógeno, y toda la materia ordinaria, no sería estable. Un
electrón de energía positiva mc2 podría emitir fotones con una energía igual
a 2mc2, convertirse en una partícula de energía negativa -mc2 e iniciar el
descenso al abismo de lo menos infinito (a medida que el momento
aumenta, el módulo de energía negativa aumentaría rápidamente). Estas
nuevas soluciones con el signo menos al frente fueron una verdadera espina
clavada en la teoría naciente.
Pero Dirac tuvo una idea brillante para resolver el problema. Como hemos
visto, el principio de exclusión de Pauli establece que dos electrones no
pueden tener exactamente el mismo estado cuántico al mismo tiempo: si
uno ya está en un cierto estado, como en una órbita atómica, nadie más
puede ocupar ese lugar (por supuesto que también debemos tener en cuenta
el espín, por lo que en un estado con ciertas características de ubicación y
movimiento dos electrones pueden vivir juntos, uno con el espín hacia
arriba y el otro con el espín hacia abajo). Dirac tuvo la idea de extender esto
al vacío: también el vacío está en realidad lleno de electrones, que ocupan
todos los estados de energía negativa. Estos estados problemáticos del
universo están por lo tanto ocupados por dos electrones, uno que gira hacia
arriba y el otro hacia abajo. En esta configuración, los electrones de energía
positiva de los átomos no podrían emitir fotones y se encontrarían en un
estado de energía negativa, porque no encontrarían ninguno libre y gracias
al principio de acción de Pauli les estaría prohibida la acción. Con esta
hipótesis el vacío se convertiría en análogo a un gigantesco átomo inerte,
como el de un gas noble, con todos los orbitales llenos, es decir, con todos
los estados de energía negativa ocupados, para cualquier cantidad de
movimiento.
Supersimetría
El cálculo de la energía del vacío sigue empeorando si pegamos muones,
neutrinos, tau, quarks, gluones, bosones W y Z, el nuevo bosón de Higgs, es
decir, todas las partículas que habitan en el zoológico de la Madre
Naturaleza. Cada uno de ellos proporciona un trozo de energía total,
positiva para los fermiones y negativa para los bosones, y el resultado es
siempre incontrolable, es decir, infinito. Aquí el problema no es encontrar
una mejor manera de hacer los cálculos sino un nuevo principio general que
nos dice cómo derivar la densidad de la energía del vacío en el universo. Y
hasta ahora no lo tenemos.
Sin embargo, hay una simetría muy interesante que, si se implementa en
una teoría cuántica "ajustada", nos permite calcular la constante
cosmológica y obtener un resultado matemáticamente reconfortante: cero.
Esta simetría viene dada por una conexión particular entre los fermiones y
los bosones. Para verlo en funcionamiento tenemos que introducir una
dimensión imaginaria extra en la escena, algo que podría haber salido de la
imaginación de Lewis Carroll. Y esta dimensión extra se comporta como un
fermión: con un principio "à la Pauli" prohíbe que se dé más de un paso en
ella.
Dondequiera que entremos en la nueva dimensión, debemos detenernos
inmediatamente (es como poner un electrón en estado cuántico: entonces no
podemos añadir más electrones). Pero cuando un bosón pone su pie en él, se
transforma en un fermión. Y viceversa. Si esta extraña dimensión existiera
realmente y si entráramos en ella, como Alicia en A través del espejo,
veríamos al electrón transformarse en un bosón llamado selectrón y al fotón
convertirse en un fermión llamado fotón.
La nueva dimensión representa un nuevo tipo de simetría física,
matemáticamente consistente, llamada supersimetría, que asocia cada
fermión con un bosón y viceversa15 . La relación entre los socios
supersimétricos es similar a la que existe entre la materia y la antimateria.
Como habrán adivinado, la presencia de estas nuevas partículas tiene un
efecto agradable en el cálculo de la energía del vacío: los valores positivos
de los bosones anulan los valores negativos de los fermiones procedentes
del mar de Dirac, y el resultado es un bonito cero. La constante
cosmológica es idénticamente nula.
¿Así que la supersimetría resuelve el verdadero problema de la energía del
vacío? Tal vez, pero no está muy claro cómo. Hay dos obstáculos. En
primer lugar, todavía no se ha observado ninguna pareja bosónica
supersimétrica del electrón16 . Sin embargo, la supersimetría, como todas
las simetrías (piense en una bola de vidrio perfectamente esférica), puede
ser "rota" (sólo dé un martillo a esta esfera). Los físicos tienen un profundo
amor por la simetría, que siempre es un ingrediente de nuestras teorías más
apreciadas y utilizadas. Muchos colegas esperan que la supersimetría
realmente exista en la naturaleza y que también haya un mecanismo (similar
al martilleo de la esfera) que pueda romperla. Si así fuera, observaríamos
las consecuencias sólo en energías muy altas, como las que esperamos
obtener en aceleradores colosales como el LHC. Según la teoría, los socios
del electrón fotónico, es decir, el selectortrón y el fotón, son muy pesados y
sólo veremos rastros de ellos cuando alcancemos una energía igual a un
valor umbral llamado ΛSUSY (SUSY es la abreviatura de super simetría).
Desafortunadamente, la ruptura de la supersimetría trae el problema de la
energía infinita de nuevo a la escena. La densidad de energía del vacío
viene dada por la fórmula que se ve arriba, es decir, Λ4SUSY/ħ3c3. Si
suponemos que esta cantidad es del orden de magnitud de las máximas
energías obtenibles por los grandes aceleradores, de mil a diez mil billones
de electronvoltios, entonces obtenemos una constante cosmológica 1056
veces mayor que la observada. Esto es una mejora considerable con
respecto a la 10120 de antes, pero sigue siendo un gran problema. Por lo
tanto, la supersimetría, cuando se aplica directamente a los cálculos, no
resuelve la crisis de la energía del vacío. Tenemos que intentar otras vías.
El principio holográfico
¿Cometemos algún error al contar los peces capturados en el Mar de Dirac?
¿Tal vez estamos criando demasiados? Al final del día estamos sumando
electrones de energía negativa muy pequeños con longitudes de onda muy
cortas. La escala es realmente microscópica, incluso si fijamos un valor alto
para el umbral de energía Λ. ¿Quizás estos estados no deben ser
considerados realmente?
En los últimos diez años aproximadamente ha surgido una nueva y radical
hipótesis, según la cual siempre hemos sobrestimado el número de peces en
el Mar de Dirac, porque no son objetos tridimensionales en un océano
tridimensional, sino que forman parte de un holograma. Un holograma es
una proyección de un cierto espacio en uno más pequeño, como sucede
cuando proyectamos una escena tridimensional en una pantalla
bidimensional. Según esta hipótesis, todo lo que ocurre en tres dimensiones
puede ser descrito completamente basado en lo que ocurre en la pantalla,
con una dimensión menos. El Mar de Dirac, como sigue, no está lleno de
peces de la manera que pensamos, porque estos son en realidad objetos
bidimensionales. En resumen, los estados de energía negativa son una mera
ilusión y la energía total del vacío es tanto menor que es potencialmente
compatible con el valor observado de la constante cosmológica. Decimos
"potencialmente" porque la teoría holográfica sigue siendo una obra en
construcción y todavía tiene muchos puntos abiertos.
Esta nueva idea proviene del campo de la teoría de las cuerdas, en áreas
donde se pueden establecer conexiones entre los espacios holográficos (la
más definida y original está dada por la llamada conjetura de Maldacena, o
AdS/CFT).17 Volveremos a esta hipótesis, poco realista o profunda, en el
próximo capítulo; sin embargo, el sentido general parece ser el de la lógica
de un soñador.
La física de la materia condensada
La teoría cuántica permite aplicaciones interesantes y muy útiles en la
ciencia de los materiales. Para empezar, nos ha permitido por primera vez
en la historia entender realmente cuáles son los estados de la materia, cómo
funcionan las transiciones de fase y las propiedades eléctricas y magnéticas.
Al igual que en el caso de la tabla periódica de elementos, la mecánica
cuántica ha compensado en gran medida las inversiones realizadas, tanto
desde el punto de vista teórico como práctico, gracias al nacimiento de
nuevas tecnologías. Ha permitido el comienzo de la llamada "electrónica
cuántica" y ha revolucionado la vida de todos nosotros de maneras que
antes eran inconcebibles. Echemos un vistazo a uno de los principales
subsectores de esta disciplina, que se ocupa del flujo de la corriente
eléctrica en los materiales.
La banda de conducción
Cuando los átomos se unen para formar un sólido, se encuentran aplastados
cerca unos de otros. Las funciones de onda de los electrones externos,
situados en los orbitales ocupados de mayor nivel, comienzan a fusionarse
de cierta manera (mientras que los de los orbitales internos permanecen
sustancialmente inalterados). Los electrones externos pueden saltar de un
átomo a otro, tanto que los orbitales externos pierden su identidad y ya no
se encuentran alrededor de un átomo específico: entonces se fusionan en
una colección de estados electrónicos extendidos que se llama la banda de
valencia.
Tomemos por simplicidad un material cristalino. Los cristales tienen
muchas formas, cuyas propiedades han sido cuidadosamente catalogadas.
Los electrones que comienzan a vagar entre los cristales tienen funciones de
onda con una frecuencia muy baja en la banda de valencia. Dentro de esta
banda, los electrones están dispuestos según el principio de exclusión de
Pauli: a lo sumo dos por nivel, uno con spin up y otro con spin down. Los
estados de muy baja frecuencia son muy similares a los de un electrón libre
para moverse en el espacio, sin interferencia con la red cristalina. Estos
estados tienen el nivel de energía más bajo y se llenan primero. Siguiendo
siempre el principio de exclusión, los electrones continúan llenando los
siguientes estados hasta que sus longitudes de onda cuánticas se acortan,
llegando a ser comparables a la distancia entre los átomos.
Los electrones, sin embargo, están sujetos a desviaciones del campo
electromagnético generado por los átomos de la red cristalina, que se
comporta como un interferómetro gigante de Young con muchas rendijas:
una para cada átomo (las análogas a las rendijas son las cargas de la red). El
movimiento de estas partículas, por lo tanto, implica una colosal
interferencia cuántica20 . Ésta interviene precisamente cuando la longitud
de onda del electrón es del mismo orden de magnitud con respecto a la
distancia entre los átomos: los estados en esta condición están sujetos a una
interferencia destructiva y por lo tanto se anulan mutuamente.
La interferencia causa la formación de bandas en la estructura de los niveles
de energía de los electrones en los sólidos. Entre la banda de energía
mínima, la banda de valencia, y la siguiente, llamada banda de conducción,
hay una brecha llamada brecha de energía. El comportamiento eléctrico del
material depende directamente de esta estructura de bandas. Se pueden dar
tres casos distintos.
1. Aislantes. Si la banda de valencia está llena y la brecha de energía antes
de la banda de conducción es sustancial, el material se llama aislante. Los
aislantes, como el vidrio o el plástico, no conducen la electricidad. Un
representante típico de esta categoría es un elemento que tiene casi todas las
órbitas llenas, como los halógenos y los gases nobles. En estas
circunstancias, la corriente eléctrica no fluye porque no hay espacio para
que los electrones de la banda de valencia "deambulen". Así que para
moverse libremente un electrón debería saltar a la banda de conducción,
pero si la brecha de energía es demasiado grande esto requiere demasiada
energía.21
2. Conductores. Si la banda de valencia no está completamente llena,
entonces los electrones pueden moverse fácilmente y entrar en nuevos
estados de movimiento, lo que hace que el material sea un buen conductor
de las corrientes eléctricas. El miembro típico de esta categoría tiene
muchos electrones disponibles para escapar en la órbita exterior, que no
están completos; por lo tanto, son elementos que tienden a dar electrones en
enlaces químicos, como los metales alcalinos y ciertos metales pesados.
Entre otras cosas, es la difusión de la luz por estos electrones libres lo que
causa el típico aspecto pulido de los metales. A medida que la banda de
conducción se llena, el material se convierte en un conductor cada vez
menos eficiente, hasta que alcanza el estado de aislamiento.
3. Semiconductores. Si la banda de valencia está casi completa y la banda
de conducción tiene pocos electrones, el material no debería ser capaz de
conducir mucha corriente. Pero si la brecha de energía no es demasiado alta,
digamos menos de unos 3 eV, es posible forzar a los electrones sin
demasiado esfuerzo a saltar en la banda de conducción. En este caso
estamos en presencia de un semiconductor. La capacidad de estos
materiales para conducir la electricidad sólo en circunstancias apropiadas
los hace realmente útiles, porque podemos manipularlos de varias maneras
y disponer de verdaderos "interruptores electrónicos".
Los semiconductores típicos son sólidos cristalinos como el silicio (el
principal componente de la arena). Su conductividad puede modificarse
drásticamente añadiendo otros elementos como "impurezas", mediante una
técnica llamada dopaje. Se dice que los semiconductores con pocos
electrones en la banda de conducción son del tipo n y suelen estar dopados
con la adición de átomos que ceden electrones, que por lo tanto "repoblan"
la banda de conducción. Se dice que los semiconductores con una banda de
conducción casi completa son del tipo p y normalmente se dopan con la
adición de átomos que aceptan electrones de la banda de valencia.
Un material de tipo p tiene "agujeros" en la banda de valencia que se ven
muy similares a los encontrados cuando hablamos del mar de Dirac. En ese
caso vimos que estos huecos actuaban como partículas positivas; aquí
sucede algo similar: los huecos, llamados "gaps", toman el papel de cargas
positivas y facilitan el paso de la corriente eléctrica. Un semiconductor tipo
p, por lo tanto, es una especie de Mar de Dirac en miniatura, creado en un
laboratorio. En este caso, sin embargo, los huecos involucran muchos
electrones y se comportan como si fueran partículas más pesadas, por lo que
son menos eficientes como portadores de corriente que los electrones
individuales.
Diodos y transistores
El ejemplo más simple de un mecanismo que podemos construir con
semiconductores es el diodo. Un diodo actúa como conductor en una
dirección y como aislante en la otra. Para construir uno, un material de tipo
p suele acoplarse con un material de tipo n para formar una unión p-n. No
se requiere mucho esfuerzo para estimular los electrones del elemento de
tipo n para que pasen a través de la unión y terminen en la banda de
valencia del elemento de tipo p. Este proceso, que se asemeja a la
aniquilación de partículas y antipartículas en el Mar de Dirac, hace que la
corriente fluya en una sola dirección.
Si intentamos invertir el fenómeno nos damos cuenta de que es difícil: al
quitar los electrones de la banda de conducción no encontramos ninguno
capaz de reemplazarlos provenientes del material tipo p. En un diodo, si no
exageramos con el voltaje (es fácil quemar un semiconductor con una
corriente demasiado intensa), podemos hacer que la electricidad fluya
fácilmente en una sola dirección, y por eso este dispositivo tiene
importantes aplicaciones en los circuitos eléctricos.
En 1947 John Bardeen y William Brattain, que trabajaban en los
Laboratorios Bell en un grupo encabezado por William Shockley,
construyeron el primer transistor de "punto de contacto". Era una
generalización del diodo, hecha por la unión de tres semiconductores. Un
transistor nos permite controlar el flujo de corriente ya que el voltaje varía
entre las tres capas (llamadas colector, base y emisor respectivamente) y
sirve básicamente como interruptor y amplificador. Es quizás el mecanismo
más importante inventado por el hombre y que le valió a Bardeen, Brattain
y Shockley el Premio Nobel en 1956.22
Aplicaciones rentables
¿Con qué terminamos en nuestros bolsillos? La ecuación fundamental de
Schrödinger, que nos proporciona una forma de calcular la función de onda,
nació como el nacimiento de la razón pura: nadie imaginó entonces que
sería la base para el funcionamiento de maquinaria costosa o que
alimentaría la economía de una nación. Pero si se aplica a los metales,
aislantes y semiconductores (los más rentables), esta ecuación nos ha
permitido inventar interruptores y mecanismos de control particulares que
son indispensables en equipos como computadoras, aceleradores de
partículas, robots que construyen automóviles, videojuegos y aviones
capaces de aterrizar en cualquier clima.
Otro hijo favorito de la revolución cuántica es el omnipresente láser, que
encontramos en las cajas de los supermercados, en la cirugía ocular, en la
metalurgia de precisión, en los sistemas de navegación y en los
instrumentos que utilizamos para sondear la estructura de los átomos y las
moléculas. El láser es como una antorcha especial que emite fotones de la
misma longitud de onda.
Podríamos seguir hablando de los milagros tecnológicos que deben su
existencia a las intuiciones de Schrödinger, Heisenberg, Pauli y muchos
otros. Veamos algunos de ellos. El primero que viene a la mente es el
microscopio de efecto túnel, capaz de alcanzar aumentos miles de veces
mayores que el microscopio electrónico más potente (que es en sí mismo el
hijo de la nueva física, porque se basa en algunas características de onda de
los electrones).
El efecto túnel es la quintaesencia de la teoría cuántica. Imagina un bol de
metal colocado en una mesa, dentro del cual hay una bola de acero libre
para rodar sin fricción. Según la física clásica, la esfera queda atrapada en el
cuenco por la eternidad, condenada a subir y bajar a lo largo de las paredes
alcanzando siempre la misma altura. El sistema newtoniano en el más alto
grado. Para la versión cuántica de esta configuración, tomamos un electrón
confinado en una jaula metálica, en cuyas paredes circula corriente con un
voltaje que la partícula no tiene suficiente energía para contrarrestar. Así
que el electrón se acerca a una pared, es repelido hacia la pared opuesta,
sigue siendo repelido, y así sucesivamente hasta el infinito, ¿verdad? No!
Tarde o temprano, en el extraño mundo cuántico, la partícula se encontrará
fuera.
¿Entiendes lo perturbador que es esto? En el lenguaje clásico diríamos que
el electrón cavó mágicamente un túnel y escapó de la jaula, como si la
esfera de metal, la novela Houdini, hubiera escapado de la prisión del tazón.
Aplicando al problema la ecuación de Schrödinger le hacemos entrar la
probabilidad: en cada encuentro entre el electrón y la pared hay una
pequeña posibilidad de que la partícula cruce la barrera. ¿A dónde va la
energía necesaria? No es una pregunta relevante, porque la ecuación sólo
nos dice cuál es la probabilidad con la que el electrón está dentro o fuera.
Para una mente newtoniana esto no tiene sentido, pero el efecto túnel tiene
efectos muy tangibles. En la década de 1940 se había convertido en un
hecho que los físicos utilizaban para explicar fenómenos nucleares
previamente incomprensibles. Algunas partes del núcleo atómico logran, a
través del efecto túnel, cruzar la barrera que las mantiene unidas y al
hacerlo rompen el núcleo original para formar otros más pequeños. Esto es
fisión, un fenómeno en la base de los reactores nucleares.
Otro aparato que pone en práctica este extraño efecto es la unión Josephson,
una especie de interruptor electrónico llamado así en honor a su brillante y
extraño inventor, Brian Josephson. Este dispositivo funciona a temperaturas
cercanas al cero absoluto, donde la superconductividad cuántica añade un
carácter exótico a los fenómenos. En la práctica, es un aparato electrónico
digital súper rápido y súper frío que explota el efecto túnel cuántico. Parece
salir directamente de las páginas de un libro de Kurt Vonnegut, pero
realmente existe y es capaz de encenderse y apagarse miles de miles de
millones de veces por segundo. En nuestra era de ordenadores cada vez más
potentes, esta velocidad es una característica muy deseable. Esto se debe a
que los cálculos se hacen sobre bits, es decir, sobre unidades que pueden ser
cero o uno, gracias a varios algoritmos que representan todos los números,
los suman, los multiplican, calculan derivados e integrales, y así
sucesivamente. Todo esto se hace cambiando el valor de ciertos circuitos
eléctricos de cero (apagado) a uno (encendido) varias veces, por lo que
comprenderá que acelerar esta operación es de suma importancia. El cruce
de Josephson lo hace mejor.
El efecto túnel aplicado a la microscopía nos ha permitido "ver" los átomos
simples, por ejemplo en la fantástica arquitectura de la doble hélice que
forma el ADN, un registro de toda la información que define a un ser vivo.
El microscopio de efecto túnel, inventado en los años ochenta del siglo
pasado, no utiliza un haz de luz (como en el microscopio óptico) ni un haz
de electrones (como en el electrónico estándar). Su funcionamiento se basa
en una sonda de muy alta precisión que sigue el contorno del objeto a
observar permaneciendo a una distancia de menos de una millonésima de
milímetro. Esta brecha es lo suficientemente pequeña como para permitir
que las corrientes eléctricas presentes en la superficie del propio objeto lo
superen gracias al efecto túnel y así estimular un cristal muy sensible
presente en la sonda. Cualquier variación en esta distancia, debido a un
átomo "saliente", es registrada y convertida en una imagen por un software
especial. Es el equivalente al lápiz óptico de un tocadiscos (¿alguien lo
recuerda?), que recorre colinas y valles en un surco y los convierte en la
magnífica música de Mozart.
El microscopio de efecto túnel también es capaz de tomar átomos uno por
uno y moverlos a otro lugar, lo que significa que podemos construir una
molécula de acuerdo a nuestros diseños, poniendo las piezas juntas como si
fuera un modelo. Podría ser un nuevo material muy resistente o un
medicamento antiviral. Gerd Benning y Heinrich Rohrer, que inventaron el
microscopio de efecto túnel en un laboratorio de IBM en Suiza, fueron
galardonados con el Premio Nobel en 1986, y su idea dio origen a una
industria con un volumen de negocios de mil millones de dólares.
En el presente y el futuro cercano hay otras dos revoluciones potenciales: la
nanotecnología y la computación cuántica. Las nanotecnologías (donde
"nano" es el prefijo que vale 10-9, que significa "realmente muy pequeño")
son la reducción de la mecánica, con motores, sensores y demás, a escala
atómica y molecular. Hablamos literalmente de fábricas liliputienses, donde
un millón de veces más pequeñas dimensiones corresponden a un aumento
igual de la velocidad de operación. Los sistemas de producción cuántica
podrían utilizar la mayor cantidad de materia prima de todas, los átomos.
Nuestras fábricas contaminantes serían reemplazadas por coches compactos
y eficientes.
La computación cuántica, a la que volveremos más tarde, promete ofrecer
"un sistema de procesamiento de información tan poderoso que, en
comparación con la computación digital tradicional, parecerá un éxito en
comparación con un reactor nuclear".
Capítulo 9
El tercer milenio

omo hemos visto en varias ocasiones durante el curso del libro, la


C ciencia cuántica, a pesar de su extraña idea de la realidad, funciona muy
bien, a un nivel casi milagroso. Sus éxitos son extraordinarios,
profundos y de gran peso. Gracias a la física cuántica tenemos una
verdadera comprensión de lo que ocurre a nivel molecular, atómico, nuclear
y subnuclear: conocemos las fuerzas y leyes que gobiernan el micromundo.
La profundidad intelectual de sus fundadores, a principios del siglo XX, nos
ha permitido utilizar una poderosa herramienta teórica que conduce a
aplicaciones sorprendentes, las que están revolucionando nuestra forma de
vida.
De su cilindro, el mago cuántico ha sacado tecnologías de alcance
inimaginable, desde los láseres hasta los microscopios de efecto túnel. Sin
embargo, algunos de los genios que ayudaron a crear esta ciencia,
escribieron los textos de referencia y diseñaron muchos inventos milagrosos
están todavía en la garra de una gran angustia. En sus corazones, enterrados
en un rincón, todavía existe la sospecha de que Einstein no se equivocó y
que la mecánica cuántica, en toda su gloria, no es la teoría final de la física.
Vamos, ¿cómo es posible que la probabilidad sea realmente parte de los
principios básicos que rigen la naturaleza? Debe haber algo que se nos
escapa. La gravedad, por ejemplo, que ha sido descuidada por la nueva
física durante mucho tiempo; el sueño de llegar a una teoría sólida que
unificara la relatividad general de Einstein y la mecánica cuántica ha
llevado a algunos temerarios a explorar los abismos de los fundamentos,
donde sólo las matemáticas más abstractas proporcionan una luz débil, y a
concebir la teoría de las cuerdas. Pero ¿hay quizás algo más profundo, un
componente que falta en los fundamentos lógicos de la física cuántica?
¿Estamos tratando de completar un rompecabezas en el que falta una pieza?
Algunas personas esperan con impaciencia llegar pronto a una superteoría
que se reduzca a la mecánica cuántica en ciertas áreas, como sucede con la
relatividad que engloba la mecánica clásica newtoniana y devuelve valor
sólo en ciertas áreas, es decir, cuando los cuerpos en juego se mueven
lentamente. Esto significaría que la física cuántica moderna no es el final de
la línea, porque allí, escondida en lo profundo de la mente de la Naturaleza,
existe una teoría definitiva, mejor, capaz de describir el universo
completamente. Esta teoría podría abordar las fronteras de la física de alta
energía, pero también los mecanismos íntimos de la biología molecular y la
teoría de la complejidad. También podría llevarnos a descubrir fenómenos
completamente nuevos que hasta ahora han escapado al ojo de la ciencia.
Después de todo, nuestra especie se caracteriza por la curiosidad y no puede
resistir la tentación de explorar este excitante y sorprendente micromundo
como un planeta que orbita una estrella distante. Y la investigación también
es un gran negocio, si es cierto que el 60% del PIB americano depende de
tecnologías que tienen que ver con la física cuántica. Así que hay muy
buenas razones para continuar explorando los bloques de construcción
sobre los que construimos nuestra comprensión del mundo.
"Los fenómenos cuánticos desafían nuestra comprensión primitiva de la
realidad; nos obligan a reexaminar la idea misma de la existencia", escribe
Euan Squires en el prefacio de su libro El Misterio del Mundo Cuántico.
"Estos son hechos importantes, porque nuestras creencias sobre "lo que
existe" ciertamente influyen en la forma en que concebimos nuestro lugar
en el mundo. Por otra parte, lo que creemos que somos influye en última
instancia en nuestra existencia y en nuestros actos "1. El difunto Heinz
Pagels, en su ensayo El código cósmico, habla de una situación similar a la
de un consumidor que tiene que elegir una variante de la "realidad" entre las
muchas que se ofrecen en unos grandes almacenes2.
En los capítulos anteriores hemos cuestionado la concepción común de la
"realidad" al tratar el teorema de Bell y sus consecuencias experimentales,
es decir, hemos considerado la posibilidad de los efectos no locales: la
transferencia instantánea de información entre dos lugares situados a
distancias arbitrarias. Según el modo de pensar clásico, la medición
realizada en un punto "influye" en las observaciones del otro; pero en
realidad el vínculo entre estos dos lugares viene dado por una propiedad de
las dos partículas (fotones, electrones, neutrones o lo que sea) que nacieron
juntas en un estado enmarañado. A su llegada a los puntos donde se
encuentran los dos detectores, si el aparato 1 registra la propiedad A para la
partícula receptora, es necesario que el aparato 2 registre la propiedad B, o
viceversa. Desde el punto de vista de las funciones de onda, el acto de
medir por el aparato 2 hace que el estado cuántico "colapse"
simultáneamente en cada punto del espacio. Einstein odiaba esto, porque
creía firmemente en la ubicación y la prohibición de exceder la velocidad
de la luz. Gracias a varios experimentos hemos excluido la posibilidad de
que los dos detectores intercambien señales; la existencia de enredo es en
cambio un hecho bien conocido y ampliamente confirmado, por lo que una
vez más la física cuántica es correcta a nivel fundamental. El problema
radica en nuestra reacción a este fenómeno aparentemente paradójico. Un
físico teórico escribió que deberíamos encontrar una forma de "coexistencia
pacífica" con la mecánica cuántica.
El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión, tal vez
concebida para parecer deliberadamente anti-intuitiva? Incluso el gran
Feynman se sintió desafiado por el teorema de Bell y trató de llegar a una
representación de la mecánica cuántica que lo hiciera más digerible, gracias
a su idea de la suma en los caminos. Como hemos visto, a partir de ciertas
ideas de Paul Dirac inventó una nueva forma de pensar sobre los
acontecimientos. En su marco, cuando una partícula radioactiva decae y da
vida a un par de otras partículas, una con spin up y otra con spin down,
tenemos que examinar las dos "vías" que se determinan. Una, que
llamaremos A, lleva la partícula con spin hacia arriba al detector 1 y la que
tiene spin hacia abajo al detector 2; la otra, la ruta B, hace lo contrario. A y
B tienen cuantitativamente dos "amplitudes de probabilidad", que podemos
sumar. Cuando hacemos una medición, también averiguamos cuál de los
dos caminos ha tomado realmente el sistema, si A o B; así, por ejemplo, si
encontramos la partícula con spin up en el punto 1, sabemos que ha pasado
por A. En todo esto, sólo podemos calcular la probabilidad de los distintos
caminos.
Con esta nueva concepción del espacio-tiempo, la posibilidad de que la
información se propague instantáneamente incluso a grandes distancias
desaparece. El cuadro general se acerca más al clásico: recordarán el
ejemplo en el que nuestro amigo nos envía a nosotros en la Tierra y a un
colega en Rigel 3 una pelota de color, que puede ser roja o azul; si al abrir
el paquete vemos la pelota azul, sabemos en ese mismo instante que el otro
recibió la roja. Sin embargo, nada cambia en el universo. Tal vez este
modelo calme nuestros temores filosóficos sobre la paradoja EPR, pero hay
que decir que incluso la suma de los caminos tiene algunos aspectos
realmente desconcertantes. Las matemáticas que hay detrás funcionan tan
bien que el modelo descarta la presencia de señales que viajan más rápido
que la luz. Esto está estrechamente relacionado con hechos como la
existencia de la antimateria y la teoría cuántica de campos. Por lo tanto,
vemos que el universo es concebible como un conjunto infinito de caminos
posibles que gobiernan su evolución en el tiempo. Es como si hubiera un
gigantesco frente de onda de probabilidad en avance. De vez en cuando
tomamos una medida, seleccionamos un camino para un determinado
evento en el espacio-tiempo, pero después de eso la gran ola se sacude y
continúa su carrera hacia el futuro.
Generaciones de físicos han sentido la frustración de no saber qué teoría
cuántica estaban usando realmente. Incluso hoy en día el conflicto entre la
intuición, los experimentos y la realidad cuántica todavía puede ser
profundo.
Criptografía cuántica
El problema de la transmisión segura de información no es nuevo. Desde la
antigüedad, el espionaje militar ha usado a menudo códigos secretos, que el
contraespionaje ha tratado de romper. En tiempos de Isabel, el
desciframiento de un mensaje codificado fue la base de la sentencia de
muerte de María Estuardo. Según muchos historiadores, uno de los cruces
fundamentales de la Segunda Guerra Mundial ocurrió cuando en 1942 los
aliados derrotaron a Enigma, el código secreto de los alemanes considerado
"invencible ".
Hoy en día, como cualquiera que se mantenga informado sabe, la
criptografía ya no es un asunto de espías y militares. Al introducir la
información de su tarjeta de crédito en eBay o en el sitio web de Amazon,
usted asume que la comunicación está protegida. Pero las compañías de
hackers y terroristas de la información nos hacen darnos cuenta de que la
seguridad del comercio, desde el correo electrónico hasta la banca en línea,
pende de un frágil hilo. El gobierno de EE.UU. se toma en serio el
problema, gastando miles de millones de dólares en él.
La solución más inmediata es introducir una "clave" criptográfica que
pueda ser utilizada tanto por el emisor como por el receptor. La forma
estándar de hacer segura la información confidencial es esconderla en una
larga lista de números aleatorios. Pero sabemos que los espías, hackers y
tipos extraños vestidos de negro con un corazón de piedra y un buen
conocimiento del mundo informático son capaces de entender cómo
distinguir la información del ruido.
Aquí es donde entra en juego la mecánica cuántica, que puede ofrecer a la
criptografía los servicios de su especial forma de aleatoriedad, tan extraña y
maravillosa que constituye una barrera infranqueable, y por si fuera poco,
es capaz de informar inmediatamente de cualquier intento de intrusión!
Como la historia de la criptografía está llena de códigos "impenetrables"
que en cierto punto son penetrados por una tecnología superior, está
justificado si se toma esta afirmación con la cantidad adecuada de
escepticismo (el caso más famoso es el ya mencionado de Enigma, la
máquina que en la Segunda Guerra Mundial encriptaba las transmisiones
nazis y que se consideraba imbatible: los Aliados lograron desencriptarla
sin que el enemigo se diera cuenta).
Veamos un poco más en detalle cómo funciona la criptografía. La unidad
mínima de información que puede transmitirse es el bit, una abreviatura de
dígito binario, es decir, "número binario". Un poco es simplemente cero o
uno. Si por ejemplo lanzamos una moneda y decidimos que 0 representa la
cabeza y 1 la cola, el resultado de cada lanzamiento es un bit y una serie de
lanzamientos puede escribirse de la siguiente manera:
1011000101110100101010111.
Esto es en lo que respecta a la física clásica. En el mundo cuántico hay un
equivalente del bit que ha sido bautizado como qubit (si piensas que tiene
algo que ver con el "codo", una unidad de medida tradicional que también
aparece en la Biblia, estás fuera del camino). También está dada por una
variable que puede asumir dos valores alternativos, en este caso el espín del
electrón, igual a arriba o abajo, que ocupan el lugar de 0 y 1 del bit clásico.
Hasta ahora nada nuevo.
Pero un qubit es un estado cuántico, por lo que también puede existir tanto
en forma "mixta" como "pura". Un estado puro no se ve afectado por la
observación. Si medimos el espín de un electrón a lo largo del eje z, será
necesariamente hacia arriba o hacia abajo, dependiendo de su dirección. Si
el electrón se toma al azar, cada uno de estos valores puede presentarse con
una cierta probabilidad. Si, por el contrario, la partícula ha sido emitida de
tal manera que asume necesariamente un cierto spin, la medición sólo la
registra sin cambiar su estado.
En principio podemos, por lo tanto, transmitir la información en forma de
código binario utilizando una colección de electrones (o fotones) con un
espín predeterminado igual a arriba o abajo en el eje z; como todos ellos
han sido "puros", un detector orientado a lo largo del mismo eje los leerá
sin perturbarlos. Pero el eje z debe ser definido, no es una característica
intrínseca del espacio. Aquí, entonces, hay una información secreta que
podemos enviar al destinatario del mensaje: cómo se orienta el eje a lo largo
del cual se mide el giro.
Si alguien intenta interceptar la señal con un detector no perfectamente
paralelo a nuestro z, con su medición perturba los estados electrónicos y por
lo tanto obtiene un conjunto de datos sin sentido (sin darse cuenta).
Nuestros receptores que leen el mensaje se dan cuenta en cambio de que
algo ha interferido con los electrones y por lo tanto que ha habido un
intento de intrusión: sabemos que hay un espía escuchando y podemos
tomar contramedidas. Y viceversa, si el mensaje llega sin problemas,
podemos estar seguros de que la transmisión se ha realizado de forma
segura. El punto clave de la historia es que el intento de intrusión causa
cambios en el estado de los qubits, de los que tanto el emisor como el
receptor son conscientes.
La transmisión de los estados cuánticos también puede utilizarse para
transmitir con seguridad una "clave", es decir, un número muy grande
generado causalmente, que se utiliza para decodificar la información en
ciertos sistemas de comunicación cifrada. Gracias a los qubits, sabemos si
la llave está segura o comprometida y por lo tanto podemos tomar
contramedidas. La criptografía cuántica ha sido probada hasta ahora en
mensajes transmitidos a unos pocos kilómetros de distancia. Aún pasará
algún tiempo antes de que pueda utilizarse en la práctica, ya que esto
requiere una gran inversión en la última generación de láseres. Pero un día
podremos hacer desaparecer para siempre la molestia de tener que
impugnar una compra cargada en nuestra tarjeta de crédito en algún país
lejano donde nunca antes habíamos estado.
Computadoras cuánticas
Sin embargo, hay una amenaza a la seguridad de la criptografía cuántica, y
es la computadora cuántica, el candidato número uno para convertirse en la
supercomputadora del siglo XXI. Según la ley empírica enunciada por
Gordon Moore, "el número de transistores en una ficha se duplica cada
veinticuatro meses "10. Como ha calculado algún bromista, si la tecnología
automotriz hubiera progresado al mismo ritmo que la informática en los
últimos treinta años, ahora tendríamos coches de sesenta gramos que
cuestan cuarenta dólares, con un maletero de un kilómetro cúbico y medio,
que no consumen casi nada y que alcanzan velocidades de hasta un millón y
medio de kilómetros por hora11.
En el campo de la informática, hemos pasado de los tubos de vacío a los
transistores y circuitos integrados en menos tiempo que la vida humana. Sin
embargo, la física en la que se basan estas herramientas, incluyendo las
mejores disponibles hoy en día, es clásica. Usando la mecánica cuántica, en
teoría, deberíamos construir nuevas e incluso más poderosas máquinas. Aún
no han aparecido en la oficina de diseño de IBM o en los planes de negocio
de las empresas más audaces de Silicon Valley (al menos hasta donde
sabemos), pero los ordenadores cuánticos harían que el más rápido de los
clásicos pareciera poco más que un ábaco en las manos de una persona
mutilada.
La teoría de la computación cuántica hace uso de los ya mencionados qubits
y adapta a la física no clásica la teoría clásica de la información. Los
conceptos fundamentales de esta nueva ciencia fueron establecidos por
Richard Feynman y otros a principios de la década de 1980 y recibieron un
impulso decisivo por la obra de David Deutsch en 1985. Hoy en día es una
disciplina en expansión. La piedra angular ha sido el diseño de "puertas
lógicas" (equivalentes informáticos de los interruptores) que explotan la
interferencia y el enredo cuántico para crear una forma potencialmente
mucho más rápida de hacer ciertos cálculos12
La interferencia, explicada por experimentos de doble rendija, es uno de los
fenómenos más extraños del mundo cuántico. Sabemos que sólo dos
rendijas en una pantalla cambian el comportamiento de un fotón que pasa a
través de ella de una manera extraña. La explicación que da la nueva física
pone en duda las amplitudes de probabilidad de los diversos caminos que la
partícula puede seguir, que, si se suman adecuadamente, dan la probabilidad
de que termine en una determinada región del detector. Si en lugar de dos
rendijas hubiera mil, el principio básico no cambiaría y para calcular la
probabilidad de que la luz llegue a tal o cual punto deberíamos tener en
cuenta todos los caminos posibles. La complejidad de la situación aumenta
aún más si tomamos dos fotones y no sólo uno, cada uno de los cuales tiene
miles de opciones, lo que eleva el número de estados totales al orden de los
millones. Con tres fotones los estados se convierten en el orden de los
billones, y así sucesivamente. La complejidad aumenta exponencialmente a
medida que aumenta la entrada.
El resultado final es quizás muy simple y predecible, pero hacer todas estas
cuentas es muy poco práctico, con una calculadora clásica. La gran idea de
Feynman fue proponer una calculadora analógica que explotara la física
cuántica: usemos fotones reales y realicemos el experimento, dejando que la
naturaleza complete ese monstruoso cálculo de forma rápida y eficiente. El
ordenador cuántico ideal debería ser capaz de elegir por sí mismo el tipo de
mediciones y experimentos que corresponden al cálculo requerido, y al final
de las operaciones traducir el resultado físico en el resultado numérico.
Todo esto implica el uso de una versión ligeramente más complicada del
sistema de doble rendija.
Los increíbles ordenadores del futuro
Para darnos una idea de lo poderosas que son estas técnicas de cálculo,
tomemos un ejemplo simple y comparemos una situación clásica con la
correspondiente situación cuántica. Partamos de un "registro de 3 bits", es
decir, un dispositivo que en cada instante es capaz de asumir una de estas
ocho configuraciones posibles: 000, 001, 010, 011, 100, 101, 110, 111,
correspondientes a los números 0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico
registra esta información con tres interruptores que pueden estar abiertos
(valor 0) o cerrados (valor 1). Es fácil ver por analogía que un registro de 4
bits puede codificar dieciséis números, y así sucesivamente.
Sin embargo, si el registro no es un sistema mecánico o electrónico sino un
átomo, puede existir en un estado mixto, superponiendo el fundamental
(que hacemos corresponder a 0) y el excitado (igual a 1). En otras palabras,
es un qubit. Por lo tanto, un registro de 3 qubits expresa ocho números al
mismo tiempo, un registro de 4 qubits expresa dieciséis y en general un
registro de N qubits contiene 2N.
En los ordenadores clásicos, el bit suele venir dado por la carga eléctrica de
un pequeño condensador, que puede estar cargado (1) o no cargado (0).
Ajustando el flujo de corriente podemos cambiar el valor del bit. En los
ordenadores cuánticos, en cambio, para cambiar un qubit utilizamos un rayo
de luz para poner el átomo en un estado excitado o fundamental. Esto
implica que en cada instante, en cada paso del cálculo, el qubit puede
asumir los valores 0 y 1 al mismo tiempo. Estamos comenzando a realizar
un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante todos los
primeros 1024 números. Con dos de ellos, acoplados de forma coincidente,
podemos asegurarnos de tener una tabla de 1024 × 1024 multiplicaciones.
Una computadora tradicional, aunque muy rápida, debería realizar en
secuencia más de un millón de cálculos para obtener todos esos datos,
mientras que una computadora cuántica es capaz de explorar todas las
posibilidades simultáneamente y llegar al resultado correcto en un solo
paso, sin esfuerzo.
Esta y otras consideraciones teóricas han llevado a la creencia de que, en
algunos casos, una computadora cuántica resolvería un problema en un año
que la más rápida de las máquinas clásicas no terminaría antes de unos
pocos miles de millones de años. Su poder proviene de la capacidad de
operar simultáneamente en todos los estados y de realizar muchos cálculos
en paralelo en una sola unidad operativa. Pero hay un pero (suspenso: aquí
cabría también el Sprach Zarathustra de Richard Strauss). Antes de invertir
todos sus ahorros en una puesta en marcha de Cupertino, debe saber que
varios expertos son escépticos sobre las aplicaciones informáticas cuánticas
(aunque todos están de acuerdo en que los debates teóricos sobre el tema
son valiosos para comprender ciertos fenómenos cuánticos fundamentales).
Es cierto que algunos problemas importantes pueden ser resueltos de muy
buena manera, pero seguimos hablando de máquinas muy diferentes,
diseñadas para situaciones muy específicas, que difícilmente sustituirán a
las actuales. El mundo clásico es otro tipo de mundo, por lo que no
llevamos la máquina rota a la mecánica cuántica. Una de las mayores
dificultades es que estos dispositivos son muy sensibles a las interferencias
con el mundo exterior: si un solo rayo cósmico hace un estado de cambio de
qubits, todo el cálculo se va al infierno. También son máquinas analógicas,
diseñadas para simular un cálculo particular con un proceso particular, y por
lo tanto carecen de la universalidad típica de nuestros ordenadores, en los
que se ejecutan programas de varios tipos que nos hacen calcular todo lo
que queremos. También es muy difícil construirlos en la práctica. Para que
los ordenadores cuánticos se hagan realidad y para que valga la pena
invertir tiempo y dinero en ellos, tendremos que resolver complejos
problemas de fiabilidad y encontrar algoritmos utilizables.
Uno de estos algoritmos potencialmente efectivos es la factorización de
grandes números (en el sentido de descomponerlos en factores primos,
como 21=3×7). Desde el punto de vista clásico, es relativamente fácil
multiplicar los números entre sí, pero en general es muy difícil hacer la
operación inversa, es decir, encontrar los factores de un coloso como:
3 204 637 196 245 567 128 917 346 493 902 297 904 681 379
Este problema tiene importantes aplicaciones en el campo de la criptografía
y es candidato a ser la punta de lanza de la computación cuántica, porque no
es solucionable con las calculadoras clásicas.
Mencionemos también la extraña teoría del matemático inglés Roger
Penrose que concierne a nuestra conciencia. Un ser humano es capaz de
realizar ciertos tipos de cálculos a la velocidad del rayo, como una
calculadora, pero lo hace con métodos muy diferentes. Cuando jugamos al
ajedrez contra una computadora, por ejemplo, asimilamos una gran cantidad
de datos sensoriales y los integramos rápidamente con la experiencia para
contrarrestar una máquina que funciona de manera algorítmica y
sistemática. La computadora siempre da resultados correctos, el cerebro
humano a veces no: somos eficientes pero inexactos. Hemos sacrificado la
precisión para aumentar la velocidad.
Según Penrose, la sensación de ser consciente es la suma coherente de
muchas posibilidades, es decir, es un fenómeno cuántico. Por lo tanto,
según él, somos a todos los efectos computadoras cuánticas. Las funciones
de onda que usamos para producir resultados a nivel computacional están
quizás distribuidas no sólo en el cerebro sino en todo el cuerpo. En su
ensayo "Sombras de la mente", Penrose tiene la hipótesis de que las
funciones de onda de la conciencia residen en los misteriosos microtúbulos
de las neuronas. Interesante, por decir lo menos, pero todavía falta una
verdadera teoría de la conciencia.
Sea como fuere, la computación cuántica podría encontrar su razón de ser
arrojando luz sobre el papel de la información en la física básica. Tal vez
tengamos éxito tanto en la construcción de nuevas y poderosas máquinas
como en alcanzar una nueva forma de entender el mundo cuántico, tal vez
más en sintonía con nuestras percepciones cambiantes, menos extrañas,
fantasmales, perturbadoras. Si esto realmente sucede, será uno de los raros
momentos en la historia de la ciencia en que otra disciplina (en este caso la
teoría de la información, o tal vez de la conciencia) se fusiona con la física
para arrojar luz sobre su estructura básica.
Gran final
Concluyamos nuestra historia resumiendo las muchas preguntas filosóficas
que esperan respuesta: ¿cómo puede la luz ser tanto una partícula como una
onda? ¿hay muchos mundos o sólo uno? ¿hay un código secreto
verdaderamente impenetrable? ¿qué es la realidad a nivel fundamental?
¿están las leyes de la física reguladas por muchos lanzamientos de dados?
¿tienen sentido estas preguntas? la respuesta es quizás "tenemos que
acostumbrarnos a estas rarezas"? ¿dónde y cuándo tendrá lugar el próximo
gran salto científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica. Hemos
entrado en la armonía de relojería del universo clásico de Newton, con sus
leyes deterministas. Podríamos habernos detenido allí, en un sentido real y
metafórico, en esa reconfortante realidad (aunque sin teléfonos móviles).
Pero no lo hicimos. Hemos penetrado en los misterios de la electricidad y el
magnetismo, fuerzas que sólo en el siglo XIX se unieron y tejieron en el
tejido de la física clásica, gracias a Faraday y Maxwell. Nuestros
conocimientos parecían entonces tan completos que a finales de siglo hubo
quienes predijeron el fin de la física. Todos los problemas que valía la pena
resolver parecían estar resueltos: bastaba con añadir algunos detalles, que
sin duda entrarían en el marco de las teorías clásicas. Al final de la línea,
abajo vamos; los físicos pueden abrigarse e irse a casa.
Pero todavía había algún fenómeno incomprensible aquí y allá. Las brasas
ardientes son rojas, mientras que según los cálculos deberían ser azules. ¿Y
por qué no hay rastros de éter? ¿Por qué no podemos ir más rápido que un
rayo de luz? Tal vez la última palabra no se ha dicho todavía. Pronto, el
universo sería revolucionado por una nueva y extraordinaria generación de
científicos: Einstein, Bohr, Schrödinger, Heisenberg, Pauli, Dirac y otros,
todos entusiastas de la idea.
Por supuesto, la vieja y querida mecánica newtoniana sigue funcionando
bien en muchos casos, como el movimiento de los planetas, cohetes, bolas y
máquinas de vapor. Incluso en el siglo veintisiete, una bola lanzada al aire
seguirá la elegante parábola clásica. Pero después de 1900, o más bien
1920, o mejor aún 1930, aquellos que quieren saber cómo funciona
realmente el mundo atómico y subatómico se ven obligados a cambiar de
idea y entrar en el reino de la física cuántica y su intrínseca naturaleza
probabilística. Un reino que Einstein nunca aceptó completamente.
Sabemos que el viaje no ha sido fácil. El omnipresente experimento de la
doble rendija puede causar migrañas. Pero fue sólo el comienzo, porque
después vinieron las vertiginosas alturas de la función de onda de
Schrödinger, la incertidumbre de Heisenberg y la interpretación de
Copenhague, así como varias teorías perturbadoras. Nos encontramos con
gatos vivos y muertos al mismo tiempo, rayos de luz que se comportan
como ondas y partículas, sistemas físicos vinculados al observador, debates
sobre el papel de Dios como el jugador de dados supremo... Y cuando todo
parecía tener sentido, aquí vienen otros rompecabezas: el principio de
exclusión de Pauli, la paradoja EPR, el teorema de Bell. No es material para
conversaciones agradables en fiestas, incluso para adeptos de la Nueva Era
que a menudo formulan una versión equivocada de la misma. Pero nos
hemos hecho fuertes y no nos hemos rendido, incluso ante alguna ecuación
inevitable.
Fuimos aventureros y le dimos al público ideas tan extrañas que podían ser
títulos de episodios de Star Trek: "Muchos mundos", "Copenhague" (que en
realidad también es una obra de teatro), "Las cuerdas y la teoría M", "El
paisaje cósmico" y así sucesivamente. Esperamos que hayan disfrutado del
viaje y que ahora, como nosotros, tengan una idea de lo maravilloso y
profundamente misterioso que es nuestro mundo.
En el nuevo siglo se avecina el problema de la conciencia humana. Tal vez
pueda explicarse por los estados cuánticos. Aunque no son pocos los que
piensan así, no es necesariamente así - si dos fenómenos son desconocidos
para nosotros, no están necesariamente conectados.
La mente humana juega un papel en la mecánica cuántica, como recordarán,
es decir, cuando la medición entra en juego. El observador (su mente)
interfiere con el sistema, lo que podría implicar un papel de la conciencia en
el mundo físico. ¿La dualidad mente-cuerpo tiene algo que ver con la
mecánica cuántica? A pesar de todo lo que hemos descubierto
recientemente sobre cómo el cerebro codifica y manipula la información
para controlar nuestro comportamiento, sigue siendo un gran misterio:
¿cómo es posible que estas acciones neuroquímicas conduzcan al "yo", a la
"vida interior"? ¿Cómo se genera la sensación de ser quienes somos?
No faltan críticos de esta correlación entre lo cuántico y la mente, entre
ellos el descubridor de ADN Francis Crick, quien en su ensayo Science and
the Soul escribe: "El yo, mis alegrías y tristezas, mis recuerdos y
ambiciones, mi sentido de la identidad personal y el libre albedrío, no son
más que el resultado de la actividad de un número colosal de neuronas y
neurotransmisores".
Esperamos que este sea sólo el comienzo de su viaje y que continúe
explorando las maravillas y aparentes paradojas de nuestro universo
cuántico.

También podría gustarte