Está en la página 1de 140

FÍSICA CUÁNTICA PARA

PRINCIPIANTES:

Los conceptos más interesantes de la


Física Cuántica hechos simples y
prácticos | Sin matemáticas difíciles
Tabla de contenido
Capítulo 1 UNA AGRADABLE SORPRESA
Capítulo 2 El comienzo
Capítulo 3 Lo que es la luz
Capítulo 4 SU MAESTREADO SR. PLANCK
Capítulo 5 Un incierto Heisenberg
Capítulo 6 Quantum
Capítulo 7 Einstein y Bohr
Capítulo 8 La física cuántica en los tiempos actuales
Capítulo 9 El tercer milenio
Capítulo 1
UNA AGRADABLE SORPRESA

ntes de la era cuántica, la ciencia vivía de pronunciamientos


A decisivos sobre las causas y efectos de los movimientos: objetos
bien definidos se movían a lo largo de trayectorias precisas, en
respuesta a la acción de varias fuerzas. Pero la ciencia que ahora
llamamos clásica, que surgió de las nieblas de una larga historia y
duró hasta finales del siglo XIX, pasó por alto el hecho de que cada
objeto estaba realmente compuesto por un número gigantesco de
átomos. En un grano de arena, por ejemplo, hay varios miles de
millones de ellos.
Antes de la era cuántica, cualquiera que observara un fenómeno era
como un extraterrestre del espacio, mirando a la Tierra desde arriba
y sólo notando los movimientos de grandes multitudes de miles y
miles de personas. Tal vez los vieron marchando en filas compactas,
o aplaudiendo, o apurando el trabajo, o dispersándose por las
calles. Pero nada de lo que observaron podría prepararlos para lo
que verían al centrar su atención en los individuos. A nivel individual,
los humanos mostraron un comportamiento que no podía ser
deducido del de las multitudes - cosas como la risa, el afecto, la
compasión y la creatividad. Los extraterrestres, tal vez las sondas
robóticas o los insectos evolucionados, pueden no haber tenido las
palabras adecuadas para describir lo que vieron cuando nos
observaron de cerca. Por otro lado, incluso nosotros hoy, con toda la
literatura y la poesía acumulada a lo largo de milenios, a veces no
podemos comprender plenamente las experiencias individuales de
otros seres humanos.
A principios del siglo XX ocurrió algo similar. El complejo edificio de
la física, con sus predicciones exactas sobre el comportamiento de
los objetos, es decir, las multitudes de átomos, se derrumbó de
repente. Gracias a nuevos y sofisticados experimentos, realizados
con gran habilidad, fue posible estudiar las propiedades no sólo de
los átomos individuales, sino también de las partículas más
pequeñas de las que estaban hechas. Era como pasar de escuchar
un conjunto orquestal a cuartetos, tríos y solos. Y los átomos
parecían comportarse de manera desconcertante a los ojos de los
más grandes físicos de la época, que despertaban del sueño de la
época clásica. Fueron exploradores de un mundo sin precedentes,
el equivalente a la vanguardia poética, artística y musical de la
época. Entre ellos se encontraban los más famosos: Heinrich Hertz,
Ernest Rutherford, J. J. Thomson, Niels Bohr, Marie Curie, Werner
Heisenberg, Erwin Schrödinger, Paul Dirac, Louis-Victor de Broglie,
Albert Einstein, Max Born, Max Planck y Wolfgang Pauli. La
conmoción que sintieron después de hurgar en el interior de los
átomos fue igual a la que la tripulación de la Enterprise debió
experimentar en su primer encuentro con una civilización alienígena
encontrada en la inmensidad del cosmos. La confusión producida
por el examen de los nuevos datos estimuló gradualmente los
primeros intentos desesperados de los físicos de restaurar cierto
orden y lógica en su ciencia. A finales de la década de 1920 se
podía decir que la estructura fundamental del átomo era
ampliamente conocida, y se podía aplicar a la química y la física de
la materia ordinaria. La humanidad había comenzado a entender
realmente lo que estaba sucediendo en el nuevo y extraño mundo
cuántico.
Pero mientras que la tripulación de la Enterprise siempre podía ser
teletransportada lejos de los mundos más hostiles, los físicos de
principios del siglo XX no retrocedieron: se dieron cuenta de que las
extrañas leyes que estaban descubriendo eran fundamentales y
subyacentes al comportamiento de toda la materia del universo.
Dado que todo, incluidos los humanos, está hecho de átomos, es
imposible escapar a las consecuencias de lo que ocurre a nivel
atómico. Descubrimos un mundo alienígena, y ese mundo está
dentro de nosotros!
Las impactantes consecuencias de sus descubrimientos molestaron
a no pocos científicos de la época. Un poco como las ideologías
revolucionarias, la física cuántica consumió a muchos de sus
profetas. En este caso la ruina no vino de maquinaciones políticas o
conspiraciones de los adversarios, sino de desconcertantes y
profundos problemas filosóficos que tenían que ver con la idea de la
realidad. Cuando, hacia finales de la década de 1920, quedó claro
para todos que se había producido una verdadera revolución en la
física, muchos de los que le habían dado el empujón inicial, incluida
una figura del calibre de Albert Einstein, se arrepintieron y dieron la
espalda a la teoría que habían contribuido significativamente a crear.
Sin embargo, hoy, bien entrado el siglo XXI, usamos la física
cuántica y la aplicamos a mil situaciones. Gracias a ustedes, por
ejemplo, hemos inventado los transistores, los láseres, la energía
atómica y un sinfín de cosas más. Algunos físicos, incluso físicos
destacados, continúan usando toda su fuerza para encontrar una
versión más suave de la mecánica cuántica para nuestro sentido
común, menos destructiva que la idea común de la realidad. Pero
sería bueno contar con la ciencia, no con algún paliativo.
Antes de la era cuántica, la física había logrado muy bien describir
los fenómenos que ocurren ante nuestros ojos, resolver problemas
en un mundo de escaleras firmemente apoyadas en las paredes,
flechas y balas de cañón lanzadas según trayectorias precisas,
planetas que orbitan y giran sobre sí mismos, cometas que regresan
al tiempo esperado, máquinas de vapor que hacen su trabajo útil,
telégrafos y motores eléctricos. En resumen, a principios del siglo
XX casi todos los fenómenos macroscópicos observables y
medibles habían encontrado una explicación coherente dentro de la
llamada física clásica. Pero el intento de aplicar las mismas leyes al
extraño mundo microscópico de los átomos resultó increíblemente
difícil, con profundas implicaciones filosóficas. La teoría que parecía
surgir, la teoría cuántica, iba completamente en contra del sentido
común.
Nuestra intuición se basa en experiencias pasadas, por lo que
podemos decir que incluso la ciencia clásica, en este sentido, fue a
veces contraintuitiva, al menos para la gente de la época. Cuando
Galileo descubrió las leyes del movimiento ideal en ausencia de
fricción, sus ideas se consideraron extremadamente atrevidas (en
un mundo en el que nadie o casi nadie había pensado en descuidar
los efectos de la fricción)2. Pero la física clásica que surgió de sus
intuiciones logró redefinir el sentido común durante tres siglos, hasta
el siglo XX. Parecía ser una teoría sólida, resistente a los cambios
radicales - hasta que la física cuántica irrumpió en escena, llevando
a un choque existencial como nunca antes.
Para entender realmente el comportamiento de los átomos, para
crear una teoría que estuviera de acuerdo con los datos
aparentemente contradictorios que salieron de los laboratorios en
los años 30, era necesario actuar de manera radical, con una nueva
audacia. Las ecuaciones, que hasta entonces calculaban con
precisión la dinámica de los acontecimientos, se convirtieron en
instrumentos para obtener abanicos de posibilidades, cada una de
las cuales podía ocurrir con una probabilidad determinada. Las leyes
de Newton, con sus certezas (de ahí el término "determinismo
clásico") fueron sustituidas por las ecuaciones de Schrödinger y las
desconcertantes construcciones matemáticas de Heisenberg, que
hablaban el lenguaje de la indeterminación y el matiz.
¿Cómo se manifiesta esta incertidumbre en la naturaleza, a nivel
atómico? En varias áreas, de las cuales podemos dar un primer y
simple ejemplo aquí. La física atómica nos dice que dada una cierta
cantidad de material radiactivo, digamos uranio, la mitad se
transformará por un proceso llamado "decadencia" y desaparecerá
antes de un período fijo de tiempo, llamado "vida media" o "vida
media". Después de otro intervalo de tiempo igual a la vida media,
los átomos restantes se reducirán de nuevo a la mitad (así, después
de un tiempo hasta dos vidas medias, la cantidad de uranio presente
al principio se reducirá a un cuarto del original; después de tres
vidas medias, a un octavo; y así sucesivamente). Gracias a la
mecánica cuántica y a algunas ecuaciones complicadas, somos
capaces de calcular en principio el valor de la vida media del uranio,
y de muchas otras partículas fundamentales. Podemos poner a
trabajar a equipos de físicos teóricos y obtener muchos resultados
interesantes. Sin embargo, somos absolutamente incapaces de
predecir cuando un átomo de uranio en particular se descompondrá.
Este es un resultado asombroso. Si los átomos de uranio siguieran
las leyes de la física clásica newtoniana, habría algún mecanismo
en funcionamiento que, siempre que hagamos los cálculos con
precisión, nos permitiría predecir exactamente cuándo decaerá un
determinado átomo. Las leyes cuánticas no ofrecen mecanismos
deterministas y nos proporcionan probabilidades y datos borrosos
no por simple desconocimiento del problema, sino por razones más
profundas: según la teoría, la probabilidad de que el decaimiento de
ese átomo se produzca en un determinado período es todo lo que
podemos conocer.
Pasemos a otro ejemplo. Consideremos dos fotones idénticos (las
partículas de las que está hecha la luz) y disparémoslos en dirección
a una ventana. Hay varias alternativas: ambos rebotan en el vidrio,
ambos lo cruzan, uno rebota y el otro lo cruza. Bueno, la física
cuántica no es capaz de predecir cómo se comportarán los fotones
individuales, cuyo futuro ni siquiera conocemos en principio. Sólo
podemos calcular la probabilidad con la que las diversas alternativas
sucederán - por ejemplo, que el fotón sea rechazado en un 10% y
aumente al 90%, pero nada más. La física cuántica puede parecer
vaga e imprecisa en este punto, pero en realidad proporciona los
procedimientos correctos (los únicos procedimientos correctos, para
ser precisos) que nos permiten comprender cómo funciona la
materia. También es la única manera de entender el mundo atómico,
la estructura y el comportamiento de las partículas, la formación de
las moléculas, el mecanismo de la radiación (la luz que vemos
proviene de los átomos). Gracias a ella pudimos, en un segundo
tiempo, penetrar en el núcleo, entender cómo los quarks que forman
protones y neutrones se unen, cómo el Sol obtiene su gigantesca
energía, y más.
Pero ¿cómo es posible que la física de Galileo y Newton, tan
trágicamente inadecuada para describir los movimientos atómicos,
pueda predecir con unas pocas y elegantes ecuaciones los
movimientos de los cuerpos celestes, fenómenos como los eclipses
o el regreso del cometa Halley en 2061 (un jueves por la tarde) y las
trayectorias de las naves espaciales? Gracias a la física clásica
podemos diseñar las alas de aviones, rascacielos y puentes
capaces de soportar fuertes vientos y terremotos, o robots capaces
de realizar cirugías de alta precisión. ¿Por qué todo funciona tan
bien, si la mecánica cuántica nos muestra tan claramente que el
mundo no funciona en absoluto como pensábamos?
Esto es lo que sucede: cuando enormes cantidades de átomos se
unen para formar objetos macroscópicos, como en los ejemplos que
acabamos de hacer (aviones, puentes y robots), los inquietantes y
contra-intuitivos fenómenos cuánticos, con su carga de
incertidumbre, parecen anularse entre sí y devuelven los fenómenos
a los cimientos de la precisa previsibilidad de la física newtoniana.
La razón por la que esto sucede, en el dinero, es de naturaleza
estadística. Cuando leemos que el promedio de miembros de las
familias americanas es igual a 2.637 individuos nos enfrentamos a
un dato preciso y determinístico. Lástima, sin embargo, que ninguna
familia tenga exactamente 2.637 miembros.
En el siglo XXI la mecánica cuántica se ha convertido en la columna
vertebral de todas las investigaciones en el mundo atómico y
subatómico, así como de amplios sectores de las ciencias de los
materiales y la cosmología. Los frutos de la nueva física generan
miles de miles de millones de dólares cada año, gracias a la
industria electrónica, y otros tantos se derivan de las mejoras en la
eficiencia y la productividad que son posibles gracias al uso
sistemático de las leyes cuánticas. Sin embargo, algunos físicos
algo rebeldes, impulsados por los vítores de cierto tipo de filósofos,
siguen buscando un significado más profundo, un principio oculto
dentro de la mecánica cuántica en el que se encuentra el
determinismo. Pero es una minoría.
¿Por qué la física cuántica es perturbadora desde el punto de vista
psicológico?
En un famoso pasaje de una carta a Max Born, Einstein escribió:
"Usted cree que Dios juega a los dados con el mundo, yo creo en
cambio que todo obedece a una ley, en un mundo de realidad
objetiva que trato de captar por medios furiosamente especulativos
[...] Ni siquiera el gran éxito inicial de la teoría cuántica logra
convencerme de que en la base de todo hay azar, aunque sé que
los colegas más jóvenes consideran esta actitud como un efecto de
la esclerosis. 3 Erwin Schrödinger pensaba de manera similar: "Si
hubiera sabido que mi ecuación de onda se usaría de esta manera,
habría quemado el artículo antes de publicarlo [...] No me gusta y
me arrepiento de haber tenido algo que ver con ello".4 ¿Qué
perturbó a estas eminentes figuras, tanto que se vieron obligadas a
negar su hermosa creación? Entremos en un pequeño detalle sobre
estas lamentaciones, en la protesta de Einstein contra un Dios que
"juega a los dados". El punto de inflexión de la teoría cuántica
moderna se remonta a 1925, precisamente a las solitarias
vacaciones que el joven físico alemán Werner Heisenberg pasó en
Helgoland, una pequeña isla del Mar del Norte donde se había
retirado para encontrar alivio a la fiebre del heno. Allí tuvo una idea
revolucionaria.
La comunidad científica apoyó cada vez más la hipótesis de que los
átomos estaban compuestos por un núcleo central más denso
rodeado por una nube de electrones, similar a los planetas que
orbitan el Sol. Heisenberg examinó el comportamiento de estos
electrones y se dio cuenta de que para sus cálculos no era
necesario conocer sus trayectorias precisas alrededor del núcleo.
Las partículas parecían saltar misteriosamente de una órbita a otra y
en cada salto los átomos emitían luz de un cierto color (los colores
reflejan la frecuencia de las ondas de luz). Desde un punto de vista
matemático, Heisenberg había logrado encontrar una descripción
sensata de estos fenómenos, pero involucraba un modelo de átomo
diferente al de un diminuto sistema solar, con los planetas
confinados en órbitas inmutables. Al final abandonó el cálculo de la
trayectoria de un electrón que se mueve de la posición observada A
a B, porque se dio cuenta de que cualquier medida de la partícula
en ese tiempo interferiría necesariamente con su comportamiento.
Así que Heisenberg elaboró una teoría que tomaba en cuenta los
colores de la luz emitida, pero sin requerir el conocimiento de la
trayectoria precisa seguida por el electrón. Al final sólo importaba
que un determinado evento fuera posible y que sucediera con una
cierta probabilidad. La incertidumbre se convirtió en una
característica intrínseca del sistema: nació la nueva realidad de la
física cuántica.
La revolucionaria solución de Heisenberg a los problemas
planteados por una serie de desconcertantes datos experimentales
desató la imaginación de su mentor, Niels Bohr, padre, abuelo y
obstetra de la nueva teoría. Bohr llevó las ideas del joven colega al
extremo, tanto que el propio Heisenberg se vio inicialmente
perturbado. Finalmente cambió de opinión y se convirtió al nuevo
verbo, lo que muchos de sus eminentes colegas se negaron a hacer.
Bohr había razonado de esta manera: si conocer el camino que ha
recorrido un determinado electrón no es relevante para el cálculo de
los fenómenos atómicos, entonces la idea misma de "órbita", de una
trayectoria establecida como la de un planeta alrededor de una
estrella, debe ser abandonada por carecer de sentido. Todo se
reduce a la observación y a la medición: el acto de medir obliga al
sistema a elegir entre las distintas posibilidades. En otras palabras,
no es la incertidumbre de la medición lo que oculta la realidad; por el
contrario, es la realidad misma la que nunca proporciona certeza en
el sentido clásico-galileo del término, cuando se examinan los
fenómenos a escala atómica.
En la física cuántica parece haber un vínculo mágico entre el estado
físico de un sistema y su percepción consciente por parte de un
observador sensible. Pero es el mismo acto de medir, es decir, la
llegada de otro sistema a la escena, lo que restablece todas las
posibilidades menos una, haciendo que el estado cuántico
"colapse", como se dice, en una de las muchas alternativas.
Veremos cuán inquietante puede ser esto más adelante, cuando nos
encontremos con electrones que pasan de uno en uno a través de
dos rendijas en una pantalla y que forman configuraciones que
dependen del conocimiento de la rendija precisa por la que pasaron,
es decir, si alguien o algo ha hecho una medición en el sistema.
Parece que un solo electrón, como por arte de magia, pasa por las
dos rendijas al mismo tiempo si nadie lo está observando, mientras
que elige un posible camino si alguien o algo lo está observando!
Esto es posible porque los electrones no son ni partículas ni ondas:
son algo más, completamente nuevo. Han sido cuánticos.6
No es de extrañar que muchos de los pioneros de la nueva física,
que habían participado en la creación de la ciencia atómica, fueran
reacios a aceptar estas extrañas consecuencias. La mejor manera
de dorar la píldora y hacer que las tesis de Heisenberg y Bohr sean
aceptadas es la llamada "interpretación de Copenhague". Según
esta versión de los hechos, cuando medimos un sistema a escala
atómica introducimos en el propio sistema una importante
interferencia, dada por los instrumentos de medición. Pero
cualquiera que sea la interpretación que demos, la física cuántica no
corresponde a nuestras ideas intuitivas de la realidad. Debemos
aprender a vivir con ella, a jugar con ella, a verificar su bondad con
experimentos, a imaginar problemas teóricos que ejemplifiquen
diversas situaciones, a hacerla cada vez más familiar. De esta
manera podríamos desarrollar una nueva "intuición cuántica", por
muy contraria al sentido común que pueda parecer en un principio.
En 1925, independientemente de las ideas de Heisenberg, otro
físico teórico tenía otra idea fundamental, también mientras estaba
de vacaciones (aunque no solo). Fue el vienés Erwin Schrödinger,
quien había formado un vínculo de amistad y colaboración científica
con su colega Hermann Weyl. Este último fue un matemático de
gran valor, que desempeñó un papel decisivo en el desarrollo de la
teoría de la relatividad y la versión relativista de la teoría del
electrón. Weyl ayudó a Schrödinger con los cálculos y como
compensación pudo dormir con su esposa Anny. No sabemos qué
pensaba la mujer sobre el asunto, pero experimentos sociales de
este tipo no eran infrecuentes en el crepúsculo de la sociedad
intelectual vienesa. Este acuerdo también incluía la posibilidad de
que Schrödinger se embarcara en mil aventuras extramatrimoniales,
una de las cuales condujo (en cierto sentido) a un gran
descubrimiento en el campo cuántico7.
En diciembre de 1925, Schrödinger se fue de vacaciones durante
veinte días a Arosa, un pueblo de los Alpes suizos. Dejando a Anny
en casa, fue acompañado por una vieja llama vienesa. También
puso un artículo científico de su colega francés Louis de Broglie y
tapones para los oídos en su maleta. Mientras se concentraba en su
escritura, al abrigo de ruidos molestos (y quién sabe qué hacía la
señora mientras tanto), se le ocurrió la idea de la llamada "mecánica
de las olas". Era una forma nueva y diferente de formalizar la
naciente teoría cuántica en términos matemáticamente más
sencillos, gracias a ecuaciones que eran generalmente bien
conocidas por los principales físicos de la época. Esta revolucionaria
idea fue un gran apoyo para la entonces frágil teoría cuántica, que
llegó a ser conocida por un número mucho mayor de personas . La
nueva ecuación, que en honor a su descubridor se llama "ecuación
de Schrödinger", por un lado, aceleró el camino de la mecánica
cuántica, pero por otro, volvió loco a su inventor por la forma en que
fue interpretada. Es sorprendente leer el arrepentimiento de
Schrödinger, debido a la revolución científica y filosófica provocada
por sus ideas.
La idea era esta: describir el electrón con las herramientas
matemáticas utilizadas para las ondas. Esta partícula, que antes se
pensaba que estaba modelada como una bola microscópica, a
veces se comporta como una onda. La física de las ondas
(fenómenos que se encuentran en muchas áreas, desde el agua
hasta el sonido, desde la luz hasta la radio, etc.) era entonces bien
conocida. Schrödinger estaba muy convencido de que una partícula
como el electrón era realmente una onda de un nuevo tipo, una
"onda de materia", por así decirlo. Parecía una hipótesis de
bizcocho, pero la ecuación resultante era útil en los cálculos y
proporcionaba resultados concretos de manera relativamente
sencilla. La mecánica ondulatoria de Schrödinger dio consuelo a
aquellos sectores de la comunidad científica cuyos miembros tenían
grandes dificultades para comprender la aparentemente imparable
teoría cuántica y que encontraban la versión de Heisenberg
demasiado abstracta para su gusto.
El punto central de la idea de Schrödinger es el tipo de solución de
la ecuación que describe la onda. Está escrito por convención con la
letra griega mayúscula psi, Ψ - la llamada "función de onda". Ψ es
una función en las variables espacio y tiempo que contiene toda la
información sobre el electrón. La ecuación de Schrödinger, por lo
tanto, nos dice cómo varía la función de la onda a medida que
cambia el espacio y el tiempo.
Aplicada al átomo de hidrógeno, la ecuación de Schrödinger
permitió descubrir el comportamiento del electrón alrededor del
núcleo. Las ondas electrónicas determinadas por Ψ se asemejaban
a las ondas sonoras producidas por una campana o algún otro
instrumento musical. Es como tocar las cuerdas de un violín o una
guitarra: el resultado son vibraciones que corresponden de manera
precisa y observable a varios niveles de energía. La ecuación de
Schrödinger proporcionó los valores correctos de estos niveles
correspondientes a las oscilaciones del electrón. Los datos en el
caso del átomo de hidrógeno ya habían sido determinados por Bohr
en su primer intento de arreglo teórico (que hoy en día se denomina
con cierta suficiencia "vieja teoría cuántica"). El átomo emite luz con
niveles de energía bien definidos (las llamadas "líneas espectrales")
que gracias a la mecánica cuántica hoy sabemos que están
conectadas a los saltos del electrón, que pasa de un estado de
movimiento asociado a la onda digamos Ψ2 al asociado a la onda
Ψ1.
La ecuación de Schrödinger demostró ser una herramienta
poderosa, gracias a la cual las funciones de onda pueden ser
determinadas a través de métodos puramente matemáticos. La
misma idea podría aplicarse no sólo a los electrones, sino a
cualquier fenómeno que requiriera un tratamiento a nivel cuántico:
sistemas compuestos por varios electrones, átomos enteros,
moléculas, cristales, metales conductores, protones y neutrones en
el núcleo. Hoy hemos extendido el método a todas las partículas
compuestas por quarks, los bloques de construcción fundamentales
de la materia nuclear.
Para Schrödinger, los electrones eran ondas puras y simples,
similares a las ondas marinas o de sonido, y su naturaleza de
partículas podía ser pasada por alto como ilusoria. Ψ representaba
ondas de un nuevo tipo, las de la materia. Pero al final, esta
interpretación suya resultó ser errónea. ¿Qué era realmente Ψ?
Después de todo, los electrones siguieron comportándose como si
fueran partículas puntuales, que se podían ver cuando chocaban
con una pantalla fluorescente, por ejemplo. ¿Cómo se reconcilió
este comportamiento con la naturaleza ondulatoria?
Otro físico alemán, Max Born (quien, por cierto, fue un antepasado
de la cantante Olivia Newton-John), propuso una nueva
interpretación de la ecuación de Schrödinger, que sigue siendo una
piedra angular de la física actual. Según él, la onda asociada con el
electrón era la llamada "onda de probabilidad "10 . Para ser
precisos, el cuadrado de Ψ(x, t), es decir, Ψ2(x, t), era la
probabilidad de encontrar el electrón en el punto x en el tiempo t.
Cuando el valor de Ψ2 es alto, hay una fuerte probabilidad de
encontrar el electrón. Donde Ψ2=0, por otro lado, no hay ninguna
posibilidad. Fue una propuesta impactante, similar a la de
Heisenberg, pero tuvo el mérito de ser más fácil de entender, porque
fue formulada dentro del terreno más familiar de la ecuación de
Schrödinger. Casi todo el mundo estaba convencido y el asunto
parecía cerrado.
La hipótesis de Born establece claramente que no sabemos y nunca
podremos saber dónde está el electrón. ¿Está ahí? Bueno, hay un
85% de probabilidades de que así sea. ¿Está en el otro lado? No
podemos descartarlo, hay un 15% de posibilidades. La
interpretación de Born también define sin vacilación lo que puede o
no puede predecirse en los experimentos, y no excluye el caso de
que dos pruebas aparentemente idénticas den resultados muy
diferentes. Parece que las partículas pueden permitirse el lujo de
estar donde están en un momento determinado sin tener que
obedecer las estrictas reglas de causalidad que suelen asociarse a
la física clásica. La teoría cuántica parece como si Dios estuviera
jugando a los dados con el universo.
Schrödinger no estaba contento de haber sido protagonista de esa
inquietante revolución. Junto con Einstein, quien irónicamente
escribió un artículo en 1911 que dio a Born la inspiración para su
idea, permaneció en el campo de los disidentes toda su vida. Otro
"transeúnte" fue el gran Max Planck, quien escribió: "La
interpretación probabilística propuesta por el grupo de Copenhague
debe ser condenada sin falta, por alta traición contra nuestro querido
físico".
Planck era uno de los más grandes físicos teóricos activos a
principios de siglo, y a él tampoco le gustaba el pliegue que había
tomado la teoría cuántica. Era la paradoja suprema, ya que él había
sido el verdadero progenitor de la nueva física, además de haber
acuñado el término "cuántico" ya a finales del siglo XIX.
Tal vez podamos entender al científico que habla de "traición" con
respecto a la entrada de la probabilidad en las leyes de la física en
lugar de certezas sólidas de causa y efecto. Imaginemos que
tenemos una pelota de tenis normal y la hacemos rebotar contra un
muro de hormigón liso. No nos movemos del punto donde lo
lanzamos y seguimos golpeándolo con la misma fuerza y apuntando
en la misma dirección. Bajo las mismas condiciones de límite (como
el viento), un buen jugador de tenis debe ser capaz de llevar la
pelota exactamente al mismo lugar, tiro tras tiro, hasta que se canse
o la pelota (o la pared) se rompa. Un campeón como André Agassi
contaba con estas características del mundo físico para desarrollar
en el entrenamiento las habilidades que le permitieron ganar
Wimbledon. ¿Pero qué pasaría si el rebote no fuera predecible? ¿O
si en alguna ocasión la bola pudo incluso cruzar la pared? ¿Y si sólo
se conoce la probabilidad del fenómeno? Por ejemplo, cincuenta y
cinco veces de cada cien la pelota regresa, las otras cuarenta y
cinco pasan a través de la pared. Y así sucesivamente, para todo:
también hay una probabilidad de que pase a través de la barrera
formada por la raqueta. Sabemos que esto nunca sucede en el
mundo macroscópico y newtoniano de los torneos de tenis. Pero a
nivel atómico todo cambia. Un electrón disparado contra el
equivalente de una pared de partículas tiene una probabilidad
diferente de cero de atravesarla, gracias a una propiedad conocida
como "efecto túnel". Imagine el tipo de dificultad y frustración que un
jugador de tenis encontraría en el mundo subatómico.
Sin embargo, hay casos en los que se observa un comportamiento
no determinante en la realidad cotidiana, especialmente en la de los
fotones. Miras a través del escaparate de una tienda llena de ropa
interior sexy, y te das cuenta de que se ha formado una imagen
descolorida de ti mismo en los zapatos del maniquí. ¿Por qué? El
fenómeno se debe a la naturaleza de la luz, una corriente de
partículas (fotones) con extrañas propiedades cuánticas. Los
fotones, que suponemos que vienen del Sol, en su mayoría rebotan
en tu cara, atraviesan el cristal y muestran una imagen clara de ti
(pero no eres malo) a la persona que está dentro de la tienda (tal
vez el escaparatista que está vistiendo el maniquí). Pero una
pequeña parte de los fotones se refleja en el vidrio y proporciona a
los ojos el tenue retrato de su rostro perdido en la contemplación de
esas ropas microscópicas. ¿Pero cómo es posible, ya que todos los
fotones son idénticos?
Incluso con los experimentos más sofisticados, no hay manera de
predecir lo que pasará con los fotones. Sólo conocemos la
probabilidad del evento: aplicando la ecuación de Schrödinger,
podemos calcular que las partículas luminosas pasan a través de la
ventana 96 veces de cada 100 y rebotan las 4 veces restantes.
¿Somos capaces de saber lo que hace el fotón único? No, de
ninguna manera, ni siquiera con los mejores instrumentos
imaginables. Dios tira los dados cada vez para decidir por dónde
pasar la partícula, o al menos eso es lo que nos dice la física
cuántica (tal vez prefiere la ruleta... lo que sea, está claro que juega
con probabilidades).
Para replicar la situación de la vitrina en un contexto experimental (y
mucho más costoso), disparamos electrones contra una barrera
formada por una red de cables conductores dentro de un contenedor
al vacío, conectados al polo negativo de una batería con un voltaje
igual, por ejemplo, a 10 voltios. Un electrón con una energía
equivalente a un potencial de 9 voltios debe ser reflejado, porque no
puede contrarrestar la fuerza de repulsión de la barrera. Pero la
ecuación de Schrödinger nos dice que una parte de la onda
asociada con el electrón todavía se las arregla para pasar a través
de ella, tal como lo hizo con los fotones con el vidrio. Pero en
nuestra experiencia no hay "fracciones" de fotón o electrón: estas
partículas no están hechas de plastilina y no se pueden desprender
pedazos de ellas a voluntad. Así que el resultado final siempre debe
ser uno, es decir, la reflexión o el cruce. Si los cálculos nos dicen
que la primera eventualidad ocurre en el 20 por ciento de los casos,
esto significa que todo el electrón o fotón se refleja con una
probabilidad del 20 por ciento. Lo sabemos gracias a la ecuación de
Schrödinger, que nos da el resultado en términos de Ψ2.
Fue precisamente con la ayuda de experimentos análogos que los
físicos abandonaron la interpretación original de Schrödinger, que
preveía electrones de "plastilina", es decir, ondas de materia, para
llegar a la mucho menos intuitiva probabilística, según la cual una
cierta función matemática, Ψ2, proporcionaba la probabilidad de
encontrar partículas en una determinada posición en un instante
dado. Si disparamos mil electrones contra una pantalla y
comprobamos con un contador Geiger cuántos de ellos pasan por
ella, podemos encontrar que 568 han pasado y 432 se han reflejado.
¿A cuál de ellos le afectó esto? No hay forma de saberlo, ni ahora ni
nunca. Esta es la frustrante realidad de la física cuántica. Todo lo
que podemos hacer es calcular la probabilidad del evento, Ψ2.
Schrödinger tenía un gatito...
Al examinar las paradojas filosóficas que aporta la teoría cuántica no
podemos pasar por alto el ya famoso caso del gato de Schrödinger,
en el que el divertido mundo microscópico con sus leyes
probabilísticas está ligado al macroscópico con sus precisos
pronunciamientos newtonianos. Al igual que Einstein, Podolsky y
Rosen, Schrödinger no quería aceptar el hecho de que la realidad
objetiva no existía antes de la observación, sino que se encontraba
en una maraña de estados posibles. Su paradoja del gato fue
originalmente pensada como una forma de burlarse de una visión
del mundo que era insostenible para él, pero ha demostrado ser una
de las pesadillas más tenaces de la ciencia moderna hasta el día de
hoy. Esto también, como el EPR, es un experimento mental o
conceptual, diseñado para hacer que los efectos cuánticos se
manifiesten de manera resonante incluso en el campo
macroscópico. Y también hace uso de la radiactividad, un fenómeno
que implica el decaimiento de la materia según una tasa predecible,
pero sin saber exactamente cuándo se desintegrará la única
partícula (es decir, como hemos visto anteriormente, podemos decir
cuántas partículas decaerán en una hora, por ejemplo, pero no
cuándo lo hará una de ellas).
Esta es la situación imaginada por Schrödinger. Encerramos un gato
dentro de una caja junto con un frasco que contiene un gas
venenoso. Por otro lado, ponemos una pequeña y bien sellada
cantidad de material radioactivo para tener un 50% de posibilidades
de ver una sola descomposición en el espacio de una hora.
Inventemos algún tipo de dispositivo que conecte el contador Geiger
que detecta la descomposición a un interruptor, que a su vez activa
un martillo, que a su vez golpea el vial, liberando así el gas y
matando al gato (por supuesto estos intelectuales vieneses de
principios del siglo XX eran muy extraños...).
Dejemos pasar una hora y preguntémonos: ¿el gato está vivo o
muerto? Si describimos el sistema con una función de onda,
obtenemos un estado "mixto "15 como el que se ha visto
anteriormente, en el que el gato es "embadurnado" (pedimos
disculpas a los amantes de los gatos) a partes iguales entre la vida y
la muerte. En los símbolos podríamos escribir Ψgatto-vivo + Ψgatto-
morto. A nivel macroscópico, sólo podemos calcular la probabilidad
de encontrar al gato vivo, igual a (Ψgatto-live)2, y la de encontrarlo
muerto, igual a (Ψgatto-dead)2.
Pero aquí está el dilema: ¿el colapso del estado cuántico inicial en
el "gato vivo" o en el "gato muerto" está determinado por el
momento en que alguien (o algo) se asoma a la caja? ¿No podría
ser el propio gato, angustiado al mirar el contador Geiger, la entidad
capaz de tomar la medida? O, si queremos una crisis de identidad
más profunda: la desintegración radiactiva podría ser monitoreada
por una computadora, que en cualquier momento es capaz de
imprimir el estado del gato en una hoja de papel dentro de la caja.
Cuando la computadora registra la llegada de la partícula, ¿el gato
está definitivamente vivo o muerto? ¿O es cuando la impresión del
estado está terminada? ¿O cuando un observador humano lo lee?
¿O cuando el flujo de electrones producido por la descomposición
se encuentra con un sensor dentro del contador Geiger que lo
activa, es decir, cuando pasamos del mundo subatómico al
macroscópico? La paradoja del gato de Schrödinger, como la del
EPR, parece a primera vista una fuerte refutación de los principios
fundamentales de la física cuántica. Está claro que el gato no puede
estar en un estado "mixto", mitad vivo y mitad muerto. ¿O puede?
Como veremos mejor más adelante, algunos experimentos han
demostrado que el gato visible de Schrödinger, que representa a
todos los sistemas macroscópicos, puede estar realmente en un
estado mixto; en otras palabras, la teoría cuántica implica la
existencia de estas situaciones también a nivel macroscópico. Otra
victoria para la nueva física.
Los efectos cuánticos, de hecho, pueden ocurrir a varias escalas,
desde el más pequeño de los átomos hasta el más grande de los
sistemas. Un ejemplo de ello es la llamada "superconductividad",
por la que a muy bajas temperaturas ciertos materiales no tienen
resistencia eléctrica y permiten que la corriente circule infinitamente
sin la ayuda de baterías, y que los imanes permanezcan
suspendidos sobre los circuitos para siempre. Lo mismo ocurre con
la "superfluidez", un estado de la materia en el que, por ejemplo, un
flujo de helio líquido puede subir por las paredes de un tubo de
ensayo o alimentar fuentes perpetuas, sin consumir energía. Y lo
mismo ocurre con el misterioso fenómeno gracias al cual todas las
partículas adquieren masa, el llamado "mecanismo de Higgs". No
hay forma de escapar de la mecánica cuántica: al final, todos somos
gatos encerrados en alguna caja.
No hay matemáticas, lo prometo, pero sólo unos pocos números...
Con este libro queremos dar una idea de las herramientas que la
física ha desarrollado para intentar comprender el extraño mundo
microscópico habitado por los átomos y las moléculas. Pedimos a
los lectores sólo dos pequeños esfuerzos: tener un sano sentido de
la curiosidad por el mundo y dominar las técnicas avanzadas de
resolución de ecuaciones diferenciales con derivadas parciales. Muy
bien, bromeamos. Después de años de dar cursos de física
elemental a estudiantes de facultades no científicas, sabemos lo
extendido que está el terror a las matemáticas entre la población. No
hay fórmulas, entonces, o al menos el mínimo, unas pocas y
dispersas aquí y allá.
La visión científica del mundo debería ser enseñada a todo el
mundo. La mecánica cuántica, en particular, es el cambio de
perspectiva más radical que se ha producido en el pensamiento
humano desde que los antiguos griegos comenzaron a abandonar el
mito en favor de la búsqueda de principios racionales en el universo.
Gracias a la nueva teoría, nuestra comprensión del mundo se ha
ampliado enormemente. El precio pagado por la ciencia moderna
por esta ampliación de los horizontes intelectuales ha sido la
aceptación de muchas ideas aparentemente contrarias a la intuición.
Pero recuerden que la culpa de esto recae principalmente en
nuestro viejo lenguaje newtoniano, que es incapaz de describir con
precisión el mundo atómico. Como científicos, prometemos hacer lo
mejor posible.
Como estamos a punto de entrar en el reino de lo infinitamente
pequeño, es mejor que usemos la conveniente notación de los
"poderes de diez". No se asuste por esta taquigrafía científica que a
veces usaremos en el libro: es sólo un método para registrar sin
esfuerzo números muy grandes o muy pequeños. Si ves escrito por
ejemplo 104 ("diez elevado a la cuarta potencia", o "diez a la
cuarta"), todo lo que tienes que hacer es traducirlo como "uno
seguido de cuatro ceros": 104=10000. Por el contrario, 10-4 indica
"uno precedido de cuatro ceros", uno de los cuales debe estar
obviamente antes de la coma: 10-4=0,0001, es decir, 1/10000, una
diezmilésima.
Usando este simple lenguaje, veamos cómo expresar las escalas en
las que ocurren varios fenómenos naturales, en orden descendente.
- 100 m=1 m, es decir un metro: es la típica escala humana, igual a
la altura de un niño, la longitud de un brazo o un escalón;
- 10-2 m=1 cm, es decir un centímetro: es el ancho de una pulgada,
el largo de una abeja o una avellana.
- 10-4 m, un décimo de milímetro: es el grosor de un alfiler o de las
patas de una hormiga; hasta ahora siempre estamos en el dominio
de aplicación de la física clásica newtoniana.
- 10-6 m, una micra o millonésima de metro: estamos al nivel de las
mayores moléculas que se encuentran en las células de los
organismos, como el ADN; también estamos en la longitud de onda
de la luz visible; aquí empezamos a sentir los efectos cuánticos.
- 10-9 m, un nanómetro o una milmillonésima parte de un metro:
este es el diámetro de un átomo de oro; el más pequeño de los
átomos, el átomo de hidrógeno, tiene un diámetro de 10-10 m.
- 10-15 m: estamos en las partes del núcleo atómico; los protones y
los neutrones tienen un diámetro de 10-16 m, y por debajo de esta
longitud encontramos los quarks.
- 10-19 m: es la escala más pequeña que se puede observar con el
acelerador de partículas más potente del mundo, el LHC del CERN
en Ginebra.
- 10-35 m: es la escala más pequeña que creemos que existe, bajo
la cual la misma idea de "distancia" pierde su significado debido a
los efectos cuánticos.
Los datos experimentales nos dicen que la mecánica cuántica es
válida y fundamental para la comprensión de los fenómenos de 10-9
a 10-15 metros, es decir, de los átomos a los núcleos (en palabras:
de una milmillonésima a una millonésima de una milmillonésima de
metro). En algunas investigaciones recientes, gracias al Tevatrón del
Fermilab, hemos podido investigar distancias del orden de 10-18
metros y no hemos visto nada que nos convenza del fracaso a esa
escala de la mecánica cuántica. Pronto penetraremos en territorios
más pequeños por un factor de diez, gracias al colosal LHC, el
acelerador del CERN que está a punto de empezar a funcionar.* La
exploración de estos nuevos mundos no es similar a la geográfica,
al descubrimiento de un nuevo continente hasta ahora desconocido.
Es más bien una investigación dentro de nuestro mundo, porque el
universo se compone de la colección de todos los habitantes del
dominio microscópico. De sus propiedades, y sus consecuencias,
depende nuestro futuro.
¿Por qué necesitamos una "teoría"?
Algunos de ustedes se preguntarán si una simple teoría vale la
pena. Bueno, hay teorías y teorías, y es culpa de nosotros los
científicos que usamos la misma palabra para indicar contextos muy
diferentes. En sí misma, una "teoría" no está ni siquiera
científicamente bien definida.
Tomemos un ejemplo un tanto trivial. Una población que vive a
orillas del Océano Atlántico nota que el Sol sale en el horizonte
todas las mañanas a las 5 a.m. y se pone en dirección opuesta
todas las tardes a las 7 p.m. Para explicar este fenómeno, un
venerable sabio propone una teoría: hay un número infinito de soles
ocultos bajo el horizonte, que aparecen cada 24 horas. Sin
embargo, hay una hipótesis que requiere menos recursos: todo lo
que se necesita es un solo Sol girando alrededor de la Tierra,
supuestamente esférico, en 24 horas. Una tercera teoría, la más
extraña y contraria a la intuición, argumenta en cambio que el Sol se
queda quieto y la Tierra gira sobre sí misma en 24 horas. Así que
tenemos tres ideas contradictorias. En este caso la palabra "teoría"
implica la presencia de una hipótesis que explica de manera racional
y sistemática por qué ocurre lo que observamos.
La primera teoría es fácilmente refutada, por muchas buenas
razones (o simplemente porque es idiota). Es más difícil deshacerse
del segundo; por ejemplo, se podría observar que los otros planetas
del cielo giran sobre sí mismos, así que por analogía la Tierra
debería hacer lo mismo. Sea como fuere, al final, gracias a precisas
mediciones experimentales, comprobamos que es nuestro mundo el
que gira. Así que sólo una teoría sobrevive, que llamaremos rotación
axial o RA.
Sin embargo, hay un problema: en toda la discusión anterior nunca
hablamos de "verdades" o "hechos", sólo de "teorías". Sabemos
muy bien que la RA tiene siglos de antigüedad, y sin embargo
todavía la llamamos "teoría copernicana", aunque estamos seguros
de que es verdad, que es un hecho establecido. En realidad,
queremos subrayar el hecho de que la hipótesis de la AR es la
mejor, en el sentido de que encaja mejor con las observaciones y
pruebas, que son muy diferentes e incluso realizadas en
circunstancias extremas. Hasta que tengamos una mejor
explicación, nos quedaremos con ésta. Sin embargo, seguimos
llamándolo teoría. Tal vez porque hemos visto en el pasado que las
ideas dadas por sentadas en algunas áreas han requerido cambios
en el cambio a diferentes áreas.
Así que hoy en día hablamos de "teoría de la relatividad", "teoría
cuántica", "teoría del electromagnetismo", "teoría darwiniana de la
evolución" y así sucesivamente, aunque sabemos que todas ellas
han alcanzado un mayor grado de credibilidad y aceptación
científica. Sus explicaciones de los diversos fenómenos son válidas
y se consideran "verdades objetivas" en sus respectivos ámbitos de
aplicación. También hay teorías propuestas pero no verificadas,
como la de las cuerdas, que parecen excelentes intentos, pero que
podrían ser aceptadas como rechazadas. Y hay teorías que se
abandonan definitivamente, como la del flogisto (un misterioso fluido
responsable de la combustión) y la calórica (un fluido igualmente
misterioso responsable de la transmisión del calor). Sin embargo,
hoy en día, la teoría cuántica es la mejor verificada de todas las
teorías científicas jamás propuestas. Aceptémoslo como un hecho:
es un hecho.
Basta con lo intuitivo, hurra por lo contrario.
A medida que nos acercamos a los nuevos territorios atómicos, todo
lo que la intuición sugiere se vuelve sospechoso y la información
acumulada hasta ahora puede ya no sernos útil. La vida cotidiana
tiene lugar dentro de una gama muy limitada de experiencias. No
sabemos, por ejemplo, lo que se siente al viajar un millón de veces
más rápido que una bala, o al soportar temperaturas de miles de
millones de grados; tampoco hemos bailado nunca en la luna llena
con un átomo o un núcleo. La ciencia, sin embargo, ha compensado
nuestra limitada experiencia directa con la naturaleza y nos ha
hecho conscientes de lo grande y lleno de cosas diferentes que es
el mundo ahí fuera. Para usar la metáfora querida por un colega
nuestro, somos como embriones de gallina que se alimentan de lo
que encuentran en el huevo hasta que se acaba la comida, y parece
que nuestro mundo también debe acabar; pero entonces intentamos
darle un pico a la cáscara, salir y descubrir un universo
inmensamente más grande e interesante.
Entre las diversas intuiciones típicas de un ser humano adulto está
la de que los objetos que nos rodean, ya sean sillas, lámparas o
gatos, existen independientemente de nosotros y tienen ciertas
propiedades objetivas. También creemos, basándonos en lo que
estudiamos en la escuela, que si repetimos un experimento en
varias ocasiones (por ejemplo, si dejamos que dos coches
diferentes circulen por una rampa) deberíamos obtener siempre los
mismos resultados. También es obvio, intuitivo, que una pelota de
tenis que pasa de una mitad de la cancha a otra tiene una posición y
velocidad definidas en todo momento. Basta con filmar el evento, es
decir, obtener una colección de instantáneas, conocer la situación
en varios momentos y reconstruir la trayectoria general del balón.
Estas intuiciones siguen ayudándonos en el mundo macroscópico,
entre máquinas y bolas, pero como ya hemos visto (y volveremos a
ver en el curso del libro), si bajamos al nivel atómico vemos que
ocurren cosas extrañas, que nos obligan a abandonar los
preconceptos que nos son tan queridos: prepárense para dejar sus
intuiciones en la entrada, queridos lectores. La historia de la ciencia
es una historia de revoluciones, pero no tiran todo el conocimiento
previo. El trabajo de Newton, por ejemplo, comprendió y amplió (sin
destruirlos) las investigaciones previas de Galileo, Kepler y
Copérnico. James Clerk Maxwell, inventor de la teoría del
electromagnetismo en el siglo XIX17 , tomó los resultados de
Newton y los usó para extender ciertos aspectos de la teoría a otros
campos. La relatividad einsteniana incorporó la física de Newton y
amplió su dominio hasta incluir casos en los que la velocidad es muy
alta o el espacio muy extendido, campos en los que las nuevas
ecuaciones son válidas (mientras que las antiguas siguen siendo
válidas en los demás casos). La mecánica cuántica partió de
Newton y Maxwell para llegar a una teoría coherente de los
fenómenos atómicos. En todos estos casos, el paso a las nuevas
teorías se hizo, al menos al principio, utilizando el lenguaje de las
antiguas; pero con la mecánica cuántica vemos el fracaso del
lenguaje clásico de la física anterior, así como de los lenguajes
humanos naturales.
Einstein y sus colegas disidentes se enfrentaron a nuestra propia
dificultad, es decir, entender la nueva física atómica a través del
vocabulario y la filosofía de los objetos macroscópicos. Tenemos
que aprender a entender que el mundo de Newton y Maxwell se
encuentra como consecuencia de la nueva teoría, que se expresa
en el lenguaje cuántico. Si fuéramos también tan grandes como los
átomos, habríamos crecido rodeados de fenómenos que nos serían
familiares; y tal vez un día un alienígena tan grande como un quark
nos preguntaría, "¿Qué clase de mundo crees que obtenemos si
juntamos 1023 átomos y formamos un objeto que yo llamo una
"bola"?
Tal vez sean los conceptos de probabilidad e indeterminación los
que desafían nuestras habilidades lingüísticas. Este no es un
pequeño problema que permanece en nuestros días y frustra incluso
a las grandes mentes. Se dice que el famoso físico teórico Richard
Feynman se negó a responder a un periodista que, durante una
entrevista, le pidió que explicara al público qué fuerza actuaba entre
dos imanes, alegando que era una tarea imposible. Más tarde,
cuando se le pidió una aclaración, dijo que era debido a
preconceptos intuitivos. El periodista y una gran parte de la
audiencia entienden la "fuerza" como lo que sentimos si
recompensamos
la palma de tu mano contra la mesa. Este es su mundo, y su
lenguaje. Pero en realidad el acto de poner la mano contra la mesa
implica fuerzas electromagnéticas, la cohesión de la materia, la
mecánica cuántica, es muy complicado. No fue posible explicar la
fuerza magnética pura en términos familiares a los habitantes del
"viejo mundo".
Como veremos, para entender la teoría cuántica debemos entrar en
un nuevo mundo. Es ciertamente el fruto más importante de las
exploraciones científicas del siglo XX, y será esencial a lo largo del
nuevo siglo. No está bien dejar que sólo los profesionales lo
disfruten.
Incluso hoy, a principios de la segunda década del siglo XXI,
algunos científicos ilustres siguen buscando con gran esfuerzo una
versión más "amistosa" de la mecánica cuántica que perturbe
menos nuestro sentido común. Pero estos esfuerzos hasta ahora
parecen no llevar a ninguna parte. Otros científicos simplemente
aprenden las reglas del mundo cuántico y hacen progresos, incluso
importantes, por ejemplo adaptándolas a nuevos principios de
simetría, utilizándolas para formular hipótesis sobre un mundo en el
que las cuerdas y las membranas sustituyen a las partículas
elementales, o imaginando lo que ocurre a escalas miles de millones
de veces más pequeñas que las que hemos alcanzado hasta ahora
con nuestros instrumentos. Esta última línea de investigación parece
la más prometedora y podría darnos una idea de lo que podría
unificar las diversas fuerzas y la propia estructura del espacio y el
tiempo.
Nuestro objetivo es hacerles apreciar la inquietante rareza de la
teoría cuántica, pero sobre todo las profundas consecuencias que
tiene en nuestra comprensión del mundo. Por nuestra parte,
creemos que el malestar se debe principalmente a nuestros
prejuicios. La naturaleza habla en un idioma diferente, que debemos
aprender, así como sería bueno leer a Camus en el francés original
y no en una traducción llena de argot americano. Si unos pocos
pasos nos hacen pasar un mal rato, tomemos unas buenas
vacaciones en Provenza y respiremos el aire de Francia, en lugar de
quedarnos en nuestra casa de los suburbios y tratar de adaptar el
lenguaje que usamos cada día a ese mundo tan diferente. En los
próximos capítulos intentaremos transportarle a un lugar que es
parte de nuestro universo y que al mismo tiempo va más allá de la
imaginación, y en los próximos capítulos también le enseñaremos el
lenguaje para entender el nuevo mundo.
Capítulo 2
El comienzo

Un factor de complicación
ntes de intentar comprender el vertiginoso universo cuántico, es
A necesario familiarizarse con algunos aspectos de las teorías
científicas que lo precedieron, es decir, con la llamada física
clásica. Este conjunto de conocimientos es la culminación de siglos
de investigación, iniciados incluso antes de la época de Galileo y
completados por genios como Isaac Newton, Michael Faraday,
James Clerk Maxwell, Heinrich Hertz y muchos otros2. La física
clásica, que reinó sin cuestionamientos hasta principios del siglo XX,
se basa en la idea de un universo de relojería: ordenado, predecible,
gobernado por leyes causales.
Para tener un ejemplo de una idea contraria a la intuición, tomemos
nuestra Tierra, que desde nuestro típico punto de vista parece
sólida, inmutable, eterna. Somos capaces de equilibrar una bandeja
llena de tazas de café sin derramar una sola gota, y sin embargo
nuestro planeta gira rápido sobre sí mismo. Todos los objetos de su
superficie, lejos de estar en reposo, giran con él como los pasajeros
de un colosal carrusel. En el Ecuador, la Tierra se mueve más rápido
que un jet, a más de 1600 kilómetros por hora; además, corre
desenfrenadamente alrededor del Sol a una increíble velocidad
media de 108.000 kilómetros por hora. Y para colmo, todo el
sistema solar, incluyendo la Tierra, viaja alrededor de la galaxia a
velocidades aún mayores. Sin embargo, no lo notamos, no sentimos
que estamos corriendo. Vemos el Sol saliendo por el este y
poniéndose por el oeste, y nada más. ¿Cómo es posible? Escribir
una carta mientras se monta a caballo o se conduce un coche a cien
millas por hora en la autopista es una tarea muy difícil, pero todos
hemos visto imágenes de astronautas haciendo trabajos de
precisión dentro de una estación orbital, lanzada alrededor de
nuestro planeta a casi 30.000 millas por hora. Si no fuera por el
globo azul que cambia de forma en el fondo, esos hombres que
flotan en el espacio parecen estar quietos.
La intuición generalmente no se da cuenta si lo que nos rodea se
mueve a la misma velocidad que nosotros, y si el movimiento es
uniforme y no acelerado no sentimos ninguna sensación de
desplazamiento. Los griegos creían que había un estado de reposo
absoluto, relativo a la superficie de la Tierra. Galileo cuestionó esta
venerable idea aristotélica y la reemplazó por otra más científica:
para la física no hay diferencia entre quedarse quieto y moverse con
dirección y velocidad constantes (incluso aproximadas). Desde su
punto de vista, los astronautas están quietos; vistos desde la Tierra,
nos están rodeando a una loca velocidad de 28.800 kilómetros por
hora.
El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos
de diferente peso caen a la misma velocidad y llegan al suelo al
mismo tiempo. Para casi todos sus contemporáneos, sin embargo,
estaba lejos de ser obvio, porque la experiencia diaria parecía decir
lo contrario. Pero el científico hizo los experimentos correctos para
probar su tesis, y también encontró una justificación racional: era la
resistencia del aire que barajaba las cartas. Para Galileo esto era
sólo un factor de complicación, que ocultaba la profunda simplicidad
de las leyes naturales. Sin aire entre los pies, todos los cuerpos
caen con la misma velocidad, desde la pluma hasta la roca colosal.
Se descubrió entonces que la atracción gravitatoria de la Tierra, que
es una fuerza, depende de la masa del objeto que cae, donde la
masa es una medida de la cantidad de materia contenida en el
propio objeto.
El peso, por otro lado, es la fuerza ejercida por la gravedad sobre
los cuerpos dotados de masa (recordarán que el profesor de física
en el instituto repetía: "Si transportas un objeto a la Luna, su masa
permanece igual, mientras que el peso se reduce". Hoy en día todo
esto está claro para nosotros gracias al trabajo de hombres como
Galileo). La fuerza de gravedad es directamente proporcional a la
masa: dobla la masa y también dobla la fuerza. Al mismo tiempo, sin
embargo, a medida que la masa crece, también lo hace la
resistencia a cambiar el estado de movimiento. Estos dos efectos
iguales y opuestos se anulan mutuamente y así sucede que todos
los cuerpos caen al suelo a la misma velocidad - como de
costumbre descuidando ese factor de fricción que se complica.
Para los filósofos de la antigua Grecia el estado de descanso
parecía obviamente el más natural para los cuerpos, a los que todos
tienden. Si pateamos una pelota, tarde o temprano se detiene; si
nos quedamos sin combustible en un auto, también se detiene; lo
mismo sucede con un disco que se desliza sobre una mesa. Todo
esto es perfectamente sensato y también perfectamente aristotélico
(esto del aristotelismo debe ser nuestro instinto innato).
Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho,
de que si se abisagraba la superficie de la mesa y se alisaba el
disco, continuaría funcionando durante mucho más tiempo;
podemos verificarlo, por ejemplo, deslizando un disco de hockey
sobre un lago helado. Eliminemos toda la fricción y otros factores
complicados, y veamos que el disco sigue deslizándose
interminablemente a lo largo de una trayectoria recta a una
velocidad uniforme. Esto es lo que causa el final del movimiento, dijo
Galileo: la fricción entre el disco y la mesa (o entre el coche y la
carretera), es un factor que complica.
Normalmente en los laboratorios de física hay una larga pista
metálica con numerosos pequeños agujeros por los que pasa el
aire. De esta manera, un carro colocado en el riel, el equivalente a
nuestro disco, puede moverse flotando en un cojinete de aire. En los
extremos de la barandilla hay parachoques de goma. Todo lo que se
necesita es un pequeño empujón inicial y el carro comienza a
rebotar sin parar entre los dos extremos, de ida y vuelta, a veces
durante toda la hora. Parece animado con su propia vida, ¿cómo es
posible? El espectáculo es divertido porque va en contra del sentido
común, pero en realidad es una manifestación de un principio
profundo de la física, que se manifiesta cuando eliminamos la
complicación de la fricción. Gracias a experimentos menos
tecnológicos pero igualmente esclarecedores, Galileo descubrió una
nueva ley de la naturaleza, que dice: "Un cuerpo aislado en
movimiento mantiene su estado de movimiento para siempre. Por
"aislado" nos referimos a que la fricción, las diversas fuerzas, o lo
que sea, no actúan sobre él. Sólo la aplicación de una fuerza puede
cambiar un estado de movimiento.
Es contraintuitivo, ¿no? Sí, porque es muy difícil imaginar un cuerpo
verdaderamente aislado, una criatura mitológica que no se
encuentra en casa, en el parque o en cualquier otro lugar de la
Tierra. Sólo podemos acercarnos a esta situación ideal en un
laboratorio, con equipos diseñados según las necesidades. Pero
después de presenciar alguna otra versión del experimento de la
pista de aire, los estudiantes de física de primer año suelen dar por
sentado el principio.
El método científico implica una cuidadosa observación del mundo.
Una de las piedras angulares de su éxito en los últimos cuatro siglos
es su capacidad para crear modelos abstractos, para referirse a un
universo ideal en nuestras mentes, desprovisto de las
complicaciones del real, donde podemos buscar las leyes de la
naturaleza. Después de haber logrado un resultado en este mundo,
podemos ir al ataque del otro, el más complicado, después de haber
cuantificado los factores de complicación como la fricción.
Pasemos a otro ejemplo importante. El sistema solar es realmente
intrincado. Hay una gran estrella en el centro, el Sol, y hay nueve (o
más bien ocho, después de la degradación de Plutón) cuerpos más
pequeños de varias masas que giran a su alrededor; los planetas a
su vez pueden tener satélites. Todos estos cuerpos se atraen entre
sí y se mueven según una compleja coreografía. Para simplificar la
situación, Newton redujo todo a un modelo ideal: una estrella y un
solo planeta. ¿Cómo se comportarían estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un
sistema complejo (ocho planetas y el Sol) y consideremos un
subconjunto más manejable del mismo (un planeta y el Sol). Ahora
quizás el problema pueda ser abordado (en este caso sí).
Resuélvelo y trata de entender qué características de la solución se
conservan en el retorno al sistema complejo de partida (en este
caso vemos que cada planeta se comporta prácticamente como si
estuviera solo, con mínimas correcciones debido a la atracción entre
los propios planetas).
El reduccionismo no siempre es aplicable y no siempre funciona.
Por eso todavía no tenemos una descripción precisa de objetos
como los tornados o el flujo turbulento de un fluido, sin mencionar
los complejos fenómenos a nivel de moléculas y organismos vivos.
El método resulta útil cuando el modelo ideal no se desvía
demasiado de su versión fea y caótica, en la que vivimos. En el caso
del sistema solar, la masa de la estrella es tan grande que es
posible pasar por alto la atracción de Marte, Venus, Júpiter y la
compañía cuando estudiamos los movimientos de la Tierra: el
sistema estrella + planeta proporciona una descripción aceptable de
los movimientos de la Tierra. Y a medida que nos familiarizamos con
este método, podemos volver al mundo real y hacer un esfuerzo
extra para tratar de tener en cuenta el siguiente factor de
complicación en orden de importancia.
La parábola y el péndulo
La física clásica, o física precuántica, se basa en dos piedras
angulares. La primera es la mecánica galileo-newtoniana, inventada
en el siglo XVII. La segunda está dada por las leyes de la
electricidad, el magnetismo y la óptica, descubiertas en el siglo XIX
por un grupo de científicos cuyos nombres, quién sabe por qué,
todos recuerdan algunas unidades de cantidad física: Coulomb,
Ørsted, Ohm, Ampère, Faraday y Maxwell. Comencemos con la
obra maestra de Newton, la continuación de la obra de nuestro
héroe Galileo.
Los cuerpos salieron en caída libre, con una velocidad que aumenta
a medida que pasa el tiempo según un valor fijo (la tasa de variación
de la velocidad se llama aceleración). Una bala, una pelota de tenis,
una bala de cañón, todas describen en su movimiento un arco de
suprema elegancia matemática, trazando una curva llamada
parábola. Un péndulo, es decir, un cuerpo atado a un cable colgante
(como un columpio hecho por un neumático atado a una rama, o un
viejo reloj), oscila con una regularidad notable, de modo que
(precisamente) se puede ajustar el reloj. El Sol y la Luna atraen las
aguas de los mares terrestres y crean mareas. Estos y otros
fenómenos pueden ser explicados racionalmente por las leyes de
movimiento de Newton.
Su explosión creativa, que tiene pocos iguales en la historia del
pensamiento humano, lo llevó en poco tiempo a dos grandes
descubrimientos. Para describirlos con precisión y comparar sus
predicciones con los datos, utilizó un lenguaje matemático particular
llamado cálculo infinitesimal, que tuvo que inventar en su mayor
parte desde cero. El primer descubrimiento, normalmente
denominado "las tres leyes del movimiento", se utiliza para calcular
los movimientos de los cuerpos una vez conocidas las fuerzas que
actúan sobre ellos (Newton podría haber presumido así: "Dame las
fuerzas y un ordenador lo suficientemente potente y te diré lo que
ocurrirá en el futuro". Pero parece que nunca lo dijo).
Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil
maneras: a través de cuerdas, palos, músculos humanos, viento,
presión del agua, imanes y así sucesivamente. Una fuerza natural
particular, la gravedad, fue el centro del segundo gran
descubrimiento de Newton. Describiendo el fenómeno con una
ecuación de asombrosa sencillez, estableció que todos los objetos
dotados de masa se atraen entre sí y que el valor de la fuerza de
atracción disminuye a medida que aumenta la distancia entre los
objetos, de esta manera: si la distancia se duplica, la fuerza se
reduce en una cuarta parte; si se triplica, en una novena parte; y así
sucesivamente. Es la famosa "ley de la inversa del cuadrado",
gracias a la cual sabemos que podemos hacer que el valor de la
fuerza de gravedad sea pequeño a voluntad, simplemente
alejándonos lo suficiente. Por ejemplo, la atracción ejercida sobre un
ser humano por Alfa Centauri, una de las estrellas más cercanas (a
sólo cuatro años luz), es igual a una diez milésima de una
milmillonésima, o 10-13, de la ejercida por la Tierra. Por el contrario,
si nos acercáramos a un objeto de gran masa, como una estrella de
neutrones, la fuerza de gravedad resultante nos aplastaría hasta el
tamaño de un núcleo atómico. Las leyes de Newton describen la
acción de la gravedad sobre todo: manzanas que caen de los
árboles, balas, péndulos y otros objetos situados en la superficie de
la Tierra, donde casi todos pasamos nuestra existencia. Pero
también se aplican a la inmensidad del espacio, por ejemplo entre la
Tierra y el Sol, que están en promedio a 150 millones de kilómetros
de distancia.
¿Estamos seguros, sin embargo, de que estas leyes todavía se
aplican fuera de nuestro planeta? Una teoría es válida si
proporciona valores de acuerdo con los datos experimentales
(teniendo en cuenta los inevitables errores de medición). Piensa: la
evidencia muestra que las leyes de Newton funcionan bien en el
sistema solar. Con muy buena aproximación, los planetas
individuales pueden ser estudiados gracias a la simplificación vista
anteriormente, es decir, descuidando los efectos de los demás y
sólo teniendo en cuenta el Sol. La teoría newtoniana predice que los
planetas giran alrededor de nuestra estrella siguiendo órbitas
perfectamente elípticas. Pero si examinamos bien los datos, nos
damos cuenta de que hay pequeñas discrepancias en el caso de
Marte, cuya órbita no es exactamente la predicha por la
aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente
pequeños) efectos en el planeta rojo de cuerpos como la Tierra,
Venus, Júpiter y así sucesivamente. Este último, en particular, es
muy grande y le da a Marte un buen golpe cada vez que se acerca a
sus órbitas. A largo plazo, estos efectos se suman. No es imposible
que dentro de unos pocos miles de millones de años Marte sea
expulsado del sistema solar como un concursante de un reality
show. Así que vemos que el problema de los movimientos
planetarios se vuelve más complejo si consideramos los largos
intervalos de tiempo. Pero gracias a los ordenadores modernos
podemos hacer frente a estas pequeñas (y no tan pequeñas)
perturbaciones - incluyendo las debidas a la teoría de la relatividad
general de Einstein, que es la versión moderna de la gravitación
newtoniana. Con las correcciones correctas, vemos que la teoría
siempre está en perfecto acuerdo con los datos experimentales. Sin
embargo, ¿qué podemos decir cuando entran en juego distancias
aún mayores, como las que hay entre las estrellas? Las mediciones
astronómicas más modernas nos dicen que la fuerza de gravedad
está presente en todo el cosmos y, por lo que sabemos, se aplica en
todas partes.
Tomemos un momento para contemplar una lista de fenómenos que
tienen lugar según la ley de Newton. Las manzanas caen de los
árboles, en realidad se dirigen hacia el centro de la Tierra. Las balas
de artillería siembran la destrucción después de los arcos de
parábola. La Luna se asoma a sólo 384.000 kilómetros de nosotros
y causa mareas y languidez romántica. Los planetas giran alrededor
del Sol en órbitas ligeramente elípticas, casi circulares. Los
cometas, por otro lado, siguen trayectorias muy elípticas y tardan
cientos o miles de años en dar un giro y volver a mostrarse. Desde
el más pequeño al más grande, los ingredientes del universo se
comportan de manera perfectamente predecible, siguiendo las leyes
descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz

ntes de dejar atrás la física clásica, tenemos que pasar unos


A minutos hablando sobre la luz y jugando con ella, porque será la
protagonista de muchas cuestiones importantes (y al principio
desconcertantes) cuando empecemos a entrar en el mundo
cuántico. Así que ahora haremos una mirada histórica a la teoría de
la luz en el mundo clásico.1
La luz es una forma de energía. Puede producirse de diversas
maneras, ya sea transformando la energía eléctrica (como se ve,
por ejemplo, en una bombilla, o en el enrojecimiento de las
resistencias de las tostadoras) o la energía química (como en las
velas y los procesos de combustión en general). La luz solar,
consecuencia de las altas temperaturas presentes en la superficie
de nuestra estrella, proviene de procesos de fusión nuclear que
tienen lugar en su interior. E incluso las partículas radiactivas
producidas por un reactor nuclear aquí en la Tierra emiten una luz
azul cuando entran en el agua (que se ionizan, es decir, arrancan
electrones de los átomos).
Todo lo que se necesita es una pequeña cantidad de energía
inyectada en cualquier sustancia para calentarla. A pequeña escala,
esto puede sentirse como un aumento moderado de la temperatura
(como saben los que disfrutan del bricolaje los fines de semana, los
clavos se calientan después de una serie de martillazos, o si se
arrancan de la madera con unas pinzas). Si suministramos
suficiente energía a un trozo de hierro, éste comienza a emitir
radiación luminosa; inicialmente es de color rojizo, luego a medida
que aumenta la temperatura vemos aparecer en orden los tonos
naranja, amarillo, verde y azul. Al final, si el calor es lo
suficientemente alto, la luz emitida se convierte en blanca, el
resultado de la suma de todos los colores.
La mayoría de los cuerpos que nos rodean, sin embargo, son
visibles no porque emitan luz, sino porque la reflejan. Excluyendo el
caso de los espejos, la reflexión es siempre imperfecta, no total: un
objeto rojo se nos aparece como tal porque refleja sólo este
componente de la luz y absorbe naranja, verde, violeta y así
sucesivamente. Los pigmentos de pintura son sustancias químicas
que tienen la propiedad de reflejar con precisión ciertos colores, con
un mecanismo selectivo. Los objetos blancos, en cambio, reflejan
todos los componentes de la luz, mientras que los negros los
absorben todos: por eso el asfalto oscuro de un aparcamiento se
calienta en los días de verano, y por eso en los trópicos es mejor
vestirse con ropas de colores claros. Estos fenómenos de absorción,
reflexión y calentamiento, en relación con los diversos colores,
tienen propiedades que pueden ser medidas y cuantificadas por
diversos instrumentos científicos.
La luz está llena de rarezas. Aquí estás, te vemos porque los rayos
de luz reflejados por tu cuerpo llegan a nuestros ojos. ¡Qué
interesante! Nuestro amigo mutuo Edward está observando el piano
en su lugar: los rayos de la interacción entre tú y nosotros
(normalmente invisibles, excepto cuando estamos en una habitación
polvorienta o llena de humo) se cruzan con los de la interacción
entre Edwar y el piano sin ninguna interferencia aparente. Pero si
concentramos en un objeto los rayos producidos por dos linternas,
nos damos cuenta de que la intensidad de la iluminación se duplica,
por lo que hay una interacción entre los rayos de luz.
Examinemos ahora la pecera. Apagamos la luz de la habitación y
encendemos una linterna. Ayudándonos con el polvo suspendido en
el aire, tal vez producido por el golpeteo de dos borradores de
pizarrón o un trapo de polvo, vemos que los rayos de luz se doblan
cuando golpean el agua (y también que el pobre pececillo nos
observa perplejo, esperando con esperanza el alimento). Este
fenómeno por el cual las sustancias transparentes como el vidrio
desvían la luz se denomina refracción. Cuando los Boy Scouts
encienden un fuego concentrando los rayos del sol en un trozo de
madera seca a través de una lente, aprovechan esta propiedad: la
lente curva todos los rayos de luz haciendo que se concentren en un
punto llamado "fuego", y esto aumenta la cantidad de energía hasta
el punto en que desencadena la combustión.
Un prisma de vidrio es capaz de descomponer la luz en sus
componentes, el llamado "espectro". Estos corresponden a los
colores del arco iris: rojo, naranja, amarillo, verde, azul, índigo y
violeta (para memorizar la orden recuerde las iniciales RAGVAIV).
Nuestros ojos reaccionan a este tipo de luz, llamada "visible", pero
sabemos que también hay tipos invisibles. En un lado del espectro
se encuentra el llamado rango de onda larga "infrarrojo" (de este
tipo, por ejemplo, es la radiación producida por ciertos calentadores,
por resistencias tostadoras o por las brasas de un fuego moribundo);
en el otro lado están los rayos "ultravioleta", de onda corta (un
ejemplo de esto es la radiación emitida por una máquina de
soldadura de arco, y por eso quienes la usan deben usar gafas
protectoras). La luz blanca, por lo tanto, es una mezcla de varios
colores en partes iguales. Con instrumentos especiales podemos
cuantificar las características de cada banda de color, más
adecuadamente su longitud de onda, y reportar los resultados en un
gráfico. Al someter cualquier fuente de luz a esta medición,
encontramos que el gráfico asume una forma de campana (véase la
fig. 4.1), cuyo pico se encuentra a una cierta longitud de onda (es
decir, de color). A bajas temperaturas, el pico corresponde a las
ondas largas, es decir, a la luz roja. A medida que el calor aumenta,
el máximo de la curva se desplaza hacia la derecha, donde se
encuentran las ondas cortas, es decir, la luz violeta, pero hasta
ciertos valores de temperatura la cantidad de otros colores es
suficiente para asegurar que la luz emitida permanezca blanca.
Después de estos umbrales, los objetos emiten un brillo azul. Si
miramos el cielo en una noche clara, notaremos que las estrellas
brillan con colores ligeramente diferentes: las que tienden a ser
rojizas son más frías que las blancas, que a su vez son más frías
que las azules. Estos tonos corresponden a diferentes etapas de la
evolución en la vida de las estrellas a medida que consumen su
combustible nuclear. Este simple documento de identidad de la luz
fue el punto de partida de la teoría cuántica, como veremos con más
detalle en un momento.
¿A qué velocidad viaja la luz?
El hecho de que la luz sea una entidad que "viaja" por el espacio,
por ejemplo de una bombilla a nuestra retina, no es del todo
intuitivo. En los ojos de un niño, la luz es algo que brilla, no que se
mueve. Pero eso es exactamente lo que es. Galileo fue uno de los
primeros en tratar de medir su velocidad, con la ayuda de dos
asistentes colocados en la cima de dos colinas cercanas que
pasaron la noche cubriendo y descubriendo dos linternas a horas
predeterminadas. Cuando veían la otra luz, tenían que comunicarla
en voz alta a un observador externo (el propio Galileo), que tomaba
sus medidas moviéndose a varias distancias de las dos fuentes.
Esta es una excelente manera de medir la velocidad del sonido, de
acuerdo con el mismo principio de que hay una cierta cantidad de
tiempo entre ver un rayo y escuchar un trueno. El sonido no es muy
rápido, va a unos 1200 por hora (o 330 metros por segundo), por lo
que el efecto es perceptible a simple vista: por ejemplo, se tarda 3
segundos antes de que el rayo venga de un relámpago que cae a un
kilómetro de distancia. Pero el simple experimento de Galileo no era
adecuado para medir la velocidad de la luz, que es enormemente
mayor.
En 1676 un astrónomo danés llamado Ole Römer, que en ese
momento trabajaba en el Observatorio de París, apuntó con su
telescopio a los entonces conocidos satélites de Júpiter (llamados
"galileos" o "Médicis" porque habían sido descubiertos por el
habitual Galileo menos de un siglo antes y dedicados por él a
Cosme de' Médicis). 2 Se concentró en sus eclipses y notó un
retraso con el que las lunas desaparecían y reaparecían detrás del
gran planeta; este pequeño intervalo de tiempo dependía
misteriosamente de la distancia entre la Tierra y Júpiter, que cambia
durante el año (por ejemplo, Ganímedes parecía estar a principios
de diciembre y a finales de julio). Römer entendió que el efecto se
debía a la velocidad finita de la luz, según un principio similar al del
retardo entre el trueno y el relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia
entre los dos planetas, que combinados con las precisas
observaciones de Römer permitieron calcular la velocidad de la luz:
dio como resultado un impresionante valor de 300.000 kilómetros
por segundo, inmensamente superior al del sonido. En 1850 Armand
Fizeau y Jean Foucault, dos hábiles experimentadores franceses en
feroz competencia entre sí, fueron los primeros en calcular esta
velocidad usando métodos directos, en la Tierra, sin recurrir a
mediciones astronómicas. Fue el comienzo de una carrera de
persecución entre varios científicos en busca del valor más preciso
posible, que continúa hasta hoy. El valor más acreditado hoy en día,
que en la física se indica con la letra c, es de 299792,45 kilómetros
por segundo. Observamos incidentalmente que esta c es la misma
que aparece en la famosa fórmula E=mc2. Lo encontraremos varias
veces, porque es una de las piezas principales de ese gran
rompecabezas llamado universo.
cambiado.
Thomas Young
En ese año un médico inglés con muchos intereses, incluyendo la
física, realizó un experimento que pasaría a la historia. Thomas
Young (1773-129) fue un niño prodigio: aprendió a leer a los dos
años, y a los seis ya había leído la Biblia entera dos veces y había
empezado a estudiar latín3 . Pronto se enfrentó a la filosofía, la
historia natural y el análisis matemático inventado por Newton;
también aprendió a construir microscopios y telescopios. Antes de
los veinte años aprendió hebreo, caldeo, arameo, la variante
samaritana del hebreo bíblico, turco, parsis y amárico. De 1792 a
1799 estudió medicina en Londres, Edimburgo y Göttingen, donde,
olvidando su educación cuáquera, también se interesó por la
música, la danza y el teatro. Se jactaba de que nunca había estado
ocioso un día. Obsesionado con el antiguo Egipto, este
extraordinario caballero, aficionado y autodidacta, fue uno de los
primeros en traducir jeroglíficos. La compilación del diccionario de
las antiguas lenguas egipcias fue una hazaña que lo mantuvo
literalmente ocupado hasta el día de su muerte.
Su carrera como médico fue mucho menos afortunada, quizás
porque no infundía confianza a los enfermos o porque carecía del je
ne sais quoi que necesitaba en sus relaciones con los pacientes. La
falta de asistencia a su clínica de Londres, sin embargo, le permitió
tomar tiempo para asistir a las reuniones de la Royal Society y
discutir con las principales figuras científicas de la época. Por lo que
nos interesa aquí, sus mayores descubrimientos fueron en el campo
de la óptica. Empezó a investigar el tema en 1800 y en siete años
estableció una extraordinaria serie de experimentos que parecían
confirmar la teoría ondulatoria de la luz con creciente confianza.
Pero antes de llegar a la más famosa, tenemos que echar un vistazo
a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los
poetas románticos. Veámoslos en la costa, libres para viajar. La
distancia entre dos crestas consecutivas (o entre dos vientres) se
denomina longitud de onda, mientras que la altura de la cresta en
relación con la superficie del mar en calma se denomina amplitud.
Las ondas se mueven a una cierta velocidad, que en el caso de la
luz, como ya hemos visto, se indica con c. Fijémoslo en un punto: el
período entre el paso de una cresta y la siguiente es un ciclo. La
frecuencia es la velocidad a la que se repiten los ciclos; si, por
ejemplo, vemos pasar tres crestas en un minuto, digamos que la
frecuencia de esa onda es de 3 ciclos/minuto. Tenemos que la
longitud de onda multiplicada por la frecuencia es igual a la
velocidad de la onda misma; por ejemplo, si la onda de 3
ciclos/minuto tiene una longitud de onda de 30 metros, esto significa
que se está moviendo a 90 metros por minuto, lo que equivale a 5,4
kilómetros por hora.
Ahora vemos un tipo de ondas muy familiares, esas ondas de
sonido. Vienen en varias frecuencias. Los audibles para el oído
humano van desde 30 ciclos/segundo de los sonidos más bajos
hasta 17000 ciclos/segundo de los de arriba. La nota "la centrale", o
la3, está fijada en 440 ciclos/segundo. La velocidad del sonido en el
aire, como ya hemos visto, es de unos 1200 km/h. Gracias a simples
cálculos y recordando que la longitud de onda es igual a la velocidad
dividida por la frecuencia, deducimos que la longitud de onda de la3
es (330 metros/segundo): (440 ciclos/segundo) = 0,75 metros. Las
longitudes de onda audibles por los humanos varían de (330
metros/segundo) : (440 ciclos/segundo) = 0,75 metros: (17 000
ciclos/segundo) = 2 centímetros a (330 metros/segundo) : (30
ciclos/segundo) = 11 metros. Es este parámetro, junto con la
velocidad del sonido, el que determina lo que ocurre con las ondas
sonoras cuando resuenan en un desfiladero, o se propagan en un
gran espacio abierto como un estadio, o llegan al público en un
teatro.
En la naturaleza hay muchos tipos de ondas: además de las ondas
marinas y sonoras, recordamos, por ejemplo, las vibraciones de las
cuerdas y las ondas sísmicas que sacuden la tierra bajo nuestros
pies. Todos ellos pueden describirse bien con la física clásica (no
cuántica). Las amplitudes se refieren de vez en cuando a diferentes
cantidades mensurables: la altura de la ola sobre el nivel del mar, la
intensidad de las ondas sonoras, el desplazamiento de la cuerda
desde el estado de reposo o la compresión de un resorte. En
cualquier caso, siempre estamos en presencia de una perturbación,
una desviación de la norma dentro de un medio de transmisión que
antes era tranquilo. La perturbación, que podemos visualizar como
el pellizco dado a una cuerda, se propaga en forma de onda. En el
reino de la física clásica, la energía transportada por este proceso
está determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su
línea. En la superficie se puede ver un flotador, que sirve tanto para
evitar que el anzuelo llegue al fondo como para señalar que algo ha
picado el cebo. El agua se ondula, y el flotador sube y baja
siguiendo las olas. Su posición cambia regularmente: del nivel cero
a una cresta, luego de vuelta al nivel cero, luego de vuelta a un
vientre, luego de vuelta al nivel cero y así sucesivamente. Este
movimiento cíclico está dado por una onda llamada armónica o
sinusoidal. Aquí lo llamaremos simplemente una ola.
Problemas abiertos
La teoría, en ese momento, no podía responder satisfactoriamente a
varias preguntas: ¿cuál es exactamente el mecanismo por el cual se
genera la luz? ¿cómo tiene lugar la absorción y por qué los objetos
de color absorben sólo ciertas longitudes de onda precisas, es decir,
los colores? ¿qué misteriosa operación en el interior de la retina nos
permite "ver"? Todas las preguntas que tenían que ver con la
interacción entre la luz y la materia. En este sentido, ¿cuál es la
forma en que la luz se propaga en el espacio vacío, como entre el
Sol y la Tierra? La analogía con las ondas sonoras y materiales nos
llevaría a pensar que existe un medio a través del cual se produce la
perturbación, una misteriosa sustancia transparente e ingrávida que
impregna el espacio profundo. En el siglo XIX se planteó la hipótesis
de que esta sustancia existía realmente y se la llamó éter.
Entonces todavía hay un misterio sobre nuestra estrella. Este
colosal generador de luz produce tanto luz visible como invisible,
entendiéndose por "luz invisible" la luz con una longitud de onda
demasiado larga (desde el infrarrojo) o demasiado corta (desde el
ultravioleta hacia abajo) para ser observada. La atmósfera de la
Tierra, principalmente la capa de ozono de la estratosfera superior,
bloquea gran parte de los rayos ultravioletas y ondas aún más
cortas, como los rayos X. Ahora imaginemos que hemos inventado
un dispositivo que nos permite sin demasiadas complicaciones
absorber la luz selectivamente, sólo en ciertas frecuencias, y medir
su energía.
Este dispositivo existe (incluso está presente en los laboratorios
mejor equipados de las escuelas secundarias) y se llama
espectrómetro. Es la evolución del prisma newtoniano, capaz de
descomponer la luz en varios colores desviando selectivamente sus
componentes según varios ángulos. Si insertamos un mecanismo
que permita una medición cuantitativa de estos ángulos, también
podemos determinar las respectivas longitudes de onda (que
dependen directamente de los propios ángulos).
Concentrémonos ahora en el punto donde el rojo oscuro se
desvanece en negro, es decir, en el borde de la luz visible. La escala
del espectrómetro nos dice que estamos en 7500 Å, donde la letra
"Å" es el símbolo del angstrom, una unidad de longitud nombrada en
honor al físico sueco Anders Jonas Ångström, uno de los pioneros
de la espectroscopia. Un angstrom es de 10-8 centímetros, que es
una cienmillonésima parte de un centímetro. Por lo tanto, hemos
descubierto que entre dos crestas de ondas de luz en el borde de la
pista visible corren 7500 Å, o 7,5 milésimas de centímetro. Para
longitudes mayores necesitamos instrumentos sensibles a los
infrarrojos y a las ondas largas. Si, por otro lado, vamos al otro lado
del espectro visible, en el lado violeta, vemos que la longitud de
onda correspondiente es de unos 3500 Å. Por debajo de este valor
los ojos no vienen en nuestra ayuda y necesitamos usar otros
instrumentos.
Hasta ahora todo bien, sólo estamos aclarando los resultados
obtenidos por Newton sobre la descomposición de la luz. En 1802,
sin embargo, el químico inglés William Wollaston apuntó un
espectrómetro en la dirección de la luz solar y descubrió que
además del espectro de colores ordenados de rojo a violeta había
muchas líneas oscuras y delgadas. ¿Qué era esto?
En este punto entra en escena Joseph Fraunhofer (1787-1826), un
bávaro con gran talento y poca educación formal, hábil fabricante de
lentes y experto en óptica10 . Después de la muerte de su padre, el
enfermizo encontró un empleo no cualificado como aprendiz en una
fábrica de vidrio y espejos en Munich. En 1806 logró unirse a una
compañía de instrumentos ópticos en la misma ciudad, donde con la
ayuda de un astrónomo y un hábil artesano aprendió los secretos de
la óptica a la perfección y desarrolló una cultura matemática.
Frustrado por la mala calidad del vidrio que tenía a su disposición, el
perfeccionista Fraunhofer rompió un contrato que le permitía espiar
los secretos industriales celosamente guardados de una famosa
cristalería suiza, que recientemente había trasladado sus
actividades a Munich. Esta colaboración dio como resultado lentes
técnicamente avanzadas y sobre todo, por lo que nos interesa aquí,
un descubrimiento fundamental que aseguraría a Fraunhofer un
lugar en la historia de la ciencia.
En su búsqueda de la lente perfecta, se le ocurrió la idea de usar el
espectrómetro para medir la capacidad de refracción de varios tipos
de vidrio. Al examinar la descomposición de la luz solar, notó que las
líneas negras descubiertas por Wollaston eran realmente muchas,
alrededor de seiscientas. Empezó a catalogarlas sistemáticamente
por longitud de onda, y para 1815 ya las había examinado casi
todas. Las más obvias estaban etiquetadas con las letras
mayúsculas de la A a la I, donde la A era una línea negra en la zona
roja y yo estaba en el límite extremo del violeta. ¿Por qué fueron
causadas? Fraunhofer conocía el fenómeno por el cual ciertos
metales o sales emitían luz de colores precisos cuando se exponían
al fuego; midió estos rayos con el espectrómetro y vio aparecer
muchas líneas claras en la región de las longitudes de onda
correspondientes al color emitido.
Lo interesante fue que su estructura era idéntica a la de las líneas
negras del espectro solar. La sal de mesa, por ejemplo, tenía
muchas líneas claras en la región que Fraunhofer había marcado
con la letra D. Un modelo explicativo del fenómeno tuvo que esperar
un poco más. Como sabemos, cada longitud de onda bien definida
corresponde únicamente a una frecuencia igualmente definida.
Tenía que haber un mecanismo en funcionamiento que hiciera vibrar
la materia, presumiblemente a nivel atómico, de acuerdo con ciertas
frecuencias establecidas. Los átomos (cuya existencia aún no había
sido probada en la época de Fraunhofer) dejaron huellas
macroscópicas.
Las huellas de los átomos
Como hemos visto arriba, un diapasón ajustado para "dar la señal"
vibra a una frecuencia de 440 ciclos por segundo. En el ámbito
microscópico de los átomos las frecuencias son inmensamente más
altas, pero ya en la época de Fraunhofer era posible imaginar un
mecanismo por el cual las misteriosas partículas estaban equipadas
con muchos equivalentes de diapasón muy pequeños, cada uno con
su propia frecuencia característica y capaces de vibrar y emitir luz
con una longitud de onda correspondiente a la propia frecuencia.
¿Y por qué entonces aparecen las líneas negras? Si los átomos de
sodio excitados por el calor de la llama vibran con frecuencias que
emiten luz entre 5911 y 5962 Å (valores que corresponden a tonos
de amarillo), es probable que, a la inversa, prefieran absorber la luz
con las mismas longitudes de onda. La superficie al rojo vivo del Sol
emite luz de todo tipo, pero luego pasa a través de la "corona", es
decir, los gases menos calientes de la atmósfera solar. Aquí es
donde se produce la absorción selectiva por parte de los átomos,
cada uno de los cuales retiene la luz de la longitud de onda que le
conviene; este mecanismo es responsable de las extrañas líneas
negras observadas por Fraunhofer. Una pieza a la vez, las
investigaciones posteriores han revelado que cada elemento,
cuando es excitado por el calor, emite una serie característica de
líneas espectrales, algunas agudas y nítidas (como las líneas de
neón de color rojo brillante), otras débiles (como el azul de las
lámparas de vapor de mercurio). Estas líneas son las huellas
dactilares de los elementos, y su descubrimiento fue una primera
indicación de la existencia de mecanismos similares a los
"diapasones" que se ven arriba (o alguna otra diablura) dentro de los
átomos.
Las líneas espectrales están muy bien definidas, por lo que es
posible calibrar el espectrómetro para obtener resultados muy
precisos, distinguiendo por ejemplo una luz con una longitud de
onda de 6503,2 Å (rojo oscuro) de otra de 6122,7 Å (rojo claro). A
finales del siglo XIX, se publicaron gruesos tomos que enumeraban
los espectros de todos los elementos entonces conocidos, gracias a
los cuales los más expertos en espectroscopia pudieron determinar
la composición química de compuestos desconocidos y reconocer
hasta la más mínima contaminación. Sin embargo, nadie tenía idea
de cuál era el mecanismo responsable de producir mensajes tan
claros. Cómo funcionaba el átomo seguía siendo un misterio.
Otro éxito de la espectroscopia fue de una naturaleza más profunda.
En la huella del Sol, increíblemente, se podían leer muchos
elementos en la Tierra: hidrógeno, helio, litio, etc. Cuando la luz de
estrellas y galaxias distantes comenzó a ser analizada, el resultado
fue similar. El universo está compuesto de los mismos elementos en
todas partes, siguiendo las mismas leyes de la naturaleza, lo que
sugiere que todo tuvo un origen único gracias a un misterioso
proceso físico de creación.
Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba
resolver otro problema: ¿cómo transmiten las fuerzas, y en particular
la gravedad, su acción a grandes distancias? Si unimos un carruaje
a un caballo, vemos que la fuerza utilizada por el animal para tirar
del vehículo se transmite directamente, a través de los arneses y las
barras. ¿Pero cómo "siente" la Tierra al Sol, que está a 150 millones
de kilómetros de distancia? ¿Cómo atrae un imán a un clavo a cierta
distancia? En estos casos no hay conexiones visibles, por lo que se
debe asumir una misteriosa "acción a distancia". Según la
formulación de Newton, la gravedad actúa a distancia, pero no se
sabe cuál es la "varilla" que conecta dos cuerpos como la Tierra y el
Sol. Después de haber luchado en vano con este problema, incluso
el gran físico inglés tuvo que rendirse y dejar que la posteridad se
ocupara de la materia.
¿Qué es un cuerpo negro y por qué estamos tan interesados en él?
Todos los cuerpos emiten energía y la absorben de sus alrededores.
Aquí por "cuerpo" nos referimos a un objeto grande, o
macroscópico, compuesto de muchos miles de millones de átomos.
Cuanto más alta es su temperatura, más energía emite.
Los cuerpos calientes, en todas sus partes (que podemos
considerar a su vez como cuerpos), tienden a alcanzar un equilibrio
entre el valor de la energía dada al ambiente externo y la absorbida.
Si, por ejemplo, tomas un huevo de la nevera y lo sumerges en una
olla llena de agua hirviendo, el huevo se calienta y la temperatura
del agua disminuye. Por el contrario, si se tira un huevo caliente en
agua fría, la transferencia de calor se produce en la dirección
opuesta. Si no se proporciona más energía, después de un tiempo
el huevo y el agua estarán a la misma temperatura. Este es un
experimento casero fácil de hacer, que ilustra claramente el
comportamiento de los cuerpos con respecto al calor. El estado final
en el que las temperaturas del huevo y del agua son iguales se
llama equilibrio térmico, y es un fenómeno universal: un objeto
caliente sumergido en un ambiente frío se enfría, y viceversa. En el
equilibrio térmico, todas las partes del cuerpo están a la misma
temperatura, por lo que emiten y absorben energía de la misma
manera.
Cuando se está tumbado en una playa en un día hermoso, el cuerpo
está emitiendo y absorbiendo radiación electromagnética: por un
lado se absorbe la energía producida por el radiador primitivo, el
Sol, y por otro lado se emite una cierta cantidad de calor porque el
cuerpo tiene mecanismos de regulación que le permiten mantener la
temperatura interna correcta1 . Las diversas partes del cuerpo,
desde el hígado hasta el cerebro, desde el corazón hasta las puntas
de los dedos, se mantienen en equilibrio térmico, de modo que los
procesos bioquímicos se desarrollan sin problemas. Si el ambiente
es muy frío, el organismo debe producir más energía, o al menos no
dispersarla, si quiere mantener la temperatura ideal. El flujo
sanguíneo, que es responsable de la transferencia de calor a la
superficie del cuerpo, se reduce por lo tanto para que los órganos
internos no pierdan calor, por lo que sentimos frío en los dedos y la
nariz. Por el contrario, cuando el ambiente es muy caliente, el
cuerpo tiene que aumentar la energía dispersa, lo que sucede
gracias al sudor: la evaporación de este líquido caliente sobre la piel
implica el uso de una cantidad adicional de energía del cuerpo (una
especie de efecto de acondicionamiento del aire), que luego se
dispersa hacia el exterior. El hecho de que el cuerpo humano irradia
calor es evidente en las habitaciones cerradas y abarrotadas: treinta
personas apiladas en una sala de reuniones producen 3 kilovatios,
que son capaces de calentar el ambiente rápidamente. Por el
contrario, en la Antártida esos mismos colegas aburridos podrían
salvarle la vida si los abraza con fuerza, como hacen los pingüinos
emperadores para proteger sus frágiles huevos de los rigores del
largo invierno.
Los humanos, los pingüinos e incluso las tostadoras son sistemas
complejos que producen energía desde el interior. En nuestro caso,
el combustible es dado por la comida o la grasa almacenada en el
cuerpo; una tostadora en cambio tiene como fuente de energía las
colisiones de los electrones de la corriente eléctrica con los átomos
de metales pesados de los cuales se hace la resistencia. La
radiación electromagnética emitida, en ambos casos, se dispersa en
el ambiente externo a través de la superficie en contacto con el aire,
en nuestro caso la piel. Esta radiación suele tener un color que es la
huella de determinadas "transiciones atómicas", es decir, es hija de
la química. Los fuegos artificiales, por ejemplo, cuando explotan
están ciertamente calientes y la luz que emiten depende de la
naturaleza de los compuestos que contienen (cloruro de estroncio,
cloruro de bario y otros),2 gracias a cuya oxidación brillan con
colores brillantes y espectaculares.
Estos casos particulares son fascinantes, pero la radiación
electromagnética se comporta siempre de la misma manera, en
cualquier sistema, en el caso más simple: aquel en el que todos los
efectos cromáticos debidos a los distintos átomos se mezclan y se
borran, dando vida a lo que los físicos llaman radiación térmica. El
objeto ideal que lo produce se llama cuerpo negro. Por lo tanto, es
un cuerpo que por definición sólo produce radiación térmica cuando
se calienta, sin que prevalezca ningún color en particular, y sin los
efectos especiales de los fuegos artificiales. Aunque es un concepto
abstracto, hay objetos cotidianos que se pueden aproximar bastante
bien a un cuerpo negro ideal. Por ejemplo, el Sol emite luz con un
espectro bien definido (las líneas de Fraunhofer), debido a la
presencia de varios tipos de átomos en la corona gaseosa
circundante; pero si consideramos la radiación en su conjunto
vemos que es muy similar a la de un cuerpo negro (muy caliente).
Lo mismo puede decirse de las brasas calientes, las resistencias de
las tostadoras, la atmósfera de la Tierra, el hongo de una explosión
nuclear y el universo primordial: todas aproximaciones razonables
de un cuerpo negro.
Un muy buen modelo lo da una caldera de carbón anticuada, como
la que se encuentra en los trenes de vapor, que, al aumentar la
temperatura, produce en su interior una radiación térmica
prácticamente pura. De hecho, este fue el modelo utilizado por los
físicos a finales del siglo XIX para el estudio del cuerpo negro. Para
tener una fuente de radiación térmica pura, debe estar aislada de
alguna manera de la fuente de calor, en este caso el carbón en
combustión. Para ello construimos un robusto contenedor de
paredes gruesas, digamos de hierro, en el que hacemos un agujero
para observar lo que ocurre en su interior y tomar medidas.
Pongámoslo en la caldera, dejémoslo calentar y asomarse por el
agujero. Detectamos radiación de calor puro, que llena toda la nave.
Esto se emite desde las paredes calientes y rebota de un extremo al
otro; una pequeña parte sale del agujero de observación.
Con la ayuda de unos pocos instrumentos podemos estudiar la
radiación térmica y comprobar en qué medida están presentes los
distintos colores (es decir, las distintas longitudes de onda). También
podemos medir cómo cambia la composición cuando cambia la
temperatura de la caldera, es decir, estudiar la radiación en
equilibrio térmico.
Al principio el agujero emite sólo la radiación infrarroja cálida e
invisible. Cuando subimos la calefacción vemos una luz roja oscura
que se parece a la luz visible dentro de la tostadora. A medida que
la temperatura aumenta más, el rojo se vuelve más brillante, hasta
que se vuelve amarillo. Con una máquina especialmente potente,
como el convertidor Bessemer en las acerías (donde se inyecta el
oxígeno), podemos alcanzar temperaturas muy altas y ver cómo la
radiación se vuelve prácticamente blanca. Si pudiéramos usar una
fuente de calor aún más fuerte (por lo tanto no una caldera clásica,
que se derretiría), observaríamos una luz brillante y azulada
saliendo del agujero a muy alta temperatura. Hemos alcanzado el
nivel de explosiones nucleares o estrellas brillantes como Rigel, la
supergigante azul de la constelación de Orión que es la fuente de
energía más alta de radiación térmica en nuestra vecindad
galáctica.3
El estudio de las radiaciones térmicas era un importante campo de
investigación, en aquel momento completamente nuevo, que
combinaba dos temas diferentes: el estudio del calor y el equilibrio
térmico, es decir, la termodinámica, y la radiación electromagnética.
Los datos recogidos parecían completamente inofensivos y daban la
posibilidad de hacer investigaciones interesantes. Nadie podía
sospechar que eran pistas importantes en lo que pronto se
convertiría en el amarillo científico del milenio: las propiedades
cuánticas de la luz y los átomos (que al final son los que hacen todo
el trabajo).
Capítulo 4
SU MAESTREADO SR. PLANCK

a teoría clásica de la luz y los cálculos de Planck llevaron no sólo


L a la conclusión de que la distribución de las longitudes de onda
se concentraba en las partes azul-violeta, sino incluso (debido a
la desesperación de los físicos teóricos, que estaban cada vez más
perplejos) que la intensidad se hizo infinita en las regiones más
remotas del ultravioleta. Hubo alguien, tal vez un periodista, que
llamó a la situación una "catástrofe ultravioleta". De hecho fue un
desastre, porque la predicción teórica no coincidía en absoluto con
los datos experimentales. Escuchando los cálculos, las brasas no
emitirían luz roja, como la humanidad ha conocido por lo menos
durante cien mil años, sino luz azul.
Fue una de las primeras grietas en la construcción de la física
clásica, que hasta entonces parecía inexpugnable. (Gibbs había
encontrado otro, probablemente el primero de todos, unos
veinticinco años antes; en ese momento su importancia no había
sido comprendida, excepto quizás por Maxwell). Todos ellos, sin
embargo, caen rápidamente a cero en el área de ondas muy cortas.
¿Qué sucede cuando una teoría elegante y bien probada, concebida
por las más grandes mentes de la época y certificada por todas las
academias europeas, choca con los brutales y crudos datos
experimentales? Si para las religiones los dogmas son intocables,
para la ciencia las teorías defectuosas están destinadas a ser
barridas tarde o temprano.
La física clásica predice que la tostadora brillará azul cuando todos
sepan que es roja. Recuerda esto: cada vez que haces una tostada,
estás observando un fenómeno que viola descaradamente las leyes
clásicas. Y aunque no lo sepas (por ahora), tienes la confirmación
experimental de que la luz está hecha de partículas discretas, está
cuantificada. ¡Es mecánica cuántica en vivo! Pero, ¿podría objetar,
no vimos en el capítulo anterior que gracias al genio del Sr. Young
se ha demostrado que la luz es una onda? Sí, y es verdad.
Preparémonos, porque las cosas están a punto de ponerse muy
extrañas. Seguimos siendo viajeros que exploran extraños nuevos
mundos lejanos - y sin embargo también llegamos allí desde una
tostadora.
Max Planck
Berlín, el epicentro de la catástrofe del ultravioleta, fue el reino de
Max Planck, un físico teórico de unos cuarenta años, gran experto
en termodinámica7 . En 1900, a partir de los datos experimentales
recogidos por sus colegas y utilizando un truco matemático, logró
transformar la fórmula derivada de la teoría clásica en otra que
encajaba muy bien con las mediciones. La manipulación de Planck
permitió que las ondas largas se mostraran tranquilamente a todas
las temperaturas, más o menos como se esperaba en la física
clásica, pero cortó las ondas cortas imponiendo una especie de
"peaje" a su emisión. Este obstáculo limitó la presencia de la luz
azul, que de hecho irradiaba menos abundantemente.
El truco parecía funcionar. El "peaje" significaba que las frecuencias
más altas (recuerde: ondas cortas = frecuencias altas) eran más
"caras", es decir, requerían mucha más energía que las más bajas.
Así que, según el razonamiento correcto de Planck, a bajas
temperaturas la energía no era suficiente para "pagar el peaje" y no
se emitían ondas cortas. Para volver a nuestra metáfora teatral,
había encontrado una forma de liberar las primeras filas y empujar a
los espectadores hacia las filas del medio y los túneles. Una
intuición repentina (que no era típica de su forma de trabajar)
permitió a Planck conectar la longitud de onda (o la frecuencia
equivalente) con la energía: cuanto más larga sea la longitud,
menos energía.
Parece una idea elemental, y de hecho lo es, porque así es como
funciona la naturaleza. Pero la física clásica no lo contempló en
absoluto. La energía de una onda electromagnética, según la teoría
de Maxwell, dependía sólo de su intensidad, no del color o la
frecuencia. ¿Cómo encajó Planck esto en su tratamiento del cuerpo
negro? ¿Cómo transmitió la idea de que la energía no sólo depende
de la intensidad sino también de la frecuencia? Todavía falta una
pieza del rompecabezas, porque hay que especificar qué tiene más
energía a medida que las frecuencias aumentan.
Para resolver el problema, Planck encontró una manera eficiente de
dividir la luz emitida, cualquiera que sea su longitud de onda, en
paquetes llamados paquetes cuánticos, cada uno con una cantidad
de energía relacionada con su frecuencia. La fórmula iluminadora de
Planck es realmente tan simple como es posible:
E=hf
En palabras: "la energía de un quantum de luz es directamente
proporcional a su frecuencia". Así, la radiación electromagnética
está compuesta por muchos pequeños paquetes, cada uno de los
cuales está dotado de una cierta energía, igual a su frecuencia
multiplicada por una constante h. El esfuerzo de Planck por conciliar
los datos con la teoría llevó a la idea de que las altas frecuencias (es
decir, las ondas cortas) eran caras en términos de energía para el
cuerpo negro. Su ecuación, a todas las temperaturas, estaba en
perfecta armonía con las curvas obtenidas de las mediciones
experimentales.
Es interesante notar que Planck no se dio cuenta inmediatamente
de que su modificación a la teoría de Maxwell tenía que ver
directamente con la naturaleza de la luz. En cambio, estaba
convencido de que la clave del fenómeno estaba en los átomos que
formaban las paredes del cuerpo negro, la forma en que se emitía la
luz. La preferencia por el rojo sobre el azul no se debía, para él, a
las propiedades intrínsecas de estas longitudes de onda, sino a la
forma en que los átomos se movían y emitían radiaciones de varios
colores. De esta manera esperaba evitar conflictos con la teoría
clásica, que hasta entonces había hecho maravillas: después de
todo, los motores eléctricos conducían trenes y tranvías por toda
Europa y Marconi acababa de patentar el telégrafo inalámbrico. La
teoría de Maxwell obviamente no estaba equivocada y Planck no
tenía intención de corregirla: mejor tratar de modificar la
termodinámica más misteriosa.
Sin embargo, su hipótesis sobre la radiación térmica implicaba dos
rotundas desviaciones de la física clásica. En primer lugar, la
correlación entre la intensidad (es decir, el contenido de energía) de
la radiación y su frecuencia, completamente ausente en el cuadro
Maxwelliano. Luego, la introducción de cantidades discretas, quanta.
Son dos aspectos relacionados entre sí. Para Maxwell la intensidad
era una cantidad continua, capaz de asumir cualquier valor real,
dependiente sólo de los valores de los campos eléctricos y
magnéticos asociados a la onda de luz. Para Planck la intensidad a
una frecuencia dada es igual al número de cuantos que
corresponden a la propia frecuencia, cada uno de los cuales lleva
una energía igual a E=hf. Era una idea que olía sospechosamente a
"partículas de luz", pero todos los experimentos de difracción e
interferencia continuaron confirmando la naturaleza ondulatoria.
Nadie entonces, incluyendo a Planck, comprendió plenamente el
significado de este punto de inflexión. Para su descubridor, los
cuantos eran impulsos concentrados de radiación, provenientes de
los átomos de cuerpo negro en frenético movimiento a través de la
agitación térmica, emitiéndolos según mecanismos desconocidos.
No podía saber que esa h, ahora llamada constante de Planck, se
convertiría en la chispa de una revolución que llevaría a los primeros
rugidos de la mecánica cuántica y la física moderna. Por el gran
descubrimiento de la "energía cuántica", que tuvo lugar cuando
tenía cuarenta y dos años, Planck fue galardonado con el Premio
Nobel de Física en 1918.
Entra Einstein
Las extraordinarias consecuencias de la introducción de los cuantos
fueron comprendidas poco después por un joven físico entonces
desconocido, nada menos que Albert Einstein. Leyó el artículo de
Planck en 1900 y, como declaró más tarde, sintió que "la tierra bajo
sus pies ha desaparecido".8 El problema subyacente era el
siguiente: ¿eran los paquetes de energía hijos del mecanismo de
emisión o eran una característica intrínseca de la luz? Einstein se
dio cuenta de que la nueva teoría establecía una entidad bien
definida, perturbadoramente discreta, similar a una partícula, que
intervenía en el proceso de emisión de luz de sustancias
sobrecalentadas. Sin embargo, al principio, el joven físico se
abstuvo de abrazar la idea de que la cuantificación era una
característica fundamental de la luz.
Aquí tenemos que decir unas palabras sobre Einstein. No era un
niño prodigio y no le gustaba especialmente la escuela. De niño,
nadie le hubiera predicho un futuro exitoso. Pero la ciencia siempre
le había fascinado, desde que su padre le enseñó una brújula
cuando tenía cuatro años. Estaba hechizado por ello: fuerzas
invisibles siempre forzaban a la aguja a apuntar al norte, en
cualquier dirección en la que se girara. Como escribió en su vejez:
"Recuerdo bien, o mejor dicho creo que recuerdo bien, la profunda y
duradera impresión que me dejó esta experiencia. Aún siendo joven,
Einstein también fue cautivado por la magia del álgebra, que había
aprendido de un tío, y fue hechizado por un libro de geometría leído
a la edad de doce años. A los dieciséis años escribió su primer
artículo científico, dedicado al éter en el campo magnético.
En el punto donde llegó nuestra historia, Einstein es todavía un
extraño. Al no haber obtenido un destino universitario de ningún tipo
después de finalizar sus estudios, comenzó a dar clases particulares
y a hacer suplencias, sólo para ocupar el puesto de empleado de la
Oficina Suiza de Patentes en Berna. Aunque sólo tenía fines de
semana libres para sus investigaciones, en los siete años que pasó
allí sentó las bases de la física del siglo XX y descubrió una forma
de contar átomos (es decir, de medir la constante de Avogadro),
inventó la relatividad estrecha (con todas sus profundas
consecuencias en nuestras nociones del espacio y el tiempo, por no
mencionar E=mc2), hizo importantes contribuciones a la teoría
cuántica y más. Entre sus muchos talentos, Einstein podía incluir la
sinestesia, es decir, la capacidad de combinar datos de diferentes
sentidos, por ejemplo, la visión y el oído. Cuando meditaba sobre un
problema, sus procesos mentales siempre iban acompañados de
imágenes y se daba cuenta de que iba por el buen camino porque
sentía un hormigueo en la punta de los dedos. Su nombre se
convertiría en sinónimo de gran científico en 1919, cuando un
eclipse de sol confirmó experimentalmente su teoría de la relatividad
general. El premio Nobel, sin embargo, fue otorgado por un trabajo
de 1905, diferente de la relatividad: la explicación del efecto
fotoeléctrico.
Imagínese el choque cultural que experimentaron los físicos en
1900, que se mostraron tranquilos y serenos en sus estudios para
consultar datos sobre los continuos espectros de radiación emitidos
por los objetos calientes, datos que se habían acumulado durante
casi medio siglo. Los experimentos que los produjeron fueron
posibles gracias a la teoría de Maxwell sobre el electromagnetismo,
aceptada hace más de treinta años, que predecía que la luz era una
onda. El hecho de que un fenómeno tan típicamente ondulante
pudiera, en determinadas circunstancias, comportarse como si
estuviera compuesto por paquetes de energía discretos, en otras
palabras, "partículas", sumió a la comunidad científica en un terrible
estado de confusión. Planck y sus colegas, sin embargo, dieron por
sentado que tarde o temprano llegarían a una explicación de alto
nivel, por así decirlo, neoclásica. Después de todo, la radiación de
cuerpo negro era un fenómeno muy complicado, como el clima
atmosférico, en el que muchos eventos en sí mismos simples de
describir se juntan en un estado complejo aparentemente esquivo.
Pero quizás el aspecto más incomprensible de esto era la forma en
que la naturaleza parecía revelar por primera vez, a quienes tenían
la paciencia de observarla, sus secretos más íntimos.
Arthur Compton
En 1923 la hipótesis de las partículas marcó un punto a su favor
gracias al trabajo de Arthur Compton, que comenzó a estudiar el
efecto fotoeléctrico con los rayos X (luz de onda muy corta). Los
resultados que obtuvo no mintieron: los fotones que chocaban con
los electrones se comportaban como partículas, es decir, como
pequeñas bolas de billar11 . Este fenómeno se llama ahora el
"efecto Compton" o más propiamente "dispersión Compton".
Como en todas las colisiones elásticas de la física clásica, durante
este proceso se conservan la energía total y el momento del sistema
electrón + fotón. Pero para comprender plenamente lo que sucede,
es necesario romper las vacilaciones y tratar al fotón como una
partícula a todos los efectos, un paso al que Compton llegó
gradualmente, después de haber notado el fracaso de todas sus
hipótesis anteriores. En 1923 la naciente teoría cuántica (la "vieja
teoría cuántica" de Niels Bohr) todavía no era capaz de explicar el
efecto Compton, que sólo se entendería gracias a los desarrollos
posteriores. Cuando el físico americano presentó sus resultados en
una conferencia de la Sociedad Americana de Física, tuvo que
enfrentarse a la oposición abierta de muchos colegas.
Como buen hijo de una familia de la minoría menonita de Wooster,
Ohio, acostumbrado a trabajar duro, Compton no se desanimó y
continuó perfeccionando sus experimentos e interpretaciones de los
resultados. El enfrentamiento final tuvo lugar en 1924, durante un
seminario de la Asociación Británica para el Avance de la Ciencia
organizado especialmente en Toronto. Compton fue muy
convincente. Su archienemigo, William Duane de Harvard, que
hasta entonces no había podido replicar sus resultados, volvió al
laboratorio y rehizo él mismo el controvertido experimento.
Finalmente se vio obligado a admitir que el efecto Compton era
cierto. Su descubridor ganó el Premio Nobel en 1927. Compton fue
uno de los principales arquitectos del desarrollo de la física
americana en el siglo XX, tanto es así que recibió el honor de una
portada en el "Times" el 13 de enero de 1936.
¿Qué muestran estos resultados? Por un lado, nos enfrentamos a
varios fenómenos que muestran que la luz parece estar compuesta
por una corriente de partículas, cuántas luminosas llamadas fotones
(pobre Newton, si hubiera sabido...). Por otro lado, tenemos el
experimento de Young con la doble rendija (y millones de otros
experimentos que lo confirman, todavía realizados hoy en los
laboratorios de las escuelas de todo el mundo), gracias a los cuales
la luz se comporta como una onda. Trescientos años después de la
disputa onda-partícula, todavía estamos de vuelta al principio. ¿Es
una paradoja irresoluble? ¿Cómo puede una entidad ser
simultáneamente una onda y una partícula? ¿Tenemos que dejar la
física y centrarnos en el Zen y el mantenimiento de las
motocicletas?
Vidrio y espejos
El fotón, como partícula, simplemente "es". Dispara los detectores,
colisiona con otras partículas, explica el efecto fotoeléctrico y el
efecto Compton. ¡Existe! Pero no explica la interferencia, y otro
fenómeno también.
Recordarán que en el capítulo 1 nos detuvimos frente a un
escaparate lleno de ropa interior sexy. Ahora continuamos nuestro
paseo y llegamos a los escaparates de unos grandes almacenes,
donde la colección primavera-verano se exhibe en elegantes
maniquíes. El sol brilla y el contenido de la ventana es claramente
visible; pero en el vidrio notamos que también hay un débil reflejo de
la calle y los transeúntes, incluyéndonos a nosotros. Por casualidad,
esta vitrina también contiene un espejo, que refleja nuestra imagen
en detalle. Así que nos vemos dos veces: claramente en el espejo y
débilmente en el cristal.
He aquí una explicación plausible: los rayos del sol se reflejan en la
superficie de nuestro cuerpo, atraviesan la vitrina, golpean el espejo
y vuelven hasta llegar a nuestra retina. Sin embargo, un pequeño
porcentaje de la luz también se refleja en la propia vitrina. Bueno, ¿y
qué? Todo esto es perfectamente lógico, como quiera que lo veas.
Si la luz es una onda, no hay problema: las ondas están
normalmente sujetas a reflexión y refracción parcial. Si la luz, en
cambio, está compuesta por un flujo de partículas, podemos
explicarlo todo admitiendo que una cierta parte de los fotones,
digamos el 96%, atraviesa el cristal y el 4% restante se refleja. Pero
si tomamos un solo fotón de esta enorme corriente, formada por
partículas de todas formas, ¿cómo sabemos cómo se comportará
frente al vidrio? ¿Cómo decide nuestro fotón (llamémoslo Bernie)
qué camino tomar?
Ahora imaginemos esta horda de partículas idénticas dirigiéndose
hacia el cristal. La gran mayoría lo atraviesa, pero unos pocos son
rechazados de vez en cuando. Recuerde que los fotones son
indivisibles e irreductibles - nadie ha visto nunca el 96 por ciento de
un fotón en la naturaleza. Así que Bernie tiene dos alternativas: o
pasa de una pieza, o es rechazado de una pieza. En este último
caso, que ocurre el 4% de las veces, quizás chocó con uno de los
muchos átomos de vidrio. Pero si ese fuera el caso, no veríamos
nuestra imagen reflejada en la débil pero bien definida ventana, sino
que veríamos el vidrio ligeramente empañado por ese 4% de
fotones perdidos. La imagen, que reconocemos fácilmente como
"nuestra", indica que estamos en presencia de un fenómeno
coherente y ondulante, pero que los fotones existen. Aquí nos
enfrentamos a otro problema, el de la reflexión parcial. Parece que
hay un 4% de probabilidad de que un fotón, entendido como
partícula, termine en una onda que se refleje. Que las hipótesis de
Planck llevaron a la introducción de elementos aleatorios y
probabilísticos en la física fue claro para Einstein ya en 1901. No le
gustaba nada, y con el tiempo su disgusto crecería.
La morsa y el panettone
Como si la solución de Planck al problema de la catástrofe del
ultravioleta y la explicación de Einstein del efecto fotoeléctrico no
fueran lo suficientemente impactantes, la física clásica se enfrentó a
una tercera llamada de atención a principios del siglo XX: el fracaso
del modelo atómico de Thomson, o "modelo panettone".
Ernest Rutherford (1871-1937) era un hombre grande y erizado que
parecía una morsa. Después de ganar el Premio Nobel de Química
por su investigación en radiactividad, se convirtió en director del
prestigioso Laboratorio Cavendish en Cambridge en 1917. Nació en
Nueva Zelanda en el seno de una gran familia de agricultores; la
vida en la granja lo había acostumbrado a trabajar duro y lo convirtió
en un hombre de recursos. Apasionado por las máquinas y las
nuevas tecnologías, se dedicó desde su infancia a reparar relojes y
a construir modelos de funcionamiento de molinos de agua. En sus
estudios de postgrado había estado involucrado en el
electromagnetismo y había logrado construir un detector de ondas
de radio antes de que Marconi llevara a cabo sus famosos
experimentos. Gracias a una beca llegó a Cambridge, donde su
radio, capaz de captar señales a casi un kilómetro de distancia,
impresionó favorablemente a muchos profesores, incluyendo a J. J.
Thomson, que en ese momento dirigía el Laboratorio Cavendish.
Thomson invitó a Rutherford a trabajar con él en una de las
novedades de la época, los rayos X, entonces conocidos como
rayos Becquerel, y a estudiar el fenómeno de la descarga eléctrica
en los gases. El joven kiwi tenía nostalgia, pero era una oferta
imprescindible. El fruto de su colaboración se resumió en un famoso
artículo sobre la ionización, que se explicó por el hecho de que los
rayos X, al colisionar con la materia, parecían crear un número igual
de partículas cargadas eléctricamente, llamadas "iones". Thomson
entonces afirmaría públicamente que nunca había conocido a nadie
tan hábil y apasionado por la investigación como su estudiante.
Alrededor de 1909, Rutherford coordinó un grupo de trabajo
dedicado a las llamadas partículas alfa, que fueron disparadas a una
fina lámina de oro para ver cómo sus trayectorias eran desviadas
por átomos de metales pesados. Algo inesperado sucedió en esos
experimentos. Casi todas las partículas se desviaron ligeramente, al
pasar por la lámina de oro, a una pantalla de detección a cierta
distancia. Pero uno de cada 8.000 rebotó y nunca pasó del papel de
aluminio. Como Rutherford dijo más tarde, "fue como disparar un
mortero a un pedazo de papel y ver la bala regresar. ¿Qué estaba
pasando? ¿Había algo dentro del metal que pudiera repeler las
partículas alfa, pesadas y con carga positiva?
Gracias a las investigaciones previas de J.J. Thomson, se sabía en
ese momento que los átomos contenían luz, electrones negativos.
Para que la construcción fuera estable y para equilibrar todo, por
supuesto, se requería una cantidad igual y opuesta de cargas
positivas. Sin embargo, dónde estaban estos cargos era entonces
un misterio. Antes de Rutherford, nadie había sido capaz de dar
forma al interior del átomo.
En 1905 J. J. Thomson había propuesto un modelo que preveía una
carga positiva repartida uniformemente dentro del átomo y los
diversos electrones dispersos como pasas en el panettone - por esta
razón fue bautizado por los físicos como el "modelo del panettone"
(modelo del pudín de ciruela en inglés). Si el átomo se hizo
realmente así, las partículas alfa del experimento anterior siempre
tendrían que pasar a través de la lámina: sería como disparar balas
a un velo de espuma de afeitar. Aquí, ahora imagina que en esta
situación una bala de cada ocho mil es desviada por la espuma
hasta que vuelve. Esto sucedió en el laboratorio de Rutherford.
Según sus cálculos, la única manera de explicar el fenómeno era
admitir que toda la masa y la carga positiva del átomo se
concentraba en un "núcleo", una pequeña bola situada en el centro
del propio átomo. De esta manera habría habido las
concentraciones de masa y carga necesarias para repeler las
partículas alfa, pesadas y positivas, que eventualmente llegaron en
un curso de colisión. Era como si dentro del velo de espuma de
afeitar hubiera muchas bolas duras y resistentes, capaces de
desviar y repeler las balas. Los electrones a su vez no se
dispersaron sino que giraron alrededor del núcleo. Gracias a
Rutherford, entonces, el modelo de pan dulce fue consignado al
basurero de la historia. El átomo parecía más bien un pequeño
sistema solar, con planetas en miniatura (los electrones) orbitando
una densa y oscura estrella (el núcleo), todo ello unido por fuerzas
electromagnéticas.
Con experimentos posteriores se descubrió que el núcleo era
realmente diminuto: su volumen era una milésima de una
milmillonésima del átomo. Por el contrario, contenía más del 99,98%
de la masa total del átomo. Así que la materia estaba hecha en gran
parte de vacío, de puntos alrededor de los cuales los electrones
giraban a grandes distancias. Realmente increíble: ¡la materia está
básicamente hecha de nada! (incluso la silla "sólida" en la que estás
sentado ahora está prácticamente toda vacía). En el momento de
este descubrimiento, la física clásica, desde la F=ma de Newton
hasta las leyes de Maxwell, todavía se consideraba inexpugnable,
tanto a nivel microscópico como a gran escala, a nivel del sistema
solar. Se creía que en el átomo funcionaban las mismas leyes
válidas en otros lugares. Todos dormían en sueños tranquilos hasta
que llegó Niels Bohr.
El danés melancólico
Un día, Niels Bohr, un joven teórico danés que se estaba
perfeccionando en ese momento en el Laboratorio Cavendish,
asistió a una conferencia en Rutherford y quedó tan impresionado
por la nueva teoría atómica del gran experimentador que le pidió
que trabajara con él en la Universidad de Manchester, donde estaba
entonces. Aceptó acogerlo durante cuatro meses en 1912.
Reflexionando tranquilamente sobre los nuevos datos
experimentales, Bohr pronto se dio cuenta de que había algo malo
en el modelo. De hecho, ¡fue un desastre! Si se aplican las
ecuaciones de Maxwell a un electrón en una órbita circular muy
rápida alrededor del núcleo, resulta que la partícula pierde casi
inmediatamente toda su energía, en forma de ondas
electromagnéticas. Debido a esto el radio orbital se hace cada vez
más pequeño, reduciéndose a cero en sólo 10-16 segundos (una
diez millonésima de una billonésima de segundo). En pocas
palabras, un electrón según la física clásica debería caer casi
instantáneamente en el núcleo. Así que el átomo, es decir, la
materia, es inestable, y el mundo tal como lo conocemos es
físicamente imposible. Las ecuaciones de Maxwell parecían implicar
el colapso del modelo orbital. Así que el modelo estaba equivocado,
o las venerables leyes de la física clásica estaban equivocadas.
Bohr se puso a estudiar el átomo más simple de todos, el átomo de
hidrógeno, que en el modelo de Rutherford consiste en un solo
electrón negativo que orbita alrededor del núcleo positivo. Pensando
en los resultados de Planck y Einstein, y en ciertas ideas que
estaban en el aire sobre el comportamiento ondulatorio de las
partículas, el joven danés se lanzó a una hipótesis muy poco clásica
y muy arriesgada. Según Bohr, sólo se permiten ciertas órbitas al
electrón, porque su movimiento dentro del átomo es similar al de las
ondas. Entre las órbitas permitidas hay una de nivel de energía
mínimo, donde el electrón se acerca lo más posible al núcleo: la
partícula no puede bajar más que esto y por lo tanto no puede emitir
energía mientras salta a un nivel más bajo - que realmente no
existe. Esta configuración especial se llama el estado fundamental.
Con su modelo, Bohr intentaba principalmente explicar a nivel
teórico el espectro discreto de los átomos, esas líneas más o menos
oscuras que ya hemos encontrado. Como recordarán, los diversos
elementos, al ser calentados hasta que emiten luz, dejan una huella
característica en el espectrómetro que consiste en una serie de
líneas de color que resaltan claramente sobre un fondo más oscuro.
En el espectro de la luz solar, entonces, también hay líneas negras y
delgadas en ciertos puntos precisos. Las líneas claras corresponden
a las emisiones, las oscuras a las absorciones. El hidrógeno, como
todos los elementos, tiene su "huella" espectral: a estos datos,
conocidos en su momento, Bohr trató de aplicar su modelo recién
nacido.
En tres artículos posteriores publicados en 1913, el físico danés
expuso su audaz teoría cuántica del átomo de hidrógeno. Las
órbitas permitidas al electrón se caracterizan por cantidades fijas de
energía, que llamaremos E1, E2, E3 etc. Un electrón emite radiación
cuando "salta" de un nivel superior, digamos E3, a uno inferior,
digamos E2: es un fotón cuya energía (dada, recordemos, por E=hf)
es igual a la diferencia entre los de los dos niveles. Así que E2-
E3=hf. Añadiendo este efecto en los miles de millones de átomos
donde el proceso ocurre al mismo tiempo, obtenemos como
resultado las líneas claras del espectro. Gracias a un modelo que
conservaba parcialmente la mecánica newtoniana pero que se
desviaba de ella cuando no estaba de acuerdo con los datos
experimentales, Bohr pudo calcular triunfalmente las longitudes de
onda correspondientes a todas las líneas espectrales del hidrógeno.
Sus fórmulas dependían sólo de constantes y valores conocidos,
como la masa y la carga de los electrones (como de costumbre
sazonada aquí y allá por símbolos como π y, obviamente, el signo
distintivo de la mecánica cuántica, la constante h de Planck).
Resumiendo, en el modelo de Bohr el electrón permanece confinado
en pocas órbitas permitidas, como por arte de magia, que
corresponden a niveles de energía bien definidos E1, E2, E3 etc. El
electrón puede absorber energía sólo en "paquetes" o "cuantos"; si
absorbe un número adecuado, puede "saltar" del nivel en que se
encuentra a uno más alto, por ejemplo, de E2 a E3; viceversa, los
electrones de los niveles superiores pueden deslizarse
espontáneamente hacia abajo, regresando por ejemplo de E3 a E2,
y al hacerlo emiten cuantos de luz, es decir, fotones. Estos fotones
pueden ser observados porque tienen longitudes de onda
específicas, que corresponden a las líneas espectrales. Sus valores
se predicen exactamente, en el caso del átomo de hidrógeno, por el
modelo de Bohr.
El carácter del átomo
Así es gracias a Rutherford y Bohr si hoy en día la representación
más conocida del átomo es la del sistema solar, donde pequeños
electrones zumban alrededor del núcleo como muchos planetas
pequeños, en órbitas similares a las elípticas predichas por Kepler.
Muchos quizás piensan que el modelo es preciso y que el átomo
está hecho así. Desgraciadamente no, porque las intuiciones de
Bohr eran brillantes pero no del todo correctas. La proclamación del
triunfo resultó prematura. Se dio cuenta de que su modelo se
aplicaba sólo al átomo más simple, el átomo de hidrógeno, pero ya
estaba fallando en el siguiente paso, con el helio, el átomo con dos
electrones. Los años 20 estaban a la vuelta de la esquina y la
mecánica cuántica parecía atascada. Sólo se había dado el primer
paso, correspondiente a lo que ahora llamamos la vieja teoría
cuántica.
Los padres fundadores, Planck, Einstein, Rutherford y Bohr, habían
comenzado la revolución pero aún no habían cosechado los
beneficios. Estaba claro para todos que la inocencia se había
perdido y que la física se estaba volviendo extraña y misteriosa:
había un mundo de paquetes de energía y electrones que saltaban
mágicamente sólo en ciertas órbitas y no en otras, un mundo donde
los fotones son ondas y partículas al mismo tiempo, sin estar en el
fondo de ninguna de las dos. Todavía había mucho que entender.
Capítulo 5
Un incierto Heisenberg

este es el momento que todos han estado esperando. Estamos a


Y punto de enfrentarnos a la verdadera mecánica cuántica de
frente y entrar en un territorio alienígena y desconcertante. La
nueva ciencia empujó incluso a Wolfgang Pauli, uno de los más
grandes físicos de todos los tiempos, a la exasperación. En 1925, en
una carta a un colega, dijo que estaba dispuesto a abandonar la
lucha: "La física es ahora demasiado difícil. Prefiero ser un actor
cómico, o algo así, que un físico". Si tal gigante del pensamiento
científico hubiera abandonado la investigación para convertirse en el
Jerry Lewis de su tiempo, hoy no estaríamos hablando del "principio
excluyente de Pauli" y la historia de la ciencia podría haber tomado
un rumbo muy diferente1 . El viaje que estamos a punto de
emprender no es recomendable para los débiles de corazón, pero
llegar al destino será una recompensa extraordinaria.
La naturaleza está hecha en paquetes
Empecemos con la vieja teoría cuántica, formulada por Bohr para
dar cuenta de los resultados del experimento de Rutherford. Como
recordarán, reemplazó el modelo del átomo panettone con la idea
de que había un denso núcleo central rodeado de electrones
zumbantes, una configuración similar a la del sistema solar, con
nuestra estrella en el centro y los planetas orbitándola. Ya hemos
dicho que este modelo también ha pasado a una vida mejor. Víctima
de refinamientos posteriores, la vieja teoría cuántica, con su loca
mezcla de mecánica clásica y ajustes cuánticos ad hoc, fue en un
momento dado completamente abandonada. Sin embargo, el mérito
de Bohr fue presentar al mundo por primera vez un modelo de
átomo cuántico, que ganó credibilidad gracias a los resultados del
brillante experimento que veremos en breve.
Según las leyes clásicas, ningún electrón podría permanecer en
órbita alrededor del núcleo. Su movimiento sería acelerado, como
todos los movimientos circulares (porque la velocidad cambia
continuamente de dirección con el tiempo), y según las leyes de
Maxwell cada partícula cargada en movimiento acelerado emite
energía en forma de radiación electromagnética, es decir, luz. Según
los cálculos clásicos, un electrón en órbita perdería casi
inmediatamente su energía, que desaparecería en forma de
radiación electromagnética; por lo tanto, la partícula en cuestión
perdería altitud y pronto se estrellaría contra el núcleo. El átomo
clásico no podría existir, si no es en forma colapsada, por lo tanto
químicamente muerto e inservible. La teoría clásica no fue capaz de
justificar los valores energéticos de los electrones y los núcleos. Por
lo tanto, era necesario inventar un nuevo modelo: la teoría cuántica.
Además, como ya se sabía a finales del siglo XIX gracias a los datos
de las líneas espectrales, los átomos emiten luz pero sólo con
colores definidos, es decir, con longitudes de onda (o frecuencias) a
valores discretos y cuantificados. Casi parece que sólo pueden
existir órbitas particulares, y los electrones están obligados a saltar
de una a otra cada vez que emiten o absorben energía. Si el modelo
"kepleriano" del átomo como sistema solar fuera cierto, el espectro
de la radiación emitida sería continuo, porque la mecánica clásica
permite la existencia de un rango continuo de órbitas. Parece, en
cambio, que el mundo atómico es "discreto", muy diferente de la
continuidad prevista por la física newtoniana.
Bohr centró su atención en el átomo más simple de todos, el átomo
de hidrógeno, equipado con un solo protón en el núcleo y un
electrón orbitando alrededor de él. Jugando un poco con las nuevas
ideas de la mecánica cuántica, se dio cuenta de que podía aplicar a
los electrones la hipótesis de Planck, es decir, asociar a una cierta
longitud de onda (o frecuencia) el momento (o energía) de un fotón,
de la que se podía deducir la existencia de órbitas discretas.
Después de varios intentos, finalmente llegó a la fórmula correcta.
Las órbitas "especiales" de Bohr eran circulares y cada una tenía
una circunferencia asignada, siempre igual a la longitud de onda
cuántica del electrón derivada de la ecuación de Planck. Estas
órbitas mágicas correspondían a valores energéticos particulares,
por lo que el átomo sólo podía tener un conjunto discreto de estados
de energía.
Bohr comprendió inmediatamente que había una órbita mínima, a lo
largo de la cual el electrón estaba lo más cerca posible del núcleo.
Desde este nivel no podía caer más bajo, por lo que el átomo no se
derrumbó y su destino fatal. Esta órbita mínima se conoce como el
estado fundamental y corresponde al estado de energía mínima del
electrón. Su existencia implica la estabilidad del átomo. Hoy
sabemos que esta propiedad caracteriza a todos los sistemas
cuánticos.
La hipótesis de Bohr demostró ser realmente efectiva: de las nuevas
ecuaciones todos los números que correspondían a los valores
observados en los experimentos saltaron uno tras otro. Los
electrones atómicos están, como dicen los físicos, "ligados" y sin la
contribución de la energía del exterior continúan girando
tranquilamente alrededor del núcleo. La cantidad de energía
necesaria para hacerlos saltar y liberarlos del enlace atómico se
llama, precisamente, energía de enlace, y depende de la órbita en la
que se encuentre la partícula. (Por lo general nos referimos a tal
energía como el mínimo requerido para alejar un electrón del átomo
y llevarlo a una distancia infinita y con energía cinética nula, un
estado que convencionalmente decimos energía nula; pero es, de
hecho, sólo una convención). Viceversa, si un electrón libre es
capturado por un átomo, libera una cantidad de energía, en forma
de fotones, igual a la cantidad de enlace de la órbita en la que
termina.
Las energías de enlace de las órbitas (es decir, de los estados) se
miden generalmente en unidades llamadas voltios de electrones
(símbolo: eV). El estado fundamental en el átomo de hidrógeno, que
corresponde a esa órbita especial de mínima distancia del núcleo y
máxima energía de enlace, tiene una energía igual a 13,6 eV. Este
valor se puede obtener teóricamente también gracias a la llamada
"fórmula de Rydberg", llamada así en honor del físico sueco
Johannes Rydberg, quien en 1888 (ampliando algunas
investigaciones de Johann Balmer y otros) había adelantado una
explicación empírica de las líneas espectrales del hidrógeno y otros
átomos. De hecho, el valor de 13,6 eV y la fórmula de la que puede
derivarse se conocían desde hacía algunos años, pero fue Bohr
quien primero dio una rigurosa justificación teórica.
Los estados cuánticos de un electrón en el átomo de hidrógeno
(equivalente a una de las órbitas de Bohr) se representan con un
número entero n = 1, 2, 3, ... El estado con la mayor energía de
unión, el fundamental, corresponde a n=1; el primer estado excitado
a n=2, y así sucesivamente. El hecho de que este conjunto discreto
de estados sea el único posible en los átomos es la esencia de la
teoría cuántica. El número n tiene el honor de tener un nombre
propio en la física y se llama "número cuántico principal". Cada
estado, o número cuántico, está caracterizado por un valor
energético (en eV, como el que se ve arriba) y está etiquetado con
las letras E1, E2, E3, etc. (véase la nota 3).
Como recordarán, en esta teoría, anticuada pero no olvidada, se
espera que los electrones emitan fotones al saltar de un estado de
mayor energía a otro de menor energía. Esta regla obviamente no
se aplica al estado fundamental E1, es decir, cuando n=1, porque en
este caso el electrón no tiene disponible una órbita inferior. Estas
transiciones tienen lugar de una manera completamente predecible
y lógica. Si, por ejemplo, el electrón en el estado n=3 baja al estado
n=2, el ocupante de esta última órbita debe nivelarse hasta n=1.
Cada salto va acompañado de la emisión de un fotón con una
energía igual a la diferencia entre las energías de los estados
implicados, como E2-E3 o E1-E2. En el caso del átomo de
hidrógeno, los valores numéricos correspondientes son 10,5 eV - 9,2
eV = 1,3 eV, y 13,6 eV - 10,5 eV = 3,1 eV. Dado que la energía E y
la longitud de onda λ de un fotón están relacionadas por la fórmula
de Planck E=hf=hc/λ, es posible derivar la energía de los fotones
emitidos midiendo su longitud de onda por espectroscopia. En la
época de Bohr los relatos parecían volver en lo que respecta al
átomo de hidrógeno, el más simple (sólo un electrón alrededor de un
protón), pero ya delante del helio, el segundo elemento en orden de
simplicidad, no se sabía bien cómo proceder.
A Bohr se le ocurrió otra idea, que es medir el momento de los
electrones a través de la absorción de energía por los átomos,
invirtiendo el razonamiento visto anteriormente. Si la hipótesis de los
estados cuánticos es cierta, entonces los átomos pueden adquirir
energía sólo en paquetes correspondientes a las diferencias entre
las energías de los estados, E2 - E3, E1 - E2 y así sucesivamente.
El experimento crucial para probar esta hipótesis fue realizado en
1914 por James Franck y Gustav Hertz en Berlín, y fue quizás la
última investigación importante realizada en Alemania antes del
estallido de la Primera Guerra Mundial. Los dos científicos
obtuvieron resultados perfectamente compatibles con la teoría de
Bohr, pero no eran conscientes de ello. No conocerían los
resultados del gran físico danés hasta varios años después.
Los terribles años 20
Es difícil darse cuenta del pánico que se extendió entre los más
grandes físicos del mundo a principios de los terribles años 20, entre
1920 y 1925. Después de cuatro siglos de fe en la existencia de
principios racionales que subyacen a las leyes de la naturaleza, la
ciencia se vio obligada a revisar sus propios fundamentos. El
aspecto que más perturbó las conciencias, adormecidas por las
tranquilizadoras certezas del pasado, fue la desconcertante dualidad
subyacente de la teoría cuántica. Por un lado, había abundante
evidencia experimental de que la luz se comportaba como una onda,
completa con interferencia y difracción. Como ya hemos visto en
detalle, la hipótesis de la onda es la única capaz de dar cuenta de
los datos obtenidos del experimento de la doble rendija.
Por otra parte, una cosecha igualmente abundante de experiencias
demostró fuertemente la naturaleza de partícula de la luz - y lo
vimos en la anterior con la radiación de cuerpo negro, el efecto
fotoeléctrico y el efecto Compton. La conclusión lógica a la que
llevaron estos experimentos fue una y sólo una: la luz de cualquier
color, por lo tanto de cualquier longitud de onda, estaba compuesta
por una corriente de partículas, todas ellas moviéndose en el vacío a
la misma velocidad, c. Cada uno tenía su propio impulso, una
cantidad que en la física newtoniana venía dada por el producto de
la masa para la velocidad y que para los fotones es igual a la
energía dividida por c. El impulso es importante (como puede
atestiguar cualquiera que haya pasado delante de una cámara de
velocidad), porque su total en un sistema se conserva, es decir, no
cambia ni siquiera después de varios impactos. En el caso clásico
se conoce el ejemplo de la colisión de dos bolas de billar: aunque
las velocidades cambien, la suma del momento antes y después de
la colisión permanece constante. El experimento de Compton ha
demostrado que esta conservación también es válida para los que
se comportan como coches y otros objetos macroscópicos.
Deberíamos detenernos un momento para aclarar la diferencia entre
ondas y partículas. En primer lugar, los últimos son discretos. Toma
dos vasos, uno lleno de agua y otro de arena fina. Ambas
sustancias cambian de forma y pueden ser vertidas, tanto que, en
un examen no demasiado exhaustivo, parecen compartir las mismas
propiedades. Pero el líquido es continuo, suave, mientras que la
arena está formada por granos discretos y contables. Una
cucharadita de agua contiene un cierto volumen de líquido, una
cucharadita de arena se puede cuantificar en el número de granos.
La mecánica cuántica reevalúa cantidades discretas y números
enteros, en lo que parece ser un retorno a las teorías pitagóricas.
Una partícula, en cada instante, tiene una posición definida y se
mueve a lo largo de una cierta trayectoria, a diferencia de una onda,
que está "embadurnada" en el espacio. Las partículas, además,
tienen una cierta energía e impulso, que puede transferirse a otras
partículas en las colisiones. Por definición, una partícula no puede
ser una onda y viceversa.
De vuelta a nosotros. Los físicos en la década de 1920 estaban
desconcertados ante esa extraña bestia, mitad partícula, mitad
onda, que algunos llamaban ondícula (contracción de onda, onda y
partícula, partícula). A pesar de las pruebas bien establecidas a
favor de la naturaleza ondulatoria, experimento tras experimento los
fotones resultaron ser objetos concretos, capaces de colisionar entre
sí y con los electrones. Los átomos emitieron uno cuando salieron
de un estado de excitación, liberando la misma cantidad de energía,
E=hf, transportada por el propio fotón. La historia tomó un giro aún
más sorprendente con la entrada de un joven físico francés, el
aristócrata Louis-Cesar-Victor-Maurice de Broglie, y su memorable
tesis doctoral.
La familia de Broglie, entre cuyos miembros sólo había oficiales de
alto rango, diplomáticos o políticos, era muy hostil a las inclinaciones
de Louis. El viejo duque, su abuelo, llamaba a la ciencia "una
anciana que busca la admiración de los jóvenes". Así que el
vástago, en aras del compromiso, emprendió sus estudios para
convertirse en oficial de la marina, pero continuó experimentando en
su tiempo libre, gracias al laboratorio que había instalado en la
mansión ancestral. En la marina se hizo un nombre como experto en
transmisión y después de la muerte del viejo duque se le permitió
tomarse un permiso para dedicarse a tiempo completo a su
verdadera pasión.
De Broglie había reflexionado largamente sobre las dudas de
Einstein acerca del efecto fotoeléctrico, que era incompatible con la
naturaleza ondulante de la luz y que corroboraba la hipótesis de los
fotones. Mientras releía el trabajo del gran científico, al joven francés
se le ocurrió una idea muy poco ortodoxa. Si la luz, que parecería
ser una onda, exhibe un comportamiento similar al de las partículas,
quizás lo contrario también pueda ocurrir en la naturaleza. Tal vez
las partículas, todas las partículas, exhiben un comportamiento
ondulatorio en ciertas ocasiones. En palabras de de Broglie: "La
teoría del átomo de Bohr me llevó a formular la hipótesis de que los
electrones también podían considerarse no sólo partículas, sino
también objetos a los que era posible asignar una frecuencia, que es
una propiedad ondulatoria".
Unos años antes, un estudiante de doctorado que hubiera elegido
esta audaz hipótesis para su tesis se habría visto obligado a
trasladarse a la facultad de teología de alguna oscura universidad
de Molvania Citeriore. Pero en 1924 todo era posible, y de Broglie
tenía un admirador muy especial. El gran Albert Einstein fue llamado
por sus perplejos colegas parisinos como consultor externo para
examinar la tesis del candidato, que le pareció muy interesante (tal
vez también pensó "pero ¿por qué no tuve esta idea?"). En su
informe a la comisión parisina, el Maestro escribió: "De Broglie ha
levantado una solapa del gran velo". El joven francés no sólo obtuvo
el título, sino que unos años más tarde recibió incluso el Premio
Nobel de Física, gracias a la teoría presentada en su tesis. Su
mayor éxito fue haber encontrado una relación, modelada en la de
Planck, entre el momento clásico de un electrón (masa por
velocidad) y la longitud de onda de la onda correspondiente. Pero,
¿una ola de qué? Un electrón es una partícula, por el amor de Dios,
¿dónde está la onda? De Broglie habló de "un misterioso fenómeno
con caracteres de periodicidad" que tuvo lugar dentro de la propia
partícula. Parece poco claro, pero estaba convencido de ello. Y
aunque su interpretación era humeante, la idea subyacente era
brillante.
En 1927, dos físicos americanos que trabajaban en los prestigiosos
Laboratorios Bell de AT&T, Nueva Jersey, estudiaban las
propiedades de los tubos de vacío bombardeando con flujos de
electrones varios tipos de cristales. Los resultados fueron bastante
extraños: los electrones salieron de los cristales según las
direcciones preferidas y parecían ignorar a los demás. Los
investigadores del Laboratorio Bell no lo sabían, hasta que
descubrieron la loca hipótesis de De Broglie. Visto desde este nuevo
punto de vista, su experimento era sólo una versión compleja del de
Young, con la doble rendija, y el comportamiento de los electrones
mostraba una propiedad bien conocida de las ondas, que es la
difracción! Los resultados habrían tenido sentido si se hubiera
asumido que la longitud de onda de los electrones estaba realmente
relacionada con su impulso, tal como de Broglie había predicho. La
red regular de átomos en los cristales era el equivalente a las fisuras
del experimento de Young, que tenía más de un siglo de antigüedad.
Este descubrimiento fundamental de la "difracción electrónica"
corroboró la tesis de de Broglie: los electrones son partículas que se
comportan como ondas, y también es bastante fácil de verificar.
Volveremos en breve a la cuestión de la difracción, rehaciendo
nuestro ya conocido experimento de doble rendija con electrones,
que nos dará un resultado aún más desconcertante. Aquí sólo
observamos que esta propiedad es responsable del hecho de que
los diversos materiales se comportan como conductores, aislantes o
semiconductores, y está en la base de la invención de los
transistores. Ahora tenemos que conocer a otro protagonista - tal
vez el verdadero superhéroe de la revolución cuántica.
Una matemática extraña
Werner Heisenberg (1901-1976) fue el príncipe de los teóricos, tan
desinteresado en la práctica del laboratorio que se arriesgó a
reprobar su tesis en la Universidad de Munich porque no sabía
cómo funcionaban las baterías. Afortunadamente para él y para la
física en general, también fue ascendido. Hubo otros momentos no
fáciles en su vida. Durante la Primera Guerra Mundial, mientras su
padre estaba en el frente como soldado, la escasez de alimentos y
combustible en la ciudad era tal que las escuelas y universidades se
veían a menudo obligadas a suspender las clases. Y en el verano
de 1918 el joven Werner, debilitado y desnutrido, se vio obligado,
junto con otros estudiantes, a ayudar a los agricultores en una
cosecha agrícola bávara.
Al final de la guerra, a principios de los años 20, era un joven
prodigio: pianista de alto nivel, esquiador y alpinista hábil, así como
matemático licenciado en física. Durante las lecciones del viejo
maestro Arnold Sommerfeld, conoció a otro joven prometedor,
Wolfgang Pauli, que más tarde se convertiría en su más cercano
colaborador y su más feroz crítico. En 1922 Sommerfeld llevó a
Heisenberg, de 21 años, a Göttingen, entonces el faro de la ciencia
europea, para asistir a una serie de conferencias sobre la naciente
física atómica cuántica, impartidas por el propio Niels Bohr. En esa
ocasión el joven investigador, nada intimidado, se atrevió a
contrarrestar algunas de las afirmaciones del gurú y desafiar su
modelo teórico de raíz. Sin embargo, después de este primer
enfrentamiento, nació una larga y fructífera colaboración entre
ambos, marcada por la admiración mutua.
Desde ese momento Heisenberg se dedicó en cuerpo y alma a los
enigmas de la mecánica cuántica. En 1924 pasó un tiempo en
Copenhague, para trabajar directamente con Bohr en los problemas
de emisión y absorción de radiación. Allí aprendió a apreciar la
"actitud filosófica" (en palabras de Pauli) del gran físico danés.
Frustrado por las dificultades de concretar el modelo atómico de
Bohr, con sus órbitas puestas de esa manera quién sabe cómo, el
joven se convenció de que debe haber algo malo en la raíz. Cuanto
más lo pensaba, más le parecía que esas órbitas simples, casi
circulares, eran un excedente, una construcción puramente
intelectual. Para deshacerse de ellos, comenzó a pensar que la idea
misma de la órbita era un residuo newtoniano del que había que
prescindir.
El joven Werner se impuso una doctrina feroz: ningún modelo debe
basarse en la física clásica (por lo tanto, nada de sistemas solares
en miniatura, aunque sean lo suficientemente bonitos para dibujar).
El camino a la salvación no fue la intuición o la estética, sino el rigor
matemático. Otro de sus dikats conceptuales era la renuncia a todas
las entidades (como las órbitas, para ser precisos) que no se podían
medir directamente.
En los átomos se medían las líneas espectrales, testigos de la
emisión o absorción de fotones por parte de los átomos como
resultado del salto entre los niveles de electrones. Así que fue a
esas líneas netas, visibles y verificables correspondientes al
inaccesible mundo subatómico a las que Heisenberg dirigió su
atención. Para resolver este problema diabólicamente complicado, y
para encontrar alivio a la fiebre del heno, en 1925 se retiró a
Helgoland, una isla remota en el Mar del Norte.
Su punto de partida fue el llamado "principio de correspondencia",
enunciado por Bohr, según el cual las leyes cuánticas debían
transformarse sin problemas en las correspondientes leyes clásicas
cuando se aplicaban a sistemas suficientemente grandes. ¿Pero
cómo de grande? Tan grande que fue posible descuidar la constante
h de Planck en las ecuaciones relativas. Un objeto típico del mundo
atómico tiene una masa igual a 10-27 kg; consideremos que un
grano de polvo apenas visible a simple vista puede pesar 10-7 kg:
muy poco, pero aún así es mayor que un factor 100000000000000,
es decir, 1020, un uno seguido de veinte ceros. Así que el polvo
atmosférico está claramente dentro del dominio de la física clásica:
es un objeto macroscópico y su movimiento no se ve afectado por la
presencia de factores dependientes de la constante de Planck. Las
leyes cuánticas básicas se aplican naturalmente a los fenómenos
del mundo atómico y subatómico, mientras que pierde sentido
utilizarlas para describir fenómenos relacionados con agregados
más grandes que los átomos, a medida que las dimensiones crecen
y la física cuántica da paso a las leyes clásicas de Newton y
Maxwell. El fundamento de este principio (como volveremos a
repetir muchas veces) radica en el hecho de que los extraños e
inéditos efectos cuánticos "se corresponden" directamente con los
conceptos clásicos de la física al salir del campo atómico para entrar
en el macroscópico.
Impulsado por las ideas de Bohr, Heisenberg redefinió en el campo
cuántico las nociones más banales de la física clásica, como la
posición y la velocidad de un electrón, para que estuvieran en
correspondencia con los equivalentes newtonianos. Pero pronto se
dio cuenta de que sus esfuerzos por reconciliar dos mundos llevaron
al surgimiento de un nuevo y extraño "álgebra de la física".
Todos aprendimos en la escuela la llamada propiedad conmutativa
de la multiplicación, es decir, el hecho de que, dados dos números
cualesquiera a y b, su producto no cambia si los intercambiamos; en
símbolos: a×b=b×a. Es obvio, por ejemplo, que 3×4 =4×3=12. Sin
embargo, en la época de Heisenberg se conoce desde hace mucho
tiempo la existencia de sistemas numéricos abstractos en los que la
propiedad conmutativa no siempre es válida y no se dice que a × b
sea igual a b × a. Pensándolo bien, también se pueden encontrar
ejemplos de operaciones no conmutables en la naturaleza. Un caso
clásico son las rotaciones e inclinaciones (intente realizar dos
rotaciones diferentes en un objeto como un libro, y encontrará
ejemplos en los que el orden en que se producen es importante).
Heisenberg no había estudiado a fondo las fronteras más
avanzadas de las matemáticas puras de su tiempo, pero pudo
contar con la ayuda de colegas más experimentados, que
reconocieron inmediatamente el tipo de álgebra que contenían sus
definiciones: no eran más que multiplicaciones de matrices con
valores complejos. El llamado "álgebra matricial" era una exótica
rama de las matemáticas, conocida desde hace unos sesenta años,
que se utilizaba para tratar objetos formados por filas y columnas de
números: matrices. El álgebra matrimonial aplicada al formalismo de
Heisenberg (llamada mecánica matricial) condujo a la primera
disposición concreta de la física cuántica. Sus cálculos condujeron a
resultados sensatos para las energías de los estados y las
transiciones atómicas, es decir, saltos en el nivel de los electrones.
Cuando se aplicó la mecánica matricial no sólo al caso del átomo de
hidrógeno, sino también a otros sistemas microscópicos simples, se
descubrió que funcionaba de maravilla: las soluciones obtenidas
teóricamente coincidían con los datos experimentales. Y de esas
extrañas manipulaciones de las matrices surgió un concepto
revolucionario.
Los primeros pasos del principio de incertidumbre
La principal consecuencia de la no conmutación resultó ser esta. Si
indicamos con x la posición a lo largo de un eje y p el momento,
siempre a lo largo del mismo eje, de una partícula, el hecho de que
xp no sea igual a px implica que los dos valores no pueden ser
medidos simultáneamente de una manera definida y precisa. En
otras palabras, si obtenemos la posición exacta de una partícula,
perturbamos el sistema de tal manera que ya no es posible conocer
su momento, y viceversa. La causa de esto no es tecnológica, no
son nuestros instrumentos los que son inexactos: es la naturaleza la
que está hecha de esta manera.
En el formalismo de la mecánica matricial podemos expresar esta
idea de manera concisa, lo que siempre ha enloquecido a los
filósofos de la ciencia: "La incertidumbre relacionada con la posición
de una partícula, indicada con Δx, y la relacionada con el impulso,
Δp, están vinculadas por la relación: ΔxΔp≥ħ/2, donde ħ=h/2π". En
palabras: "el producto de las incertidumbres relativas a la posición y
el momento de una partícula es siempre mayor o igual a un número
igual a la constante de Planck dividido por cuatro veces pi". Esto
implica que si medimos la posición con gran precisión, haciendo así
que Δx sea lo más pequeño posible, automáticamente hacemos que
Δp sea arbitrariamente grande, y viceversa. No se puede tener todo
en la vida: hay que renunciar a saber exactamente la posición, o el
momento.
A partir de este principio también podemos deducir la estabilidad del
átomo de Bohr, es decir, demostrar la existencia de un estado
fundamental, una órbita inferior bajo la cual el electrón no puede
descender, como sucede en cambio en la mecánica newtoniana. Si
el electrón se acercara cada vez más al núcleo hasta que nos
golpeara, la incertidumbre sobre su posición sería cada vez menor,
es decir, como dicen los científicos Δx "tendería a cero". De acuerdo
con el principio de Heisenberg Δp se volvería arbitrariamente
grande, es decir, la energía del electrón crecería más y más. Se
muestra que existe un estado de equilibrio en el que el electrón está
"bastante" bien ubicado, con Δx diferente de cero, y en el que la
energía es la mínima posible, dado el valor correspondiente de Δp.
La relación física del principio de incertidumbre es más fácil de
entender si nos ponemos en otro orden de razonamiento, à la
Schrödinger, y examinamos una propiedad (no cuántica) de las
ondas electromagnéticas, bien conocida en el campo de las
telecomunicaciones. Sí, estamos a punto de volver a las olas. La
mecánica de las matrices parecía a primera vista la única forma
rigurosa de penetrar en los meandros del mundo atómico. Pero
afortunadamente, mientras los físicos se preparaban para
convertirse en expertos en álgebra, otra solución más atractiva para
el problema surgió en 1926.
La ecuación más hermosa de la historia
Ya conocimos a Erwin Schrödinger en el capítulo 1. Como
recordarán, en un momento dado se tomó unas vacaciones en
Suiza para estudiar en paz, y el fruto de este período fue una
ecuación, la ecuación de Schrödinger, que aportó una claridad
considerable al mundo cuántico.
¿Por qué es tan importante? Volvamos a la primera ley de Newton,
la F=pero que gobierna el movimiento de las manzanas, los
planetas y todos los objetos macroscópicos. Nos dice que la fuerza
F aplicada a un objeto de masa m produce una aceleración (es
decir, un cambio de velocidad) a y que estas tres cantidades están
vinculadas por la relación escrita arriba. Resolver esta ecuación nos
permite conocer el estado de un cuerpo, por ejemplo una pelota de
tenis, en cada momento. Lo importante, en general, es conocer la F,
de la que luego derivamos la posición x y la velocidad v en el
instante t. Las relaciones entre estas cantidades se establecen
mediante ecuaciones diferenciales, que utilizan conceptos de
análisis infinitesimal (inventados por el propio Newton) y que a
veces son difíciles de resolver (por ejemplo, cuando el sistema está
compuesto por muchos cuerpos). La forma de estas ecuaciones es,
sin embargo, bastante simple: son los cálculos y aplicaciones los
que se complican.
Newton asombró al mundo demostrando que combinando la ley de
la gravitación universal con la ley del movimiento, aplicada a la
fuerza de la gravedad, podíamos obtener las sencillas órbitas
elípticas y las leyes del movimiento planetario que Kepler había
enunciado para el sistema solar. La misma ecuación es capaz de
describir los movimientos de la Luna, de una manzana que cae del
árbol y de un cohete disparado en órbita. Sin embargo, esta
ecuación no puede resolverse explícitamente si están involucrados
cuatro o más cuerpos, todos sujetos a la interacción gravitatoria; en
este caso es necesario proceder por aproximaciones y/o con la
ayuda de métodos numéricos (gracias a las calculadoras). Es un
buen caso: en la base de las leyes de la naturaleza hay una fórmula
aparentemente simple, pero que refleja la increíble complejidad de
nuestro mundo. La ecuación de Schrödinger es la versión cuántica
de F=ma. Sin embargo, si lo resolvemos, no nos encontramos con
los valores de posición y velocidad de las partículas, como en el
caso newtoniano.
En esas vacaciones de diciembre de 1925, Schrödinger trajo
consigo no sólo a su amante, sino también una copia de la tesis
doctoral de de Broglie. Muy pocos, en ese momento, se habían
dado cuenta de las ideas del francés, pero después de la lectura de
Schrödinger las cosas cambiaron rápidamente. En marzo de 1926,
este profesor de 40 años de la Universidad de Zurich, que hasta
entonces no había tenido una carrera particularmente brillante y que
para los estándares del joven físico de la época era casi decrépito,
dio a conocer al mundo su ecuación, que trataba del movimiento de
los electrones en términos de ondas, basada en la tesis de de
Broglie. Para sus colegas resultó ser mucho más digerible que las
frías abstracciones de la mecánica matricial. En la ecuación de
Schrödinger apareció una nueva cantidad fundamental, la función de
onda, indicada con Ψ, que representa su solución.
Desde mucho antes del nacimiento oficial de la mecánica cuántica,
los físicos fueron utilizados para tratar (clásicamente) varios casos
de ondas materiales en el continuo, como las ondas de sonido que
se propagan en el aire. Veamos un ejemplo con el sonido. La
cantidad que nos interesa es la presión ejercida por la onda en el
aire, que indicamos con Ψ(x,t). Desde el punto de vista matemático
se trata de una "función", una receta que da el valor de la presión de
onda (entendida como una variación de la presión atmosférica
estándar) en cada punto x del espacio y en cada instante t. Las
soluciones de la ecuación clásica relativa describen naturalmente
una onda que "viaja" en el espacio y el tiempo, "perturbando" el
movimiento de las partículas de aire (o agua, o un campo
electromagnético u otro). Las olas del mar, los tsunamis y la bella
compañía son todas las formas permitidas por estas ecuaciones,
que son del tipo "diferencial": implican cantidades que cambian, y
para entenderlas es necesario conocer el análisis matemático. La
"ecuación de onda" es un tipo de ecuación diferencial que si se
resuelve nos da la "función de onda" Ψ(x,t) - en nuestro ejemplo la
presión del aire que varía en el espacio y el tiempo a medida que
pasa una onda sonora.
Gracias a las ideas de de Broglie, Schrödinger comprendió
inmediatamente que los complejos tecnicismos de Heisenberg
podían ser reescritos de tal manera que se obtuvieran relaciones
muy similares a las antiguas ecuaciones de la física clásica, en
particular las de las ondas. Desde un punto de vista formal, una
partícula cuántica fue descrita por la función Ψ(x,t), que el propio
Schrödinger llamó "función de onda". Con esta interpretación y
aplicando los principios de la física cuántica, es decir, resolviendo la
ecuación de Schrödinger, fue posible en principio calcular la función
de onda de cada partícula conocida en ese momento, en casi todos
los casos. El problema era que nadie tenía idea de lo que
representaba esta cantidad.
Como consecuencia de la introducción de Ψ, ya no se puede decir
que "en el instante t la partícula está en x", sino que hay que decir
que "el movimiento de la partícula está representado por la función
Ψ(x,t), que da la amplitud Ψ en el momento t en el punto x". Ya no
se conoce la posición exacta. Si vemos que Ψ es particularmente
grande en un punto x y casi nada en otro lugar, podemos sin
embargo decir que la partícula está "más o menos en la posición x".
Las ondas son objetos difundidos en el espacio, y también lo es la
función de las ondas. Observamos que estos razonamientos son
retrospectivos, porque en los años que estamos considerando
nadie, incluyendo a Schrödinger, tenía ideas muy claras sobre la
verdadera naturaleza de la función de onda.
Aquí, sin embargo, hay un giro, que es uno de los aspectos más
sorprendentes de la mecánica cuántica. Schrödinger se dio cuenta
de que su función de onda era, como se esperaría de una onda,
continua en el espacio y en el tiempo, pero que para hacer que las
cosas se sumen, tenía que tomar números diferentes de los reales.
Y esto es una gran diferencia con las ondas normales, ya sean
mecánicas o electromagnéticas, donde los valores son siempre
reales. Por ejemplo, podemos decir que la cresta de una ola
oceánica se eleva desde el nivel medio del mar por 2 metros (y por
lo tanto tenemos que exponer la bandera roja en la playa); o aún
peor que se acerca un tsunami de 10 metros de altura, y por lo tanto
tenemos que evacuar las zonas costeras a toda prisa. Estos valores
son reales, concretos, medibles con diversos instrumentos, y todos
entendemos su significado.
La función de onda cuántica, por el contrario, asume valores en el
campo de los llamados "números complejos "15 . Por ejemplo,
puede suceder que en el punto x la amplitud sea igual a una
"materia" que se escribe 0,3+0,5i, donde i=√-1. En otras palabras, el
número i multiplicado por sí mismo da el resultado -1. Un objeto
como el que está escrito arriba, formado por un número real añadido
a otro número real multiplicado por i, se llama un número complejo.
La ecuación de Schrödinger siempre implica la presencia de i, un
número que juega un papel fundamental en la propia ecuación, por
lo que la función de onda asume valores complejos.16
Esta complicación matemática es un paso inevitable en el camino
hacia la física cuántica y es otra indicación de que la función de
onda de una partícula no es directamente medible: después de todo,
los números reales siempre se obtienen en los experimentos. En la
visión de Schrödinger, un electrón es una ola para todos los
propósitos, no muy diferente de un sonido o una ola marina. ¿Pero
cómo es posible, ya que una partícula tiene que estar ubicada en un
punto definido y no puede ocupar porciones enteras del espacio? El
truco es superponer varias ondas de tal manera que se borren casi
en todas partes excepto en el punto que nos interesa. Así pues, una
combinación de ondas logra representar un objeto bien situado en el
espacio, que estaríamos tentados de llamar "partícula" y que
aparece cada vez que la suma de las ondas da lugar a una
concentración particular en un punto. En este sentido, una partícula
es una "onda anómala", similar al fenómeno causado en el mar por
la superposición de las olas, que crea una gran perturbación capaz
de hacer volcar las embarcaciones.
Una eterna adolescente
¿Dónde está la teoría cuántica después de los descubrimientos de
Heisenberg, Schrödinger, Bohr, Born y colegas? Existen las
funciones de onda probabilística por un lado y el principio de
incertidumbre por el otro, que permite mantener el modelo de
partículas. La crisis de la dualidad "un poco de onda un poco de
partícula" parece resuelta: los electrones y los fotones son
partículas, cuyo comportamiento es descrito por ondas
probabilísticas. Como ondas están sujetas a fenómenos de
interferencia, haciendo que las partículas dóciles aparezcan donde
se espera que lo hagan, obedeciendo a la función de la onda. Cómo
llegan allí no es un problema que tenga sentido. Esto es lo que
dicen en Copenhague. El precio a pagar por el éxito es la intrusión
en la física de la probabilidad y varias peculiaridades cuánticas.
La idea de que la naturaleza (o Dios) juega a los dados con la
materia subatómica no le gustaba a Einstein, Schrödinger, de
Broglie, Planck y muchos otros. Einstein, en particular, estaba
convencido de que la mecánica cuántica era sólo una etapa, una
teoría provisional que tarde o temprano sería sustituida por otra,
determinística y causal. En la segunda parte de su carrera, el gran
físico hizo varios intentos ingeniosos para evitar el problema de la
incertidumbre, pero sus esfuerzos se vieron frustrados uno tras otro
por Bohr, supuestamente para su maligna satisfacción.
Por lo tanto, debemos cerrar el capítulo suspendido entre los
triunfos de la teoría y un cierto sentimiento de inquietud. A finales de
los años 20 la mecánica cuántica era ahora una ciencia adulta, pero
aún susceptible de crecimiento: sería profundamente revisada varias
veces, hasta los años 40.
Capítulo 6
Quantum

omo para confirmar su apariencia sobrenatural, la teoría


C cuántica de Heisenberg y Schrödinger realizó literalmente
milagros. El modelo del átomo de hidrógeno se aclaró sin
necesidad de las muletas conceptuales de Kepler: las órbitas fueron
sustituidas por "orbitales", hijos de las nuevas e indeterminadas
funciones de onda. La nueva mecánica cuántica resultó ser una
herramienta formidable en manos de los físicos, que cada vez
aplicaron mejor la ecuación de Schrödinger a varios sistemas
atómicos y subatómicos y a campos de creciente complejidad.
Como dijo Heinz Pagels, "la teoría liberó las energías intelectuales
de miles de jóvenes investigadores en todas las naciones
industrializadas. En ninguna otra ocasión una serie de ideas
científicas ha tenido consecuencias tan fundamentales en el
desarrollo tecnológico; sus aplicaciones siguen conformando la
historia política y social de nuestra civilización "1 .
Pero cuando decimos que una teoría o modelo "funciona", ¿qué
queremos decir exactamente? Que es matemáticamente capaz de
hacer predicciones sobre algún fenómeno natural, comparable con
los datos experimentales. Si las predicciones y mediciones
acumuladas en nuestras experiencias se coliman, entonces la teoría
funciona "ex post", es decir, explica por qué sucede un cierto hecho,
que antes nos era desconocido.
Por ejemplo, podríamos preguntarnos qué sucede al lanzar dos
objetos de diferente masa desde un punto alto, digamos la torre de
Pisa. La demostración de Galileo y todos los experimentos
realizados posteriormente muestran que, a menos que haya
pequeñas correcciones debido a la resistencia del aire, dos objetos
graves de masas diferentes que caen desde la misma altura llegan
al suelo al mismo tiempo. Esto es cien por ciento cierto en ausencia
de aire, como se ha demostrado espectacularmente en la Luna en
vivo por televisión: la pluma y el martillo dejados caer por un
astronauta llegaron exactamente al mismo tiempo.2 La teoría
original y profunda que se ha confirmado en este caso es la
gravitación universal newtoniana, combinada con sus leyes de
movimiento. Al juntar las ecuaciones relacionadas, podemos
predecir cuál será el comportamiento de un cuerpo en caída sujeto a
la fuerza de la gravedad y calcular cuánto tiempo llevará alcanzar el
suelo. Es un juego de niños verificar que dos objetos de masas
diferentes lanzados desde la misma altura deben llegar al suelo al
mismo tiempo (si descuidamos la resistencia del aire).3
Pero una buena teoría también debe hacernos capaces de predecir
la evolución de fenómenos aún no observados. Cuando se lanzó el
satélite ECHO en 1958, por ejemplo, se utilizaron la gravitación y las
leyes de movimiento de Newton para calcular de antemano la
trayectoria que seguiría, anotar la fuerza de empuje y otros factores
correctivos importantes, como la velocidad del viento y la rotación de
la Tierra. El poder de predicción de una ley depende, por supuesto,
del grado de control que pueda ejercerse sobre los diversos factores
involucrados. Desde todo punto de vista, la teoría de Newton ha
demostrado ser extraordinariamente exitosa, tanto en las
verificaciones ex post como en el campo de la predicción, cuando se
aplica a su vasto alcance: velocidades no demasiado altas (mucho
más bajas que la luz) y escalas no demasiado pequeñas (mucho
más grandes que las atómicas).
Newton no escribe correos electrónicos
Preguntémonos ahora si la mecánica cuántica es capaz de explicar
(ex post) el mundo que nos rodea y si puede utilizarse para predecir
la existencia de fenómenos aún no observados, lo que la hace
indispensable en el descubrimiento de nuevas y útiles aplicaciones.
La respuesta a ambas preguntas es un sí convencido. La teoría
cuántica ha pasado innumerables pruebas experimentales, en
ambos sentidos. Está injertada en las teorías que la precedieron, la
mecánica newtoniana y el electromagnetismo de Maxwell, siempre
que la marca cuántica, la famosa constante de Planck h, no sea tan
pequeña como para poder ser ignorada en los cálculos. Esto ocurre
cuando las masas, dimensiones y escalas de tiempo de los objetos
y eventos son comparables a las del mundo atómico. Y como todo
está compuesto de átomos, no debe sorprendernos que estos
fenómenos a veces levanten la cabeza y hagan sentir su presencia
incluso en el mundo macroscópico, donde se encuentran los seres
humanos y sus instrumentos de medición.
En este capítulo exploraremos las aplicaciones de esta extraña
teoría, que nos parecerá relacionada con la brujería. Podremos
explicar toda la química, desde la tabla periódica de los elementos
hasta las fuerzas que mantienen unidas las moléculas de los
compuestos, de los cuales hay miles de millones de tipos. Luego
veremos cómo la física cuántica afecta virtualmente todos los
aspectos de nuestras vidas. Si bien es cierto que Dios juega a los
dados con el universo, ha logrado controlar los resultados de los
juegos para darnos el transistor, el diodo de túnel, los láseres, los
rayos X, la luz de sincrotrón, los marcadores radiactivos, los
microscopios de efecto túnel de barrido, los superconductores, la
tomografía por emisión de positrones, los superfluidos, los reactores
nucleares, las bombas atómicas, las imágenes de resonancia
magnética y los microchips, sólo para dar algunos ejemplos.
Probablemente no tengas superconductores o microscopios de
escaneo, pero ciertamente tienes cientos de millones de transistores
en la casa. Su vida es tocada de mil maneras por tecnologías
posibles a través de la física cuántica. Si tuviéramos un universo
estrictamente newtoniano, no podríamos navegar por Internet, no
sabríamos qué es el software, y no habríamos visto las batallas
entre Steve Jobs y Bill Gates (o mejor dicho, habrían sido rivales
multimillonarios en otro sector, como los ferrocarriles). Podríamos
habernos ahorrado unos cuantos problemas que plagan nuestro
tiempo, pero ciertamente no tendríamos las herramientas para
resolver muchos más.
Las consecuencias en otros campos científicos, más allá de los
límites de la física, son igualmente profundas. Erwin Schrödinger, a
quien debemos la elegante ecuación que rige todo el mundo
cuántico, escribió en 1944 un libro profético titulado Qué es la vida4
, en el que hizo una hipótesis sobre la transmisión de la información
genética. El joven James Watson leyó este notable trabajo y fue
estimulado a investigar la naturaleza de los genes. El resto de la
historia es bien conocida: junto con Francis Crick, en la década de
1950 Watson descubrió la doble hélice del ADN, iniciando la
revolución de la biología molecular y, más tarde, la inescrupulosa
ingeniería genética de nuestros tiempos. Sin la revolución cuántica
no habríamos podido comprender la estructura de las moléculas
más simples, y mucho menos el ADN, que es la base de toda la
vida.5 Al adentrarse en áreas más fronterizas y especulativas, los
cuantos podrían ofrecer la solución a problemas como la naturaleza
de la mente, la conciencia y la autopercepción, o al menos esto es lo
que afirman algunos físicos teóricos temerarios que se atreven a
enfrentarse al campo de las ciencias cognitivas.
La mecánica cuántica sigue arrojando luz sobre los fenómenos
químicos hasta el día de hoy. En 1998, por ejemplo, se concedió el
Premio Nobel de Química a dos físicos, Walter Kohn y John Pople,
por el descubrimiento de poderosas técnicas de computación para
resolver las ecuaciones cuánticas que describen la forma y las
interacciones de las moléculas. Astrofísica, ingeniería nuclear,
criptografía, ciencia de los materiales, electrónica: estas ramas del
conocimiento y otras, incluyendo la química, la biología, la
bioquímica y así sucesivamente, se empobrecerían sin los cuantos.
Lo que llamamos computación probablemente sería poco más que
diseñar archivos para documentos en papel. ¿Qué haría esta
disciplina sin la incertidumbre de Heisenberg y las probabilidades de
Born?
Sin los cuantos no hubiéramos podido entender realmente la
estructura y las propiedades de los elementos químicos, que habían
estado bien asentados en la tabla periódica durante medio siglo.
Son los elementos, sus reacciones y sus combinaciones los que dan
vida a todo lo que nos rodea y a la vida misma.
Un juego con Dmitri Mendeleev
La química era una ciencia seria y vital, como la física, mucho antes
de que la teoría cuántica entrara en escena. Fue a través de la
investigación química de John Dalton que la realidad de los átomos
fue confirmada en 1803, y los experimentos de Michael Faraday
llevaron al descubrimiento de sus propiedades eléctricas. Pero nadie
entendía cómo eran realmente las cosas. La física cuántica
proporcionó a la química un modelo sofisticado y racional capaz de
explicar la estructura detallada y el comportamiento de los átomos,
así como un formalismo para comprender las propiedades de las
moléculas y predecir de forma realista su formación. Todos estos
éxitos fueron posibles precisamente por la naturaleza probabilística
de la teoría.
Sabemos que la química no es un tema muy querido, aunque es la
base de mucha tecnología moderna. Todos esos símbolos y
números escritos en el fondo confunden las ideas. Pero estamos
convencidos de que si se dejan llevar en este capítulo para explorar
la lógica de la disciplina, se convencerán. El descubrimiento de los
misterios del átomo es una de las novelas de misterio más
convincentes de la historia de la humanidad.
El estudio de la química, como todo el mundo sabe, parte de la tabla
periódica de los elementos, que adorna las paredes de cientos de
miles de aulas en todo el mundo. Su invento fue una verdadera
hazaña científica, lograda en gran parte por el sorprendentemente
prolífico Dmitri Ivanovič Mendeleev (1834-1907). Figura destacada
de la Rusia zarista, Mendeleev fue un gran erudito, capaz de escribir
cuatrocientos libros y artículos, pero también se interesó por las
aplicaciones prácticas de su trabajo, tanto que dejó contribuciones
sobre temas como el uso de fertilizantes, la producción de queso en
cooperativas, la normalización de pesos y medidas, los aranceles
aduaneros en Rusia y la construcción naval. Políticamente radical,
se divorció de su esposa para casarse con una joven estudiante del
instituto de arte. A juzgar por las fotos de época, le gustaba
mantener el pelo largo.7
El diagrama de Mendeleev proviene de ordenar los elementos
aumentando el peso atómico. Observamos que por "elemento" nos
referimos a una simple sustancia, compuesta por átomos del mismo
tipo. Un bloque de grafito y un diamante están hechos de la misma
sustancia, el carbono, aunque los átomos tengan una estructura
diferente: en un caso dan lugar a un material oscuro y útil para hacer
lápices, en el otro a objetos útiles para ser bellos a los ojos de la
novia o para perforar el más duro de los metales. Viceversa, el agua
no es un elemento sino un compuesto químico, porque está
compuesta de átomos de oxígeno e hidrógeno unidos por fuerzas
eléctricas. Incluso las moléculas compuestas obedecen a la
ecuación de Schrödinger.
El "peso atómico" que mencionamos antes no es más que la masa
característica de cada átomo. Todos los átomos de la misma
sustancia, digamos el oxígeno, tienen la misma masa. Lo mismo
ocurre con los átomos de nitrógeno, que son un poco menos
pesados que los átomos de oxígeno. Hay sustancias muy ligeras,
como el hidrógeno, la más ligera de todas, y otras muy pesadas,
como el uranio, cientos de veces más masivas que el hidrógeno. La
masa atómica se mide por comodidad con una unidad de medida
especial y se indica con la letra M,8 pero aquí no es importante
entrar en los detalles de los valores individuales. Estamos más bien
interesados en la lista de los elementos en orden creciente de peso
atómico. Mendeleev se dio cuenta de que la posición de un
elemento en esta lista tenía una clara correspondencia con sus
propiedades químicas: era la clave para penetrar en los misterios de
la materia.
El Sr. Pauli entra en escena
Los sistemas físicos tienden a organizarse en un estado de menor
energía. En los átomos, las reglas cuánticas y la ecuación de
Schrödinger proporcionan las configuraciones permitidas en las que
los electrones pueden moverse, las orbitales, cada una de las
cuales tiene su propio y preciso nivel de energía. El último paso para
desentrañar todos los misterios del átomo comienza aquí, y es un
descubrimiento extraordinario y sorprendente: ¡cada órbita tiene
espacio para un máximo de dos electrones! Si no, el mundo físico
sería muy diferente.
Aquí es donde entra en juego el genio de Wolfgang Pauli, este
irascible y legendario científico que representó en cierto sentido la
conciencia de su generación, el hombre que aterrorizaba a colegas
y estudiantes, que a veces firmaba él mismo "La Ira de Dios" y sobre
el que oiremos más a menudo (véase también la nota 1 del capítulo
5).
Para evitar las pilas de electrones en el s1, en 1925 Pauli formuló la
hipótesis de que era válido el llamado principio de exclusión, según
el cual dos electrones dentro de un átomo nunca pueden estar en el
mismo estado cuántico simultáneamente. Gracias al principio de
exclusión hay un criterio para poner las partículas en el lugar
correcto al subir a los átomos cada vez más pesados. Por cierto, el
mismo principio es lo que nos impide atravesar las paredes, porque
nos asegura que los electrones de nuestro cuerpo no pueden estar
en el estado de los de la pared y deben permanecer separados por
vastos espacios, como las casas de las Grandes Praderas.
El profesor Pauli era un caballero bajito, regordete, creativo e
hipercrítico con un espíritu sarcástico que era el terror y el deleite de
sus colegas. Ciertamente no le faltó modestia, ya que escribió un
artículo cuando era adolescente en el que explicaba
convincentemente la teoría de la relatividad a los físicos. Su carrera
estuvo marcada por bromas rápidas como, por ejemplo, "¡Ah, tan
joven y ya tan desconocido!", "Este artículo ni siquiera tiene el honor
de estar equivocado", "Su primera fórmula está equivocada, pero la
segunda no deriva de la primera", "No me importa que sea lento en
la comprensión, pero escribe los artículos más rápido de lo que
piensa". Ser el sujeto de una de estas flechas era ciertamente una
experiencia que podía reducir el tamaño de cualquiera.
Un autor que permaneció en el anonimato escribió este poema
sobre Pauli, según lo reportado por George Gamow en su libro
"Treinta años que sacudieron la física":
El principio de exclusión fue uno de los mayores logros científicos de
Pauli. Básicamente nos devolvió la química, permitiéndonos
entender por qué la tabla periódica de elementos está hecha de esa
manera. Sin embargo, en su formulación básica es muy simple:
nunca dos electrones en el mismo estado cuántico. No está hecho,
verboten! Esta pequeña regla nos guía en la construcción de átomos
cada vez más grandes y en la comprensión de sus propiedades
químicas.
Repetimos las dos reglas de oro, de Pauli, que debemos seguir a
medida que avanzamos en la tabla periódica: 1) los electrones
deben ocupar siempre diferentes estados cuánticos y 2) los
electrones deben estar configurados para tener la menor energía
posible. Esta segunda regla, por cierto, se aplica en otras áreas y
también explica por qué los cuerpos sujetos a la fuerza de gravedad
caen: un objeto en el suelo tiene menos energía que uno en el
decimocuarto piso. Pero volvamos al helio. Hemos dicho que los dos
electrones en s1 son consistentes con los datos experimentales.
¿No es eso una violación del principio de exclusión? En realidad no,
porque gracias a otra gran idea de Pauli, tal vez la más ingeniosa, el
giro entra en juego (además de lo que diremos ahora, para una
discusión más profunda de este tema ver el Apéndice).
Los electrones, en cierto sentido, giran sobre sí mismos
incesantemente, como peonzas microscópicas. Esta rotación, desde
el punto de vista cuántico, puede ocurrir de dos maneras, que se
llaman arriba (arriba) y abajo (abajo). Es por eso que dos electrones
pueden permanecer fácilmente en la misma órbita 1 y respetar el
dictado de Pauli: basta con que tengan un espín opuesto para que
se encuentren en diferentes estados cuánticos. Eso es todo. Pero
ahora que hemos agotado los 1s, no podemos sobrecargarlo con un
tercer electrón.
El átomo de helio satura la órbita 1 y está bien, porque no hay más
espacio disponible: los dos electrones están sentados y tranquilos.
La consecuencia de esta estructura es precisamente la inactividad
química del helio, que no desea interactuar con otros átomos. El
hidrógeno, en cambio, tiene sólo un electrón en 1s y es hospitalario
con otras partículas que quieran unirse a él, siempre y cuando
tengan el espín opuesto; de hecho, la llegada de un electrón de otro
átomo (como veremos en breve) es la forma en que el hidrógeno
crea un vínculo con otros elementos16. En el lenguaje de la
química, la órbita del hidrógeno se denomina "incompleta" (o incluso
que su electrón sea "impar"), mientras que la del helio es
"completa", porque tiene el máximo número de electrones esperado:
dos, de espín opuesto. La química de estos dos elementos, por lo
tanto, es tan diferente como el día o la noche.
En resumen, el hidrógeno y el litio son químicamente similares
porque ambos tienen un solo electrón en la órbita exterior (1s y 2s
respectivamente). El helio y el neón son químicamente similares
porque todos sus electrones están en orbitales completos (1s y 1s,
2s, 2px, 2py y 2pz respectivamente), lo que da como resultado
estabilidad y no reactividad química. De hecho, son los niveles
incompletos los que estimulan la actividad de los átomos. El misterio
de los sospechosos en el enfrentamiento al estilo americano en
bandas secretas, observado por primera vez por Mendeleev, está
casi completamente aclarado.
Ahora es hasta el sodio, Z=11, con once cargas positivas en el
núcleo y once electrones que de alguna manera tenemos que
arreglar. Ya hemos visto que los diez primeros completan las cinco
primeras órbitas, por lo que debemos recurrir a los tres y colocar allí
el electrón solitario. Voilà: el sodio es químicamente similar al
hidrógeno y al litio, porque los tres tienen un solo electrón en la
órbita más exterior, que es del tipo s. Luego está el magnesio, que
añade al electrón en 3s otro compartido (en sentido cuántico) entre
3px, 3py y 3pcs. Continuando con el llenado de 3s y 3p, nos damos
cuenta de que las configuraciones se replican exactamente las ya
vistas para 2s y 2p; después de otros ocho pasos llegamos al argo,
otro gas noble e inerte que tiene todas las órbitas completas: 1s, 2s,
2p, 3s y 3p - todas contienen sus dos buenos electrones de espín
opuestos. La tercera fila de la tabla periódica reproduce
exactamente la segunda, porque las órbitas s y p de sus átomos se
llenan de la misma manera.
En la cuarta fila, sin embargo, las cosas cambian. Empezamos
tranquilamente con 4s y 4p pero luego nos encontramos con el 3d.
Los orbitales de este tipo corresponden a soluciones de orden aún
más alto de la ecuación de Schrödinger y se llenan de una manera
más complicada, porque en este punto hay muchos electrones.
Hasta ahora hemos descuidado este aspecto, pero las partículas
cargadas negativamente interactúan entre sí, repeliéndose entre sí
debido a la fuerza eléctrica, lo que hace que los cálculos sean muy
complicados. Es el equivalente del problema newtoniano de n
cuerpos, es decir, es similar a la situación en la que los movimientos
de un sistema solar cuyos planetas están lo suficientemente cerca
unos de otros como para hacer sentir su influencia gravitatoria. Los
detalles de cómo es posible llegar a una solución son complejos y
no son relevantes para lo que diremos aquí, pero es suficiente saber
que todo funciona al final. Las órbitas 3d se mezclan con las 4p para
que encuentren espacio para hasta diez electrones antes de
completarse. Por eso el período ocho cambia a dieciocho (18=8+10)
y luego cambia de nuevo por razones similares a treinta y dos. Las
bases físicas del comportamiento químico de la materia ordinaria, y
por lo tanto también de las sustancias que permiten la vida, están
ahora claras. El misterio de Mendeleev ya no es tal.
a los detalles.
Capítulo 7
Einstein y Bohr

emos superado el obstáculo de los últimos capítulos y hemos


H llegado a comprender, gracias a Wolfgang Pauli, la esencia
íntima de la química (y por lo tanto de la biología) y por qué
nunca, con gran probabilidad, podremos pasar con nuestra mano
por una mesa de granito, que también consiste en su mayor parte
en espacio vacío. Ha llegado el momento de profundizar aún más en
el mar de los misterios cuánticos y tratar la disputa fundamental
entre Niels Bohr y Albert Einstein. Vamos a escuchar algunas
buenas.
La creatividad científica, idealmente, es una eterna batalla entre la
intuición y la necesidad de pruebas incontrovertibles. Hoy sabemos
que la ciencia cuántica describe con éxito un número increíble de
fenómenos naturales e incluso tiene aplicaciones con efectos
económicos muy concretos. También nos hemos dado cuenta de
que el mundo microscópico, es decir, cuántico, es extraño, pero
extraño de hecho. La física actual ni siquiera parece estar
relacionada con la que ha progresado tanto desde el siglo XVII
hasta principios del siglo XX. Hubo una verdadera revolución.
A veces los científicos (incluyéndonos a nosotros), en un intento de
hacer llegar los resultados de sus investigaciones al público en
general, recurren a metáforas. Son en cierto sentido hijas de la
frustración de quienes no pueden explicar de manera "sensata" lo
que vieron en el laboratorio, porque ello implicaría una revisión de
nuestra forma de pensar: tenemos que tratar de comprender un
mundo del que estamos excluidos de la experiencia directa y
cotidiana. Seguramente nuestro lenguaje es inadecuado para
describirlo, ya que ha evolucionado para otros propósitos.
Supongamos que una raza de alienígenas del planeta Zyzzx ha
recogido y analizado ciertos datos macroscópicos del planeta Tierra
y ahora sabe todo sobre el comportamiento de las multitudes -
desde los partidos en el estadio hasta los conciertos en la plaza,
desde los ejércitos en marcha hasta las protestas masivas que
terminan con las multitudes huyendo de las cargas policiales (lo que
sólo ocurre en los países atrasados, eh). Después de recopilar
información durante un siglo, los Zyzzxianos tienen un catálogo
sustancial de acciones colectivas a su disposición, pero no saben
nada sobre las habilidades y aspiraciones de los hombres, el
razonamiento, el amor, la pasión por la música o el arte, el sexo, el
humor. Todas estas características individuales se pierden en la
melaza de las acciones colectivas.
Lo mismo ocurre en el mundo microscópico. Si pensamos en el
hecho de que el pelo de los cilios de una pulga contiene mil billones
de billones de átomos, entendemos por qué los objetos
macroscópicos, elementos de nuestra experiencia diaria, son inútiles
en la comprensión de la realidad microscópica. Como los individuos
en la multitud, los átomos se mezclan en cuerpos tangibles, aunque
no del todo, como veremos más adelante. Así que tenemos dos
mundos: uno clásico, elegantemente descrito por Newton y Maxwell,
y uno cuántico. Por supuesto, al final del día, sólo hay un mundo, en
el que la teoría cuántica trata con éxito los átomos y se fusiona con
la clásica en el caso macroscópico. Las ecuaciones de Newton y
Maxwell son aproximaciones de las ecuaciones cuánticas.
Revisemos sistemáticamente algunos aspectos desconcertantes de
este último.
Cuatro choques seguidos
1. Comencemos con la radiactividad y empecemos con una de las
criaturas más queridas de los físicos, el muón. Es una partícula que
pesa unas doscientas veces más que un electrón y tiene la misma
carga. Parece ser puntiforme, es decir, tiene un tamaño
insignificante, y parece girar sobre sí mismo. Cuando se descubrió
esta copia pesada del electrón, creó desconcierto en la comunidad
científica, tanto que el gran Isaac Isidor Rabi salió con la ahora
famosa exclamación "¿Quién ordenó esto? "1. El muón, sin
embargo, tiene una diferencia fundamental con el electrón: es
inestable, es decir, está sujeto a la desintegración radiactiva, y se
desintegra después de unos dos microsegundos. Para ser precisos,
su "vida media", es decir, el tiempo en el que desaparece en
promedio la mitad de los muones de un grupo de mil, es igual a 2,2
microsegundos. Esto en promedio, porque si nos fijamos en un solo
muón (también podemos darle un nombre bonito, como Hilda, Moe,
Benito o Julia) no sabemos cuándo terminará su vida. El evento
"decadencia del muón X" es aleatorio, no determinístico, como si
alguien tirara un par de dados y decidiera los eventos basándose en
las combinaciones de números que salieron. Debemos abandonar el
determinismo clásico y la razón en términos probabilísticos para
entender los fundamentos de la nueva física.
2. En el mismo orden de ideas tenemos el fenómeno de la reflexión
parcial, que recordarán del capítulo 3. Se pensaba que la luz era
una ola, sujeta a todos los fenómenos de otras olas como las del
mar, incluyendo la reflexión, hasta que Planck y Einstein
descubrieron los quanta, partículas que se comportan como olas. Si
se dispara un quantum de luz, es decir, un fotón, contra una vitrina,
se refleja o difracta; en el primer caso ayuda a dar una imagen tenue
de quienes admiran la ropa expuesta, en el segundo ilumina los
elegantes maniquíes. El fenómeno se describe matemáticamente
mediante una función de onda, que al ser una onda puede ser
parcialmente reflejada o difractada. Las partículas, por otro lado, son
discretas, por lo que deben ser reflejadas o refractadas, en total.
3. Ahora llegamos al ya conocido experimento de la doble rendija,
cuya noble historia se remonta a Thomas Young que niega a
Newton en la teoría corpuscular de la luz y sanciona el triunfo de la
ondulatoria. Lo hemos visto para los fotones, pero en realidad todas
las partículas se comportan de la misma manera: muones, quarks,
bosones W y así sucesivamente. Todos ellos, cuando son sometidos
a un experimento similar al de Young, parecen comportarse como
olas.
Veamos, por ejemplo, el caso del electrón, que al igual que el fotón
puede ser emitido desde una fuente y disparado contra una pantalla
en la que se han hecho dos rendijas, más allá de las cuales hemos
colocado una pantalla detectora (con circuitos especiales en lugar
de fotocélulas). Realizamos el experimento disparando los
electrones lentamente, por ejemplo uno por hora, para asegurarnos
de que las partículas pasen de una en una (sin "interferir" entre
ellas). Como descubrimos en el capítulo 4, al repetir las mediciones
muchas veces al final nos encontramos con un conjunto de
ubicaciones de electrones en la pantalla formando una figura de
interferencia. La partícula individual también parece "saber" si hay
una o dos rendijas abiertas, mientras que ni siquiera sabemos por
dónde pasó. Si cerramos una de las dos rendijas, la figura de
interferencia desaparece. Y desaparece incluso si colocamos un
instrumento junto a las rendijas que registra el paso de los
electrones desde ese punto. En última instancia, la cifra de
interferencia aparece sólo cuando nuestra ignorancia del camino
seguido por el único electrón es total.
4. Como si esto no fuera suficiente, tenemos que lidiar con otras
propiedades perturbadoras. Por ejemplo, el giro. Tal vez el aspecto
más desconcertante de la historia esté dado por el hecho de que el
electrón tiene un valor de espín fraccionado, igual a 1/2, es decir, su
"momento angular" es ħ/2 (véase el Apéndice). Además, un electrón
siempre está alineado en cualquier dirección en la que elijamos
medir su espín, que si tenemos en cuenta su orientación puede ser
+1/2 o -1/2, o como dijimos anteriormente arriba (arriba) o abajo
(abajo)2. La guinda del pastel es la siguiente: si giramos un electrón
en el espacio en 360°, su función de onda de Ψe se convierte en
-Ψe, es decir, cambia de signo (en el Apéndice hay un párrafo que
explica cómo ocurre esto). Nada de esto le sucede a los objetos del
mundo clásico.
Tomemos por ejemplo un palillo de tambor. Si el percusionista de
una banda, en la vena de las actuaciones, comienza a girarla entre
sus dedos entre un golpe y otro, girándola así 360°, el objeto vuelve
a tener exactamente la misma orientación espacial. Si en lugar de la
baqueta hubiera un electrón, después de la vuelta nos
encontraríamos con una partícula de signo contrario.
Definitivamente estamos en un territorio desconocido. Pero, ¿está
sucediendo realmente o es sólo sofisticación matemática? Como
siempre, sólo podemos medir la probabilidad de un evento, el
cuadrado de la función de onda, así que ¿cómo sabemos si aparece
el signo menos o no? ¿Y qué significa "signo menos" en este caso,
qué tiene que ver con la realidad? ¿No son elucubraciones de
filósofos que contemplan el ombligo a expensas de los fondos
públicos para la investigación?
¡Nein! dice Pauli. El signo menos implica que si se toman dos
electrones al azar (recuerde que todos son idénticos), su estado
cuántico conjunto debe ser tal que cambie de signo si los dos se
intercambian. La consecuencia de todo esto es el principio de
exclusión de Pauli, la fuerza de intercambio, el relleno orbital, la
tabla periódica, la razón por la cual el hidrógeno es reactivo y el
helio inerte, toda la química. Esta es la base de la existencia de
materia estable, conductores, estrellas de neutrones, antimateria y
aproximadamente la mitad del producto interno bruto de los Estados
Unidos.
¿Pero por qué tan extraño?
Volvamos al punto 1 del párrafo anterior y al querido viejo muón,
partícula elemental que pesa doscientas veces el electrón y vive dos
millonésimas de segundo, antes de descomponerse y transformarse
en un electrón y neutrinos (otras partículas elementales). A pesar de
estas extrañas características, realmente existen y en el Fermilab
esperamos algún día construir un acelerador que los haga funcionar
a alta velocidad.
El decaimiento de los muones está básicamente determinado por la
probabilidad cuántica, mientras que la física newtoniana se
mantiene al margen observando. Sin embargo, en el momento de su
descubrimiento, no todos estaban dispuestos a tirar por la borda un
concepto tan bello como el "determinismo clásico", la perfecta
previsibilidad de los fenómenos típicos de la física clásica. Entre los
diversos intentos de salvar lo rescatable, se introdujeron las
llamadas "variables ocultas".
Imaginemos que dentro del muón se esconde una bomba de tiempo,
un pequeño mecanismo con su buen reloj conectado a una carga de
dinamita, que hace estallar la partícula, aunque no sepamos
cuándo. La bomba debe ser, por lo tanto, un dispositivo mecánico de
tipo newtoniano pero submicroscópico, no observable con nuestras
tecnologías actuales pero aún así responsable en última instancia
de la descomposición: las manecillas del reloj llegan al mediodía, y
hola muón. Si cuando se crea un muón (generalmente después de
choques entre otros tipos de partículas) el tiempo de detonación se
establece al azar (tal vez en formas relacionadas con la creación del
mecanismo oculto), entonces hemos replicado de manera clásica el
proceso aparentemente indeterminado que se observa. La pequeña
bomba de tiempo es un ejemplo de una variable oculta, nombre que
se da a varios dispositivos similares que podrían tener el importante
efecto de modificar la teoría cuántica en un sentido determinista,
para barrer la probabilidad "sin sentido". Pero como veremos en
breve, después de ochenta años de disputa sabemos que este
intento ha fracasado y la mayoría de los físicos contemporáneos
aceptan ahora la extraña lógica cuántica.
Cosas ocultas
En la década de 1930, mucho antes de que se descubrieran los
quarks, Einstein dio rienda suelta a su profunda oposición a la
interpretación de Copenhague con una serie de intentos de
transformar la teoría cuántica en algo más parecido a la vieja,
querida y sensata física de Newton y Maxwell. En 1935, con la
colaboración de los dos jóvenes físicos teóricos Boris Podolsky y
Nathan Rosen, se sacó el as de la manga8 . Su contrapropuesta se
basaba en un experimento mental (Gendankenexperiment, ya
hemos discutido) que pretendía demostrar con gran fuerza el
choque entre el mundo cuántico de la probabilidad y el mundo
clásico de los objetos reales, con propiedades definidas, y que
también establecería de una vez por todas dónde estaba la verdad.
Este experimento se hizo famoso bajo el nombre de "Paradoja
EPR", por las iniciales de los autores. Su propósito era demostrar lo
incompleto de la mecánica cuántica, con la esperanza de que un día
se descubriera una teoría más completa.
¿Qué significa estar "completo" o "incompleto" para una teoría? En
este caso, un ejemplo de "finalización" viene dado por las variables
ocultas vistas anteriormente. Estas entidades son exactamente lo
que dicen ser: factores desconocidos que influyen en el curso de los
acontecimientos y que pueden (o tal vez no) ser descubiertos por
una investigación más profunda (recuerde el ejemplo de la bomba
de tiempo dentro del muón). En realidad son presencias comunes
en la vida cotidiana. Si lanzamos una moneda al aire, sabemos que
los dos resultados "cabeza" y "cruz" son igualmente probables. En la
historia de la humanidad, desde la invención de las monedas, este
gesto se habrá repetido miles de miles de millones de veces (tal vez
incluso por Bruto para decidir si matar o no a César). Todo el mundo
está de acuerdo en que el resultado es impredecible, porque es el
resultado de un proceso aleatorio. ¿Pero estamos realmente
seguros? Aquí es donde salen las variables ocultas.
Una es, para empezar, la fuerza utilizada para lanzar la moneda al
aire, y en particular cuánto de esta fuerza resulta en el movimiento
vertical del objeto y cuánto en su rotación sobre sí mismo. Otras
variables son el peso y el tamaño de la moneda, la dirección de las
micro-corrientes de aire, el ángulo preciso en el que golpea la mesa
al caer y la naturaleza de la superficie de impacto (¿está la mesa
hecha de madera? ¿Está cubierta con un paño?). En resumen, hay
muchas variables ocultas que influyen en el resultado final.
Ahora imaginemos que estamos construyendo una máquina capaz
de lanzar la moneda con la misma fuerza. Siempre utilizamos el
mismo ejemplar y realizamos el experimento en un lugar protegido
de las corrientes (tal vez bajo una campana de vidrio donde
creamos el vacío), asegurándonos de que la moneda siempre caiga
cerca del centro de la mesa, donde también tenemos control sobre
la elasticidad de la superficie. Después de gastar, digamos,
17963,47 dólares en este artilugio, estamos listos para encenderlo.
¡Adelante! ¡Hagamos quinientas vueltas y consigamos quinientas
cabezas! Hemos logrado controlar todas las variables ocultas
elusivas, que ahora no son ni variables ni ocultas, ¡y hemos
derrotado el caso! ¡El determinismo manda! La física clásica
newtoniana se aplica tanto a las monedas como a las flechas, balas,
pelotas de tenis y planetas. La aparente aleatoriedad del
lanzamiento de una moneda se debe a una teoría incompleta y a un
gran número de variables ocultas, que en principio son todas
explicables y controlables.
¿En qué otras ocasiones vemos el azar en el trabajo de la vida
cotidiana? Las tablas actuariales sirven para predecir cuánto tiempo
vivirá una determinada población (de humanos, pero también de
perros y caballos), pero la teoría general de la longevidad de una
especie es ciertamente incompleta, porque quedan muchas
variables complejas ocultas, entre ellas la predisposición genética a
determinadas enfermedades, la calidad del medio ambiente y de los
alimentos, la probabilidad de ser alcanzado por un asteroide y
muchas otras. En el futuro, quizás, si excluimos los accidentes
ocasionales, podremos reducir el grado de incertidumbre y predecir
mejor hasta que disfrutemos de la compañía de los abuelos o
primos.
La física ya ha domado algunas teorías llenas de variables ocultas.
Consideremos por ejemplo la teoría de los "gases perfectos" o
"ideales", que proporciona una relación matemática entre la presión,
la temperatura y el volumen de un gas en un entorno cerrado en
condiciones ambientales ordinarias. En los experimentos
encontramos que al aumentar la temperatura también aumenta la
presión, mientras que al aumentar el volumen la presión disminuye.
Todo esto está elegantemente resumido en la fórmula pV=nRT (en
palabras: "el producto de la presión por volumen es igual a la
temperatura multiplicada por una constante R, todo ello multiplicado
por el número n de moléculas de gas"). En este caso las variables
ocultas son una enormidad, porque el gas está formado por un
número colosal de moléculas. Para superar este obstáculo,
definimos estadísticamente la temperatura como la energía media
de una molécula, mientras que la presión es la fuerza media con la
que las moléculas golpean una zona fija de las paredes del
recipiente que las contiene. La ley de los gases perfectos, un tiempo
incompleto, gracias a los métodos estadísticos puede ser justificada
precisamente por los movimientos de las moléculas "ocultas". Con
métodos similares, en 1905 Einstein logró explicar el llamado
movimiento Browniano, es decir, los movimientos aparentemente
aleatorios del polvo suspendido en el agua. Estos "paseos
aleatorios" de granos eran un misterio insoluble antes de que
Einstein se diera cuenta de que entraban en juego colisiones
"ocultas" con moléculas de agua.
Tal vez fue por este precedente que Einstein pensó naturalmente
que la mecánica cuántica era incompleta y que su naturaleza
probabilística era sólo aparente, el resultado del promedio
estadístico hecho sobre entidades desconocidas: variables ocultas.
Si hubiera sido posible desvelar esta complejidad interna, habría
sido posible volver a la física determinista newtoniana y reingresar
en la realidad clásica subyacente al conjunto. Si, por ejemplo, los
fotones mantuvieran un mecanismo oculto para decidir si se
reflejaban o refractaban, la aleatoriedad de su comportamiento
cuando chocaban con la vitrina sólo sería aparente. Conociendo el
funcionamiento del mecanismo, podríamos predecir los movimientos
de las partículas.
Aclaremos esto: esto nunca ha sido descubierto. Algunos físicos
como Einstein estaban disgustados, filosóficamente hablando, por la
idea de que la aleatoriedad era una característica intrínseca y
fundamental de nuestro mundo y esperaban recrear de alguna
manera el determinismo newtoniano. Si conociéramos y
controláramos todas las variables ocultas, dijeron, podríamos
diseñar un experimento cuyo resultado fuera predecible, como
sostiene el núcleo del determinismo.
Por el contrario, la teoría cuántica en la interpretación de Bohr y
Heisenberg rechazó la existencia de variables ocultas y en su lugar
adoptó la causalidad y la indeterminación como características
fundamentales de la naturaleza, cuyo efecto se exhibía
explícitamente a nivel microscópico. Si no podemos predecir el
resultado de un experimento, ciertamente no podemos predecir el
futuro curso de los acontecimientos: como la filosofía natural, el
determinismo ha fallado.
Así que preguntémonos si hay una forma de descubrir la existencia
de variables ocultas. Sin embargo, primero veamos cuál fue el
desafío de Einstein.
La respuesta de Bohr a la EPR
La clave para resolver la paradoja de la EPR reside en el hecho de
que las dos partículas A y B, por muy distantes que estén, nacieron
al mismo tiempo del mismo evento y por lo tanto están relacionadas
en un enredo. Sus posiciones, impulso, giro, etc. son siempre
indefinidos, pero cualquiera que sea el valor que adquieran, siempre
permanecen unidos entre sí. Si, por ejemplo, obtenemos un número
preciso para la velocidad de A, sabemos que la velocidad de B es la
misma, sólo que opuesta en dirección; la misma para la posición y el
giro. Con el acto de medir hacemos colapsar una función de onda
que hasta entonces incluía en sí misma todos los valores posibles
para las propiedades de A y B. Gracias al enredo, sin embargo, lo
que aprendemos en nuestro laboratorio en la Tierra nos permite
saber las mismas cosas sobre una partícula que podría estar en
Rigel 3, sin tocarla, observarla o interferir con ella de ninguna
manera. La función de onda de B también colapsó al mismo tiempo,
aunque la partícula está navegando a años luz de distancia.
Todo esto no refuta de manera concreta el principio de incertidumbre
de Heisenberg, porque cuando medimos el impulso de A seguimos
perturbando su posición de manera irreparable. La objeción de EPR
se centró en el hecho de que un cuerpo debe tener valores precisos
de impulso y posición, aunque no podamos medirlos juntos. ¿Cómo
decidiste finalmente replicar a Bohr? ¿Cómo contraatacó?
Después de semanas de pasión, el Maestro llegó a la conclusión de
que el problema no existía. La capacidad de predecir la velocidad de
B a través de la medición de A no implica en absoluto que B tenga
tal velocidad: hasta que no la midamos, realmente no tiene sentido
hacer tales suposiciones. De manera similar para la posición, de la
que no tiene sentido hablar antes de la medición. Bohr, a quien más
tarde se unieron Pauli y otros colegas, argumentó esto en la
práctica: el pobre Einstein no se deshizo de la obsesión clásica por
las propiedades de los cuerpos. En realidad, nadie puede saber si
tal objeto tiene o no ciertas propiedades hasta que lo perturbamos
con la medición. Y algo que no puedes saber puede muy bien no
existir. No se puede contar a los ángeles que pueden balancearse
en la cabeza de un alfiler, por lo que también pueden no existir. El
principio de localización en todo esto no se viola: nunca transmitirás
instantáneamente un mensaje de buenos deseos de la Tierra a
Rigel 3, si has olvidado tu aniversario de boda.
En una ocasión Bohr llegó a comparar la revolución cuántica con la
desatada por Einstein, la relatividad, después de la cual el espacio y
el tiempo se encontraron con nuevas y extrañas cualidades. La
mayoría de los físicos, sin embargo, estuvieron de acuerdo en que
la primera tenía efectos mucho más radicales en nuestra visión del
mundo.
Bohr insistió en un aspecto: dos partículas, una vez que se enredan
como resultado de un evento microscópico, permanecen enredadas
incluso si se alejan a distancias siderales. Mirando a A, influimos en
el estado cuántico que incluye a A y B. El espín de B, por lo tanto,
está determinado por el tamaño del de A, dondequiera que se
encuentren las dos partículas. Este aspecto particular de la paradoja
EPR habría sido mejor comprendido treinta años después, gracias al
esclarecedor trabajo de John Bell al que volveremos. Por ahora,
sepan que la palabra clave es "no-localidad", otra versión de la
entrometida definición de Einstein: "acción espectral a distancia".
En la física clásica, el estado (A arriba, B abajo) es totalmente
separado y distinto del (A abajo, B arriba). Como hemos visto antes,
todo está determinado por la elección del amigo que empaqueta los
paquetes, y en principio la evolución del sistema es conocible por
cualquiera que examine los datos iniciales. Las dos opciones son
independientes y al abrir el paquete sólo se revela cuál fue la
elegida. Desde el punto de vista cuántico, en cambio, la función de
onda que describe tanto A como B "enreda" (con enredo) las
opciones; cuando medimos A o B, toda la función cambia
simultáneamente en todos los lugares del espacio, sin que nadie
emita señales observables que viajen a velocidades superiores a la
de la luz. Eso es todo. Así es como funciona la naturaleza.
Esta insistencia autoritaria puede quizás silenciar las dudas de un
físico novato, pero ¿es realmente suficiente para salvar nuestras
almas filosóficas en problemas? Seguramente la "refutación" de
Bohr no satisfizo para nada a Einstein y sus colegas. Los dos
contendientes parecían hablar idiomas diferentes. Einstein creía en
la realidad clásica, en la existencia de entidades físicas con
propiedades bien definidas, como los electrones y los protones.
Para Bohr, que había abandonado la creencia en una realidad
independiente, la "demostración" del rival de lo incompleto no tenía
sentido, porque estaba equivocado precisamente en la forma en que
el otro concebía una teoría "razonable". Einstein le preguntó a un
colega nuestro un día: "Pero, ¿realmente crees que la Luna existe
allí sólo cuando la miras?". Si reemplazamos nuestro satélite por un
electrón en esta pregunta, la respuesta no es inmediata. La mejor
manera de salir es sacar a relucir los estados cuánticos y las
probabilidades. Si nos preguntamos cuál es el espín de cierto
electrón emitido por un cable de tungsteno en una lámpara
incandescente, sabemos que estará arriba o abajo con una
probabilidad igual al 50%; si nadie lo mide, no tiene sentido decir
que el espín está orientado en cierta dirección. Acerca de la
pregunta de Einstein, es mejor pasarla por alto. Los satélites son
mucho más grandes que las partículas.
¿Pero en qué clase de mundo vivimos?
Hemos dedicado este capítulo a uno de los aspectos más
enigmáticos de la física cuántica, la exploración del micromundo.
Sería ya traumático si se tratara de un nuevo planeta sujeto a
nuevas y diferentes leyes de la naturaleza, porque esto socavaría
los fundamentos mismos de la ciencia y la tecnología, cuyo control
nos hace ricos y poderosos (algunos de nosotros, digamos). Pero lo
que es aún más desconcertante es que las extrañas leyes del
micromundo dan paso a la vieja y banal física newtoniana cuando la
escala dimensional crece hasta el nivel de las pelotas de tenis o los
planetas.
Todas las fuerzas que conocemos (gravitación, electromagnetismo,
interacción fuerte y débil) son de tipo local: disminuyen con la
distancia y se propagan a velocidades estrictamente no superiores a
la de la luz. Pero un día salió un tal Sr. Bell, que nos obligó a
considerar un nuevo tipo de interacción, no local, que se propaga
instantáneamente y no se debilita con el aumento de la distancia. Y
también demostró que existe, gracias al método experimental.
¿Nos obliga esto a aceptar estas inconcebibles acciones a distancia
no locales? Estamos en un atolladero filosófico. A medida que
comprendemos cuán diferente es el mundo de nuestra experiencia
cotidiana, experimentamos un lento pero inevitable cambio de
perspectiva. El último medio siglo ha sido para la física cuántica la
versión acelerada de la larga serie de éxitos de Newton y Maxwell
en la física clásica. Ciertamente hemos llegado a una comprensión
más profunda de los fenómenos, ya que la mecánica cuántica está
en la base de todas las ciencias (incluyendo la física clásica, que es
una aproximación) y puede describir completamente el
comportamiento de los átomos, núcleos y partículas subnucleares
(quarks y leptones), así como las moléculas, el estado sólido, los
primeros momentos de la vida en nuestro universo (a través de la
cosmología cuántica), las grandes cadenas en la base de la vida, los
frenéticos desarrollos de la biotecnología, tal vez incluso la forma en
que opera la conciencia humana. Nos ha dado tanto, pero los
problemas filosóficos y conceptuales que trae consigo continúan
atormentándonos, dejándonos con un sentimiento de inquietud
mezclado con grandes esperanzas.
contempló las extrañas tierras de Bell.
Capítulo 8
La física cuántica en los tiempos actuales

n los capítulos anteriores hemos revivido las historias de los


E brillantes científicos del siglo XX que construyeron la física
cuántica en medio de mil dificultades y batallas. El viaje nos ha
llevado a seguir el nacimiento de ideas fundamentales que parecen
revolucionarias y anti-intuitivas para aquellos que conocen bien la
física clásica, nacidas con Galileo y Newton y refinadas a lo largo de
tres siglos. Frente a la gran cantidad de gente había muchos
problemas sobre la naturaleza misma de la teoría, por ejemplo sobre
la validez y los límites de la interpretación de Copenhague (que
todavía hoy algunas personas desafían y tratan de negar). Sin
embargo, la mayoría de los investigadores se dieron cuenta de que
tenían en sus manos una nueva y poderosa herramienta para
estudiar el mundo atómico y subatómico y no tenían demasiados
escrúpulos para utilizarla, aunque no coincidiera con sus ideas en el
campo filosófico. Así se crearon nuevas áreas de investigación en
física, aún activas hoy en día.
Algunas de estas disciplinas han cambiado completamente nuestra
forma de vida y han aumentado enormemente nuestro potencial
para entender y estudiar el universo. La próxima vez que uno de
ustedes o un miembro de su familia entre en una máquina de
resonancia magnética (esperemos que nunca), considere este
hecho: mientras la máquina zumba, gira, avanza el sofá y hace
sonidos como una orquesta sobrenatural, mientras un monitor en la
sala de control forma una imagen detallada de sus órganos, usted
está experimentando de manera esencial con los efectos de la física
cuántica aplicada, un mundo de superconductores y
semiconductores, giro, electrodinámica cuántica, nuevos materiales
y así sucesivamente. Dentro de una máquina de resonancia estás,
literalmente, dentro de un experimento tipo EPR. Y si el aparato de
diagnóstico es en cambio un PET, una tomografía por emisión de
positrones, ¡sabed que estáis siendo bombardeados con
antimateria!
Para superar el estancamiento de Copenhague, se han utilizado
técnicas de mecánica cuántica para abordar muchos problemas
prácticos y específicos en esferas que antes se consideraban
intratables. Los físicos han comenzado a estudiar los mecanismos
que gobiernan el comportamiento de los materiales, como la forma
en que la fase cambia de sólido a líquido a gas, o cómo la materia
responde a la magnetización, el calentamiento y el enfriamiento, o
por qué algunos materiales son mejores conductores de la corriente
eléctrica que otros. Todo esto cae en gran parte dentro de la llamada
"física de la materia condensada". Para responder a las preguntas
anteriores bastaría con aplicar la ecuación de Schrödinger, pero con
el tiempo se han desarrollado técnicas matemáticas más refinadas,
gracias a las cuales hemos podido diseñar nuevos y sofisticados
juguetes, como transistores y láseres, en los que se basa toda la
tecnología del mundo digital en el que vivimos hoy en día.
La mayoría de las aplicaciones de valor económico colosal derivan
de la electrónica cuántica o de la física de la materia condensada y
son "no relativistas", es decir, no dependen de la teoría de la
relatividad restringida de Einstein porque implican fenómenos que
se producen a velocidades inferiores a la de la luz. La ecuación de
Schrödinger en sí misma no es relativista, y de hecho proporciona
una excelente aproximación del comportamiento de los electrones y
los átomos a velocidades no altas, lo que es cierto tanto para los
electrones externos de los átomos, químicamente activos e
involucrados en los enlaces, como para los electrones que se
mueven dentro de los sólidos.1
Pero hay preguntas abiertas que involucran fenómenos que ocurren
a velocidades cercanas a las de la luz, por ejemplo: ¿qué es lo que
mantiene unido al núcleo? ¿cuáles son los bloques de construcción
realmente fundamentales de la materia, las verdaderas partículas
elementales? ¿cómo encaja la relatividad restringida en la teoría
cuántica? Debemos entonces entrar en un mundo más rápido,
diferente al de la física material. Para comprender lo que sucede en
el núcleo, un lugar donde la masa puede ser convertida en energía
como en el caso de la desintegración radiactiva (fisión o fusión),
tenemos que considerar los fenómenos cuánticos que tienen lugar a
velocidades cercanas a la de la luz y que entran en el terreno
accidentado de la teoría de la relatividad restringida. Una vez que
entendemos cómo funcionan las cosas, podemos dar el siguiente
paso hacia la más complicada y profunda relatividad general, que se
ocupa de la fuerza de gravedad. Y por último, abordar el problema
de los problemas, que permanecieron abiertos hasta el final de la
Segunda Guerra Mundial: cómo describir plenamente las
interacciones entre un electrón relativista (es decir, rápido) y la luz.
El matrimonio entre la física cuántica y la relatividad estrecha
La teoría de Einstein es la versión correcta del concepto de
movimiento relativo, generalizado a velocidades incluso cercanas a
las de la luz. Básicamente, postula principios generales relacionados
con la simetría de las leyes físicas2 y tiene profundas implicaciones
en la dinámica de las partículas. Einstein descubrió la relación
fundamental entre la energía y el momento, que difiere radicalmente
de la de Newton. Esta innovación conceptual está en la base de las
modificaciones que deben hacerse a la mecánica cuántica para
reformularla en un sentido relativista3.
Entonces surge espontáneamente una pregunta: ¿qué surge del
matrimonio de estas dos teorías? Algo extraordinario, como
veremos en breve.
E = mc2
La ecuación E=mc2 es muy famosa. Lo puedes encontrar en todas
partes: en camisetas, en el diseño gráfico de la serie de televisión
"At the Twilight Zone", en ciertas marcas comerciales y en un sinfín
de dibujos animados del "New Yorker". Se ha convertido en una
especie de emblema universal de todo lo que es científico e
"inteligente" en la cultura contemporánea.
Rara vez, sin embargo, algunos comentaristas de televisión se
molestan en explicar su verdadero significado, excepto para
resumirlo en la expresión "la masa es equivalente a la energía".
Nada podría estar más equivocado: la masa y la energía son en
realidad completamente diferentes. Los fotones, sólo para dar un
ejemplo, no tienen masa, pero pueden tener energía fácilmente.
El verdadero significado de E=mc2 es en realidad muy específico.
Traducido en palabras, la ecuación nos dice que "una partícula en
reposo de masa m tiene una energía E cuyo valor viene dado por la
relación E=mc2". Una partícula de masa, en principio, puede
transformarse espontáneamente en otras partículas más ligeras en
un proceso (decadencia) que implica la liberación de energía4 . La
fisión nuclear, en la que un núcleo atómico pesado se rompe dando
lugar a núcleos más ligeros, como en el caso del U235 (uranio-235),
produce por tanto mucha energía. De manera similar, los núcleos
ligeros como el deuterio pueden combinarse en el proceso de fusión
nuclear para formar helio, liberando grandes cantidades de energía.
Esto sucede porque la masa de la suma de los dos núcleos iniciales
es mayor que la del núcleo de helio. Este proceso de conversión de
energía en masa era simplemente incomprensible antes de la
relatividad de Einstein, sin embargo es el motor que hace funcionar
al Sol y es la razón por la que la vida, la belleza, la poesía existen
en la Tierra.
Cuando un cuerpo está en movimiento, se debe modificar la famosa
fórmula E = mc2, como bien sabía el propio Einstein5 . A decir
verdad, la fórmula estática (cuerpo con momento cero) se deduce
de la fórmula dinámica (cuerpo con momento no nulo) y su forma no
es la que todo el mundo conoce, sino ésta:
E2 = m2c4
Parecería ser un asunto de lana de cabra, pero en realidad hay una
gran diferencia, como explicaremos a continuación. Para derivar la
energía de una partícula tenemos que tomar la raíz cuadrada de los
dos miembros de esta ecuación y encontrar la conocida E=mc2.
¡Pero eso no es todo!
Es un simple hecho aritmético: los números tienen dos raíces
cuadradas, una positiva y otra negativa. La raíz cuadrada de 4, por
ejemplo, es tanto √4=2 como √4=-2, porque sabemos que 2×2=4
pero también (-2)×(-2)=4 (sabemos que dos números negativos
multiplicados juntos dan un número positivo). Así que también la
ecuación escrita arriba, resuelta con respecto a E, nos da dos
soluciones: E=mc2 y E=-mc2.
He aquí un bonito enigma: ¿cómo podemos estar seguros de que la
energía derivada de la fórmula de Einstein es siempre positiva?
¿Cuál de las dos raíces debemos tomar? ¿Y cómo lo sabe la
naturaleza?
Al principio el problema no parecía muy grave, pero fue robado
como una sofisticación inútil y tonta. Los que lo sabían no tenían
ninguna duda, la energía siempre era o nada o positiva, y una
partícula con energía negativa era un absurdo que ni siquiera
debería ser contemplado, so pena de ridículo. Todos estaban
demasiado ocupados jugando con la ecuación de Schrödinger, que
en su forma original sólo se aplica a las partículas lentas, como los
electrones externos de los átomos, las moléculas y los cuerpos
sólidos en general. En su versión no relativista, el problema no se
plantea porque la energía cinética de las partículas en movimiento
siempre viene dada por un número positivo. Y el sentido común nos
lleva a pensar que la energía total de una partícula de masa en
reposo es mc2, es decir, también es positiva. Por estas razones, los
físicos de la época ni siquiera consideraron la raíz cuadrada
negativa y calificaron esa solución de "espuria", es decir, "no
aplicable a ningún cuerpo físico".
Pero supongamos por un momento que en su lugar hay partículas
con energía negativa, que corresponden a la solución con el signo
menos delante y es decir con una energía en reposo igual a -mc2. Si
se movieran, la energía aumentaría en módulo y por lo tanto se
haría aún más pequeña a medida que aumenta el impulso6 . En
posibles colisiones con otras partículas seguirían perdiendo energía,
así como debido a la emisión de fotones, y por lo tanto su velocidad
aumentaría cada vez más, acercándose a la de la luz. El proceso
nunca se detendría y las partículas en cuestión tendrían una energía
que tendería a convertirse en infinita, o más bien infinitamente
negativa. Después de un tiempo, el universo se llenaría de estas
rarezas, partículas que irradian energía hundiéndose
constantemente más y más en el abismo del infinito negativo.7
El siglo de la raíz cuadrada
Es verdaderamente notable que uno de los motores fundamentales
de la física en el siglo XX es el problema de "acertar con la raíz
cuadrada". En retrospectiva, la construcción de la teoría cuántica
puede considerarse como la aclaración de la idea de "raíz cuadrada
de una probabilidad", cuyo resultado es la función de onda de
Schrödinger (cuyo cuadrado, recordemos, proporciona la
probabilidad de encontrar un cuerpo en un determinado lugar y en
un determinado momento).
La simple extracción de la raíz puede dar lugar a verdaderas
rarezas. Por ejemplo, obtenemos objetos llamados números
imaginarios y complejos, que tienen un papel fundamental en la
mecánica cuántica. Ya hemos conocido un ejemplo notorio: i = √-1,
la raíz de menos uno. La física cuántica debe necesariamente
involucrar a i y a sus hermanos debido a su naturaleza matemática y
no hay manera de evitarlos. También hemos visto que la teoría
predice rarezas como el enredo y los estados mixtos, que son
"casos excepcionales", consecuencias debidas al hecho de que todo
se basa en la raíz cuadrada de la probabilidad. Si sumamos y
restamos estas raíces antes de elevar todo al cuadrado, podemos
obtener cancelaciones de término y por lo tanto un fenómeno como
la interferencia, como hemos visto desde el experimento de Young
en adelante. Estas rarezas desafían nuestro sentido común tanto
como, y tal vez más, la raíz cuadrada de menos uno habría parecido
absurda a las culturas que nos precedieron, como los antiguos
griegos. Al principio ni siquiera aceptaban números irracionales,
tanto que según una leyenda Pitágoras condenó a su discípulo que
había demostrado la irracionalidad de √2, es decir, el hecho de que
este número no puede escribirse en forma de fracción, una
proporción entre dos números enteros. En la época de Euclides las
cosas habían cambiado y se aceptaba la irracionalidad, pero hasta
donde sabemos la idea de los números imaginarios nunca fue
contemplada (para más detalles ver la nota 15 del capítulo 5).
Otro resultado sensacional obtenido por la física en el último siglo
puede considerarse una consecuencia de esta simple estructura
matemática, a saber, el concepto de espín y espinor. Un espinor es
en la práctica la raíz cuadrada de un vector (véase el Apéndice para
más detalles). Un vector, que quizás le resulte más familiar, es como
una flecha en el espacio, con longitud y dirección definidas, que
representa cantidades como, por ejemplo, la velocidad de una
partícula. Tomar la raíz cuadrada de un objeto con dirección espacial
parece una idea extraña y de hecho tiene consecuencias extrañas.
Cuando giras un espinazo 360° no regresa igual a sí mismo, sino
que se vuelve menos él mismo. Los cálculos nos dicen entonces
que si intercambiamos la posición de dos electrones idénticos con el
espín 1/2, la función de onda del estado que incluye la posición de
ambos debe cambiar de signo: Ψ(x,y) = - Ψ(y,x). El principio de
exclusión de Pauli se deriva de este mismo hecho: dos partículas
idénticas con espín 1/2 no pueden tener el mismo estado, porque de
lo contrario la función de onda sería idénticamente nula. Ya hemos
visto que el principio aplicado a los electrones nos lleva a excluir la
presencia de más de dos partículas en una órbita, una de las cuales
tiene spin up y la otra spin down. De ahí la existencia de una "fuerza
de intercambio" repulsiva entre dos partículas con spin 1/2 que no
quieren a toda costa permanecer en el mismo estado cuántico, lo
que incluye permanecer en el mismo lugar al mismo tiempo. El
principio de exclusión de Pauli rige la estructura de la tabla periódica
de elementos y es una consecuencia muy visible y fundamental del
increíble hecho de que los electrones se representan como raíces
cuadradas de vectores, es decir, espinores.
La fórmula de Einstein que une la masa y la energía nos da otra
situación en la que la física del siglo XX tuvo que lidiar con las raíces
cuadradas. Como dijimos, al principio todo el mundo ignoró el
problema descuidando las soluciones negativas en el estudio de las
partículas como los fotones o los mesones. Un mesón es una
partícula con cero espín, mientras que el fotón tiene espín igual a 1,
y su energía es siempre positiva. En el caso de los electrones, que
tienen el espín 1/2, fue necesario encontrar una teoría que integrara
la mecánica cuántica y la relatividad estrecha; y en este campo nos
encontramos cara a cara con los estados de energía negativa, que
aquí nos dan la oportunidad de conocer una de las figuras más
importantes de la física del siglo XX.
Paul Dirac
Paul Dirac fue uno de los padres fundadores de la física cuántica,
autor, entre otras cosas, del libro sagrado de esta disciplina: Los
Principios de la Mecánica Cuántica8 . Es un texto de referencia que
trata de manera coherente con la teoría según la escuela de
pensamiento de Bohr-Heisenberg y combina la función de onda de
Schrödinger con la mecánica matricial de Heisenberg. Es una
lectura recomendada para aquellos que quieran profundizar en el
tema, aunque requiera conocimientos a nivel de los primeros años
de universidad.
Las contribuciones originales de Dirac a la física del siglo XX son de
suma importancia. Cabe destacar, por ejemplo, su propuesta teórica
sobre la existencia de monopolios magnéticos, el campo magnético
equivalente a las cargas eléctricas, fuentes puntuales del propio
campo. En la teoría clásica de Maxwell esta posibilidad no se
contempla, porque se considera que los campos magnéticos son
generados sólo por cargas en movimiento. Dirac descubrió que los
monopolos y las cargas eléctricas son conceptos que no son
independientes sino que están relacionados a través de la mecánica
cuántica. Sus especulaciones teóricas unieron la nueva física con
una rama de las matemáticas llamada topología, que estaba
ganando importancia en esos años. La teoría de Dirac de los
monopolios magnéticos tuvo una fuerte resonancia también desde
un punto de vista estrictamente matemático y en muchos sentidos
anticipó el marco conceptual que más tarde desarrolló la teoría de
las cuerdas. Pero su descubrimiento fundamental, uno de los más
profundos en la física del siglo XX, fue la teoría relativista del
electrón.
En 1926 el joven Dirac buscaba una nueva ecuación para describir
las partículas de espín 1/2, que pudiera superar a la de Schrödinger
y tener en cuenta la estrecha relatividad. Para ello necesitaba
espinores (las raíces cuadradas de los vectores, recuerde) y tenía
que asumir que el electrón tenía masa. Pero para que se tuviera en
cuenta la relatividad, descubrió que tenía que duplicar los espinores
con respecto a la situación no relativista, asignando así dos
espinores a cada electrón.
En términos generales, un espinor consiste en un par de números
complejos que representan respectivamente la raíz de la
probabilidad de tener un espinor hacia arriba o hacia abajo. Para
hacer que este instrumento entre en el rango de la relatividad
estrecha, Dirac encontró una nueva relación en la que se
necesitaban cuatro números complejos. Esto se conoce hoy en día,
tal vez lo hayas imaginado, como la ecuación de Dirac.
La ecuación de Dirac toma las raíces cuadradas muy en serio, en el
sentido más amplio. Los dos espinores iniciales representan dos
electrones, uno arriba y otro abajo, que sin considerar la relatividad
tienen energía positiva, así que de E2=m2c4 utilizamos sólo la
solución E=+mc2. Pero si tenemos en cuenta la relatividad,
necesitamos otros dos espinores, a los que asociamos la solución
negativa de la ecuación de Einstein E=-mc2. Así que tienen energía
negativa. El propio Dirac no podía hacer nada al respecto, porque
esta elección era obligatoria si queríamos tener en cuenta los
requisitos de simetría exigidos por la relatividad restringida,
esencialmente referidos al tratamiento correcto de los movimientos.
Fue frustrante.
El problema de la energía negativa está inextricablemente presente
en el corazón mismo de la relatividad restringida y por lo tanto no
puede ser ignorado. Dirac se dio cuenta de lo espinoso que se
volvió a medida que progresaba en su teoría cuántica del electrón.
El signo menos no puede ser ignorado diciendo que es una solución
inadmisible, porque la teoría que resulta de la combinación de
cuántica y relatividad permite que las partículas tengan tanto
energía positiva como negativa. Podríamos resolver el asunto
diciendo que un electrón de energía negativa es sólo uno de los
muchos "estados cuánticos permitidos", pero esto llevaría al
desastre: el átomo de hidrógeno, y toda la materia ordinaria, no
sería estable. Un electrón de energía positiva mc2 podría emitir
fotones con una energía igual a 2mc2, convertirse en una partícula
de energía negativa -mc2 e iniciar el descenso al abismo de lo
menos infinito (a medida que el momento aumenta, el módulo de
energía negativa aumentaría rápidamente). Estas nuevas soluciones
con el signo menos al frente fueron una verdadera espina clavada
en la teoría naciente.
Pero Dirac tuvo una idea brillante para resolver el problema. Como
hemos visto, el principio de exclusión de Pauli establece que dos
electrones no pueden tener exactamente el mismo estado cuántico
al mismo tiempo: si uno ya está en un cierto estado, como en una
órbita atómica, nadie más puede ocupar ese lugar (por supuesto
que también debemos tener en cuenta el espín, por lo que en un
estado con ciertas características de ubicación y movimiento dos
electrones pueden vivir juntos, uno con el espín hacia arriba y el otro
con el espín hacia abajo). Dirac tuvo la idea de extender esto al
vacío: también el vacío está en realidad lleno de electrones, que
ocupan todos los estados de energía negativa. Estos estados
problemáticos del universo están por lo tanto ocupados por dos
electrones, uno que gira hacia arriba y el otro hacia abajo. En esta
configuración, los electrones de energía positiva de los átomos no
podrían emitir fotones y se encontrarían en un estado de energía
negativa, porque no encontrarían ninguno libre y gracias al principio
de acción de Pauli les estaría prohibida la acción. Con esta hipótesis
el vacío se convertiría en análogo a un gigantesco átomo inerte,
como el de un gas noble, con todos los orbitales llenos, es decir, con
todos los estados de energía negativa ocupados, para cualquier
cantidad de movimiento.
Supersimetría
El cálculo de la energía del vacío sigue empeorando si pegamos
muones, neutrinos, tau, quarks, gluones, bosones W y Z, el nuevo
bosón de Higgs, es decir, todas las partículas que habitan en el
zoológico de la Madre Naturaleza. Cada uno de ellos proporciona un
trozo de energía total, positiva para los fermiones y negativa para
los bosones, y el resultado es siempre incontrolable, es decir,
infinito. Aquí el problema no es encontrar una mejor manera de
hacer los cálculos sino un nuevo principio general que nos dice
cómo derivar la densidad de la energía del vacío en el universo. Y
hasta ahora no lo tenemos.
Sin embargo, hay una simetría muy interesante que, si se
implementa en una teoría cuántica "ajustada", nos permite calcular
la constante cosmológica y obtener un resultado matemáticamente
reconfortante: cero. Esta simetría viene dada por una conexión
particular entre los fermiones y los bosones. Para verlo en
funcionamiento tenemos que introducir una dimensión imaginaria
extra en la escena, algo que podría haber salido de la imaginación
de Lewis Carroll. Y esta dimensión extra se comporta como un
fermión: con un principio "à la Pauli" prohíbe que se dé más de un
paso en ella.
Dondequiera que entremos en la nueva dimensión, debemos
detenernos inmediatamente (es como poner un electrón en estado
cuántico: entonces no podemos añadir más electrones). Pero
cuando un bosón pone su pie en él, se transforma en un fermión. Y
viceversa. Si esta extraña dimensión existiera realmente y si
entráramos en ella, como Alicia en A través del espejo, veríamos al
electrón transformarse en un bosón llamado selectrón y al fotón
convertirse en un fermión llamado fotón.
La nueva dimensión representa un nuevo tipo de simetría física,
matemáticamente consistente, llamada supersimetría, que asocia
cada fermión con un bosón y viceversa15 . La relación entre los
socios supersimétricos es similar a la que existe entre la materia y la
antimateria. Como habrán adivinado, la presencia de estas nuevas
partículas tiene un efecto agradable en el cálculo de la energía del
vacío: los valores positivos de los bosones anulan los valores
negativos de los fermiones procedentes del mar de Dirac, y el
resultado es un bonito cero. La constante cosmológica es
idénticamente nula.
¿Así que la supersimetría resuelve el verdadero problema de la
energía del vacío? Tal vez, pero no está muy claro cómo. Hay dos
obstáculos. En primer lugar, todavía no se ha observado ninguna
pareja bosónica supersimétrica del electrón16 . Sin embargo, la
supersimetría, como todas las simetrías (piense en una bola de
vidrio perfectamente esférica), puede ser "rota" (sólo dé un martillo a
esta esfera). Los físicos tienen un profundo amor por la simetría,
que siempre es un ingrediente de nuestras teorías más apreciadas y
utilizadas. Muchos colegas esperan que la supersimetría realmente
exista en la naturaleza y que también haya un mecanismo (similar al
martilleo de la esfera) que pueda romperla. Si así fuera,
observaríamos las consecuencias sólo en energías muy altas, como
las que esperamos obtener en aceleradores colosales como el LHC.
Según la teoría, los socios del electrón fotónico, es decir, el
selectortrón y el fotón, son muy pesados y sólo veremos rastros de
ellos cuando alcancemos una energía igual a un valor umbral
llamado ΛSUSY (SUSY es la abreviatura de super simetría).
Desafortunadamente, la ruptura de la supersimetría trae el problema
de la energía infinita de nuevo a la escena. La densidad de energía
del vacío viene dada por la fórmula que se ve arriba, es decir,
Λ4SUSY/ħ3c3. Si suponemos que esta cantidad es del orden de
magnitud de las máximas energías obtenibles por los grandes
aceleradores, de mil a diez mil billones de electronvoltios, entonces
obtenemos una constante cosmológica 1056 veces mayor que la
observada. Esto es una mejora considerable con respecto a la
10120 de antes, pero sigue siendo un gran problema. Por lo tanto, la
supersimetría, cuando se aplica directamente a los cálculos, no
resuelve la crisis de la energía del vacío. Tenemos que intentar otras
vías.
El principio holográfico
¿Cometemos algún error al contar los peces capturados en el Mar
de Dirac? ¿Tal vez estamos criando demasiados? Al final del día
estamos sumando electrones de energía negativa muy pequeños
con longitudes de onda muy cortas. La escala es realmente
microscópica, incluso si fijamos un valor alto para el umbral de
energía Λ. ¿Quizás estos estados no deben ser considerados
realmente?
En los últimos diez años aproximadamente ha surgido una nueva y
radical hipótesis, según la cual siempre hemos sobrestimado el
número de peces en el Mar de Dirac, porque no son objetos
tridimensionales en un océano tridimensional, sino que forman parte
de un holograma. Un holograma es una proyección de un cierto
espacio en uno más pequeño, como sucede cuando proyectamos
una escena tridimensional en una pantalla bidimensional. Según
esta hipótesis, todo lo que ocurre en tres dimensiones puede ser
descrito completamente basado en lo que ocurre en la pantalla, con
una dimensión menos. El Mar de Dirac, como sigue, no está lleno de
peces de la manera que pensamos, porque estos son en realidad
objetos bidimensionales. En resumen, los estados de energía
negativa son una mera ilusión y la energía total del vacío es tanto
menor que es potencialmente compatible con el valor observado de
la constante cosmológica. Decimos "potencialmente" porque la
teoría holográfica sigue siendo una obra en construcción y todavía
tiene muchos puntos abiertos.
Esta nueva idea proviene del campo de la teoría de las cuerdas, en
áreas donde se pueden establecer conexiones entre los espacios
holográficos (la más definida y original está dada por la llamada
conjetura de Maldacena, o AdS/CFT).17 Volveremos a esta
hipótesis, poco realista o profunda, en el próximo capítulo; sin
embargo, el sentido general parece ser el de la lógica de un
soñador.
La física de la materia condensada
La teoría cuántica permite aplicaciones interesantes y muy útiles en
la ciencia de los materiales. Para empezar, nos ha permitido por
primera vez en la historia entender realmente cuáles son los estados
de la materia, cómo funcionan las transiciones de fase y las
propiedades eléctricas y magnéticas. Al igual que en el caso de la
tabla periódica de elementos, la mecánica cuántica ha compensado
en gran medida las inversiones realizadas, tanto desde el punto de
vista teórico como práctico, gracias al nacimiento de nuevas
tecnologías. Ha permitido el comienzo de la llamada "electrónica
cuántica" y ha revolucionado la vida de todos nosotros de maneras
que antes eran inconcebibles. Echemos un vistazo a uno de los
principales subsectores de esta disciplina, que se ocupa del flujo de
la corriente eléctrica en los materiales.
La banda de conducción
Cuando los átomos se unen para formar un sólido, se encuentran
aplastados cerca unos de otros. Las funciones de onda de los
electrones externos, situados en los orbitales ocupados de mayor
nivel, comienzan a fusionarse de cierta manera (mientras que los de
los orbitales internos permanecen sustancialmente inalterados). Los
electrones externos pueden saltar de un átomo a otro, tanto que los
orbitales externos pierden su identidad y ya no se encuentran
alrededor de un átomo específico: entonces se fusionan en una
colección de estados electrónicos extendidos que se llama la banda
de valencia.
Tomemos por simplicidad un material cristalino. Los cristales tienen
muchas formas, cuyas propiedades han sido cuidadosamente
catalogadas. Los electrones que comienzan a vagar entre los
cristales tienen funciones de onda con una frecuencia muy baja en
la banda de valencia. Dentro de esta banda, los electrones están
dispuestos según el principio de exclusión de Pauli: a lo sumo dos
por nivel, uno con spin up y otro con spin down. Los estados de muy
baja frecuencia son muy similares a los de un electrón libre para
moverse en el espacio, sin interferencia con la red cristalina. Estos
estados tienen el nivel de energía más bajo y se llenan primero.
Siguiendo siempre el principio de exclusión, los electrones continúan
llenando los siguientes estados hasta que sus longitudes de onda
cuánticas se acortan, llegando a ser comparables a la distancia
entre los átomos.
Los electrones, sin embargo, están sujetos a desviaciones del
campo electromagnético generado por los átomos de la red
cristalina, que se comporta como un interferómetro gigante de
Young con muchas rendijas: una para cada átomo (las análogas a
las rendijas son las cargas de la red). El movimiento de estas
partículas, por lo tanto, implica una colosal interferencia cuántica20 .
Ésta interviene precisamente cuando la longitud de onda del
electrón es del mismo orden de magnitud con respecto a la distancia
entre los átomos: los estados en esta condición están sujetos a una
interferencia destructiva y por lo tanto se anulan mutuamente.
La interferencia causa la formación de bandas en la estructura de
los niveles de energía de los electrones en los sólidos. Entre la
banda de energía mínima, la banda de valencia, y la siguiente,
llamada banda de conducción, hay una brecha llamada brecha de
energía. El comportamiento eléctrico del material depende
directamente de esta estructura de bandas. Se pueden dar tres
casos distintos.
1. Aislantes. Si la banda de valencia está llena y la brecha de
energía antes de la banda de conducción es sustancial, el material
se llama aislante. Los aislantes, como el vidrio o el plástico, no
conducen la electricidad. Un representante típico de esta categoría
es un elemento que tiene casi todas las órbitas llenas, como los
halógenos y los gases nobles. En estas circunstancias, la corriente
eléctrica no fluye porque no hay espacio para que los electrones de
la banda de valencia "deambulen". Así que para moverse libremente
un electrón debería saltar a la banda de conducción, pero si la
brecha de energía es demasiado grande esto requiere demasiada
energía.21
2. Conductores. Si la banda de valencia no está completamente
llena, entonces los electrones pueden moverse fácilmente y entrar
en nuevos estados de movimiento, lo que hace que el material sea
un buen conductor de las corrientes eléctricas. El miembro típico de
esta categoría tiene muchos electrones disponibles para escapar en
la órbita exterior, que no están completos; por lo tanto, son
elementos que tienden a dar electrones en enlaces químicos, como
los metales alcalinos y ciertos metales pesados. Entre otras cosas,
es la difusión de la luz por estos electrones libres lo que causa el
típico aspecto pulido de los metales. A medida que la banda de
conducción se llena, el material se convierte en un conductor cada
vez menos eficiente, hasta que alcanza el estado de aislamiento.
3. Semiconductores. Si la banda de valencia está casi completa y la
banda de conducción tiene pocos electrones, el material no debería
ser capaz de conducir mucha corriente. Pero si la brecha de energía
no es demasiado alta, digamos menos de unos 3 eV, es posible
forzar a los electrones sin demasiado esfuerzo a saltar en la banda
de conducción. En este caso estamos en presencia de un
semiconductor. La capacidad de estos materiales para conducir la
electricidad sólo en circunstancias apropiadas los hace realmente
útiles, porque podemos manipularlos de varias maneras y disponer
de verdaderos "interruptores electrónicos".
Los semiconductores típicos son sólidos cristalinos como el silicio (el
principal componente de la arena). Su conductividad puede
modificarse drásticamente añadiendo otros elementos como
"impurezas", mediante una técnica llamada dopaje. Se dice que los
semiconductores con pocos electrones en la banda de conducción
son del tipo n y suelen estar dopados con la adición de átomos que
ceden electrones, que por lo tanto "repoblan" la banda de
conducción. Se dice que los semiconductores con una banda de
conducción casi completa son del tipo p y normalmente se dopan
con la adición de átomos que aceptan electrones de la banda de
valencia.
Un material de tipo p tiene "agujeros" en la banda de valencia que
se ven muy similares a los encontrados cuando hablamos del mar
de Dirac. En ese caso vimos que estos huecos actuaban como
partículas positivas; aquí sucede algo similar: los huecos, llamados
"gaps", toman el papel de cargas positivas y facilitan el paso de la
corriente eléctrica. Un semiconductor tipo p, por lo tanto, es una
especie de Mar de Dirac en miniatura, creado en un laboratorio. En
este caso, sin embargo, los huecos involucran muchos electrones y
se comportan como si fueran partículas más pesadas, por lo que
son menos eficientes como portadores de corriente que los
electrones individuales.
Diodos y transistores
El ejemplo más simple de un mecanismo que podemos construir con
semiconductores es el diodo. Un diodo actúa como conductor en
una dirección y como aislante en la otra. Para construir uno, un
material de tipo p suele acoplarse con un material de tipo n para
formar una unión p-n. No se requiere mucho esfuerzo para estimular
los electrones del elemento de tipo n para que pasen a través de la
unión y terminen en la banda de valencia del elemento de tipo p.
Este proceso, que se asemeja a la aniquilación de partículas y
antipartículas en el Mar de Dirac, hace que la corriente fluya en una
sola dirección.
Si intentamos invertir el fenómeno nos damos cuenta de que es
difícil: al quitar los electrones de la banda de conducción no
encontramos ninguno capaz de reemplazarlos provenientes del
material tipo p. En un diodo, si no exageramos con el voltaje (es fácil
quemar un semiconductor con una corriente demasiado intensa),
podemos hacer que la electricidad fluya fácilmente en una sola
dirección, y por eso este dispositivo tiene importantes aplicaciones
en los circuitos eléctricos.
En 1947 John Bardeen y William Brattain, que trabajaban en los
Laboratorios Bell en un grupo encabezado por William Shockley,
construyeron el primer transistor de "punto de contacto". Era una
generalización del diodo, hecha por la unión de tres
semiconductores. Un transistor nos permite controlar el flujo de
corriente ya que el voltaje varía entre las tres capas (llamadas
colector, base y emisor respectivamente) y sirve básicamente como
interruptor y amplificador. Es quizás el mecanismo más importante
inventado por el hombre y que le valió a Bardeen, Brattain y
Shockley el Premio Nobel en 1956.22
Aplicaciones rentables
¿Con qué terminamos en nuestros bolsillos? La ecuación
fundamental de Schrödinger, que nos proporciona una forma de
calcular la función de onda, nació como el nacimiento de la razón
pura: nadie imaginó entonces que sería la base para el
funcionamiento de maquinaria costosa o que alimentaría la
economía de una nación. Pero si se aplica a los metales, aislantes y
semiconductores (los más rentables), esta ecuación nos ha
permitido inventar interruptores y mecanismos de control
particulares que son indispensables en equipos como
computadoras, aceleradores de partículas, robots que construyen
automóviles, videojuegos y aviones capaces de aterrizar en
cualquier clima.
Otro hijo favorito de la revolución cuántica es el omnipresente láser,
que encontramos en las cajas de los supermercados, en la cirugía
ocular, en la metalurgia de precisión, en los sistemas de navegación
y en los instrumentos que utilizamos para sondear la estructura de
los átomos y las moléculas. El láser es como una antorcha especial
que emite fotones de la misma longitud de onda.
Podríamos seguir hablando de los milagros tecnológicos que deben
su existencia a las intuiciones de Schrödinger, Heisenberg, Pauli y
muchos otros. Veamos algunos de ellos. El primero que viene a la
mente es el microscopio de efecto túnel, capaz de alcanzar
aumentos miles de veces mayores que el microscopio electrónico
más potente (que es en sí mismo el hijo de la nueva física, porque
se basa en algunas características de onda de los electrones).
El efecto túnel es la quintaesencia de la teoría cuántica. Imagina un
bol de metal colocado en una mesa, dentro del cual hay una bola de
acero libre para rodar sin fricción. Según la física clásica, la esfera
queda atrapada en el cuenco por la eternidad, condenada a subir y
bajar a lo largo de las paredes alcanzando siempre la misma altura.
El sistema newtoniano en el más alto grado. Para la versión
cuántica de esta configuración, tomamos un electrón confinado en
una jaula metálica, en cuyas paredes circula corriente con un voltaje
que la partícula no tiene suficiente energía para contrarrestar. Así
que el electrón se acerca a una pared, es repelido hacia la pared
opuesta, sigue siendo repelido, y así sucesivamente hasta el infinito,
¿verdad? No! Tarde o temprano, en el extraño mundo cuántico, la
partícula se encontrará fuera.
¿Entiendes lo perturbador que es esto? En el lenguaje clásico
diríamos que el electrón cavó mágicamente un túnel y escapó de la
jaula, como si la esfera de metal, la novela Houdini, hubiera
escapado de la prisión del tazón. Aplicando al problema la ecuación
de Schrödinger le hacemos entrar la probabilidad: en cada
encuentro entre el electrón y la pared hay una pequeña posibilidad
de que la partícula cruce la barrera. ¿A dónde va la energía
necesaria? No es una pregunta relevante, porque la ecuación sólo
nos dice cuál es la probabilidad con la que el electrón está dentro o
fuera. Para una mente newtoniana esto no tiene sentido, pero el
efecto túnel tiene efectos muy tangibles. En la década de 1940 se
había convertido en un hecho que los físicos utilizaban para explicar
fenómenos nucleares previamente incomprensibles. Algunas partes
del núcleo atómico logran, a través del efecto túnel, cruzar la barrera
que las mantiene unidas y al hacerlo rompen el núcleo original para
formar otros más pequeños. Esto es fisión, un fenómeno en la base
de los reactores nucleares.
Otro aparato que pone en práctica este extraño efecto es la unión
Josephson, una especie de interruptor electrónico llamado así en
honor a su brillante y extraño inventor, Brian Josephson. Este
dispositivo funciona a temperaturas cercanas al cero absoluto,
donde la superconductividad cuántica añade un carácter exótico a
los fenómenos. En la práctica, es un aparato electrónico digital
súper rápido y súper frío que explota el efecto túnel cuántico. Parece
salir directamente de las páginas de un libro de Kurt Vonnegut, pero
realmente existe y es capaz de encenderse y apagarse miles de
miles de millones de veces por segundo. En nuestra era de
ordenadores cada vez más potentes, esta velocidad es una
característica muy deseable. Esto se debe a que los cálculos se
hacen sobre bits, es decir, sobre unidades que pueden ser cero o
uno, gracias a varios algoritmos que representan todos los números,
los suman, los multiplican, calculan derivados e integrales, y así
sucesivamente. Todo esto se hace cambiando el valor de ciertos
circuitos eléctricos de cero (apagado) a uno (encendido) varias
veces, por lo que comprenderá que acelerar esta operación es de
suma importancia. El cruce de Josephson lo hace mejor.
El efecto túnel aplicado a la microscopía nos ha permitido "ver" los
átomos simples, por ejemplo en la fantástica arquitectura de la doble
hélice que forma el ADN, un registro de toda la información que
define a un ser vivo. El microscopio de efecto túnel, inventado en los
años ochenta del siglo pasado, no utiliza un haz de luz (como en el
microscopio óptico) ni un haz de electrones (como en el electrónico
estándar). Su funcionamiento se basa en una sonda de muy alta
precisión que sigue el contorno del objeto a observar
permaneciendo a una distancia de menos de una millonésima de
milímetro. Esta brecha es lo suficientemente pequeña como para
permitir que las corrientes eléctricas presentes en la superficie del
propio objeto lo superen gracias al efecto túnel y así estimular un
cristal muy sensible presente en la sonda. Cualquier variación en
esta distancia, debido a un átomo "saliente", es registrada y
convertida en una imagen por un software especial. Es el
equivalente al lápiz óptico de un tocadiscos (¿alguien lo recuerda?),
que recorre colinas y valles en un surco y los convierte en la
magnífica música de Mozart.
El microscopio de efecto túnel también es capaz de tomar átomos
uno por uno y moverlos a otro lugar, lo que significa que podemos
construir una molécula de acuerdo a nuestros diseños, poniendo las
piezas juntas como si fuera un modelo. Podría ser un nuevo material
muy resistente o un medicamento antiviral. Gerd Benning y Heinrich
Rohrer, que inventaron el microscopio de efecto túnel en un
laboratorio de IBM en Suiza, fueron galardonados con el Premio
Nobel en 1986, y su idea dio origen a una industria con un volumen
de negocios de mil millones de dólares.
En el presente y el futuro cercano hay otras dos revoluciones
potenciales: la nanotecnología y la computación cuántica. Las
nanotecnologías (donde "nano" es el prefijo que vale 10-9, que
significa "realmente muy pequeño") son la reducción de la
mecánica, con motores, sensores y demás, a escala atómica y
molecular. Hablamos literalmente de fábricas liliputienses, donde un
millón de veces más pequeñas dimensiones corresponden a un
aumento igual de la velocidad de operación. Los sistemas de
producción cuántica podrían utilizar la mayor cantidad de materia
prima de todas, los átomos. Nuestras fábricas contaminantes serían
reemplazadas por coches compactos y eficientes.
La computación cuántica, a la que volveremos más tarde, promete
ofrecer "un sistema de procesamiento de información tan poderoso
que, en comparación con la computación digital tradicional, parecerá
un éxito en comparación con un reactor nuclear".
Capítulo 9
El tercer milenio

omo hemos visto en varias ocasiones durante el curso del libro,


C la ciencia cuántica, a pesar de su extraña idea de la realidad,
funciona muy bien, a un nivel casi milagroso. Sus éxitos son
extraordinarios, profundos y de gran peso. Gracias a la física
cuántica tenemos una verdadera comprensión de lo que ocurre a
nivel molecular, atómico, nuclear y subnuclear: conocemos las
fuerzas y leyes que gobiernan el micromundo. La profundidad
intelectual de sus fundadores, a principios del siglo XX, nos ha
permitido utilizar una poderosa herramienta teórica que conduce a
aplicaciones sorprendentes, las que están revolucionando nuestra
forma de vida.
De su cilindro, el mago cuántico ha sacado tecnologías de alcance
inimaginable, desde los láseres hasta los microscopios de efecto
túnel. Sin embargo, algunos de los genios que ayudaron a crear
esta ciencia, escribieron los textos de referencia y diseñaron
muchos inventos milagrosos están todavía en la garra de una gran
angustia. En sus corazones, enterrados en un rincón, todavía existe
la sospecha de que Einstein no se equivocó y que la mecánica
cuántica, en toda su gloria, no es la teoría final de la física. Vamos,
¿cómo es posible que la probabilidad sea realmente parte de los
principios básicos que rigen la naturaleza? Debe haber algo que se
nos escapa. La gravedad, por ejemplo, que ha sido descuidada por
la nueva física durante mucho tiempo; el sueño de llegar a una
teoría sólida que unificara la relatividad general de Einstein y la
mecánica cuántica ha llevado a algunos temerarios a explorar los
abismos de los fundamentos, donde sólo las matemáticas más
abstractas proporcionan una luz débil, y a concebir la teoría de las
cuerdas. Pero ¿hay quizás algo más profundo, un componente que
falta en los fundamentos lógicos de la física cuántica? ¿Estamos
tratando de completar un rompecabezas en el que falta una pieza?
Algunas personas esperan con impaciencia llegar pronto a una
superteoría que se reduzca a la mecánica cuántica en ciertas áreas,
como sucede con la relatividad que engloba la mecánica clásica
newtoniana y devuelve valor sólo en ciertas áreas, es decir, cuando
los cuerpos en juego se mueven lentamente. Esto significaría que la
física cuántica moderna no es el final de la línea, porque allí,
escondida en lo profundo de la mente de la Naturaleza, existe una
teoría definitiva, mejor, capaz de describir el universo
completamente. Esta teoría podría abordar las fronteras de la física
de alta energía, pero también los mecanismos íntimos de la biología
molecular y la teoría de la complejidad. También podría llevarnos a
descubrir fenómenos completamente nuevos que hasta ahora han
escapado al ojo de la ciencia. Después de todo, nuestra especie se
caracteriza por la curiosidad y no puede resistir la tentación de
explorar este excitante y sorprendente micromundo como un planeta
que orbita una estrella distante. Y la investigación también es un
gran negocio, si es cierto que el 60% del PIB americano depende de
tecnologías que tienen que ver con la física cuántica. Así que hay
muy buenas razones para continuar explorando los bloques de
construcción sobre los que construimos nuestra comprensión del
mundo.
"Los fenómenos cuánticos desafían nuestra comprensión primitiva
de la realidad; nos obligan a reexaminar la idea misma de la
existencia", escribe Euan Squires en el prefacio de su libro El
Misterio del Mundo Cuántico. "Estos son hechos importantes,
porque nuestras creencias sobre "lo que existe" ciertamente influyen
en la forma en que concebimos nuestro lugar en el mundo. Por otra
parte, lo que creemos que somos influye en última instancia en
nuestra existencia y en nuestros actos "1. El difunto Heinz Pagels,
en su ensayo El código cósmico, habla de una situación similar a la
de un consumidor que tiene que elegir una variante de la "realidad"
entre las muchas que se ofrecen en unos grandes almacenes2.
En los capítulos anteriores hemos cuestionado la concepción común
de la "realidad" al tratar el teorema de Bell y sus consecuencias
experimentales, es decir, hemos considerado la posibilidad de los
efectos no locales: la transferencia instantánea de información entre
dos lugares situados a distancias arbitrarias. Según el modo de
pensar clásico, la medición realizada en un punto "influye" en las
observaciones del otro; pero en realidad el vínculo entre estos dos
lugares viene dado por una propiedad de las dos partículas (fotones,
electrones, neutrones o lo que sea) que nacieron juntas en un
estado enmarañado. A su llegada a los puntos donde se encuentran
los dos detectores, si el aparato 1 registra la propiedad A para la
partícula receptora, es necesario que el aparato 2 registre la
propiedad B, o viceversa. Desde el punto de vista de las funciones
de onda, el acto de medir por el aparato 2 hace que el estado
cuántico "colapse" simultáneamente en cada punto del espacio.
Einstein odiaba esto, porque creía firmemente en la ubicación y la
prohibición de exceder la velocidad de la luz. Gracias a varios
experimentos hemos excluido la posibilidad de que los dos
detectores intercambien señales; la existencia de enredo es en
cambio un hecho bien conocido y ampliamente confirmado, por lo
que una vez más la física cuántica es correcta a nivel fundamental.
El problema radica en nuestra reacción a este fenómeno
aparentemente paradójico. Un físico teórico escribió que
deberíamos encontrar una forma de "coexistencia pacífica" con la
mecánica cuántica.
El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión,
tal vez concebida para parecer deliberadamente anti-intuitiva?
Incluso el gran Feynman se sintió desafiado por el teorema de Bell y
trató de llegar a una representación de la mecánica cuántica que lo
hiciera más digerible, gracias a su idea de la suma en los caminos.
Como hemos visto, a partir de ciertas ideas de Paul Dirac inventó
una nueva forma de pensar sobre los acontecimientos. En su marco,
cuando una partícula radioactiva decae y da vida a un par de otras
partículas, una con spin up y otra con spin down, tenemos que
examinar las dos "vías" que se determinan. Una, que llamaremos A,
lleva la partícula con spin hacia arriba al detector 1 y la que tiene
spin hacia abajo al detector 2; la otra, la ruta B, hace lo contrario. A
y B tienen cuantitativamente dos "amplitudes de probabilidad", que
podemos sumar. Cuando hacemos una medición, también
averiguamos cuál de los dos caminos ha tomado realmente el
sistema, si A o B; así, por ejemplo, si encontramos la partícula con
spin up en el punto 1, sabemos que ha pasado por A. En todo esto,
sólo podemos calcular la probabilidad de los distintos caminos.
Con esta nueva concepción del espacio-tiempo, la posibilidad de
que la información se propague instantáneamente incluso a grandes
distancias desaparece. El cuadro general se acerca más al clásico:
recordarán el ejemplo en el que nuestro amigo nos envía a nosotros
en la Tierra y a un colega en Rigel 3 una pelota de color, que puede
ser roja o azul; si al abrir el paquete vemos la pelota azul, sabemos
en ese mismo instante que el otro recibió la roja. Sin embargo, nada
cambia en el universo. Tal vez este modelo calme nuestros temores
filosóficos sobre la paradoja EPR, pero hay que decir que incluso la
suma de los caminos tiene algunos aspectos realmente
desconcertantes. Las matemáticas que hay detrás funcionan tan
bien que el modelo descarta la presencia de señales que viajan más
rápido que la luz. Esto está estrechamente relacionado con hechos
como la existencia de la antimateria y la teoría cuántica de campos.
Por lo tanto, vemos que el universo es concebible como un conjunto
infinito de caminos posibles que gobiernan su evolución en el
tiempo. Es como si hubiera un gigantesco frente de onda de
probabilidad en avance. De vez en cuando tomamos una medida,
seleccionamos un camino para un determinado evento en el
espacio-tiempo, pero después de eso la gran ola se sacude y
continúa su carrera hacia el futuro.
Generaciones de físicos han sentido la frustración de no saber qué
teoría cuántica estaban usando realmente. Incluso hoy en día el
conflicto entre la intuición, los experimentos y la realidad cuántica
todavía puede ser profundo.
Criptografía cuántica
El problema de la transmisión segura de información no es nuevo.
Desde la antigüedad, el espionaje militar ha usado a menudo
códigos secretos, que el contraespionaje ha tratado de romper. En
tiempos de Isabel, el desciframiento de un mensaje codificado fue la
base de la sentencia de muerte de María Estuardo. Según muchos
historiadores, uno de los cruces fundamentales de la Segunda
Guerra Mundial ocurrió cuando en 1942 los aliados derrotaron a
Enigma, el código secreto de los alemanes considerado "invencible
".
Hoy en día, como cualquiera que se mantenga informado sabe, la
criptografía ya no es un asunto de espías y militares. Al introducir la
información de su tarjeta de crédito en eBay o en el sitio web de
Amazon, usted asume que la comunicación está protegida. Pero las
compañías de hackers y terroristas de la información nos hacen
darnos cuenta de que la seguridad del comercio, desde el correo
electrónico hasta la banca en línea, pende de un frágil hilo. El
gobierno de EE.UU. se toma en serio el problema, gastando miles
de millones de dólares en él.
La solución más inmediata es introducir una "clave" criptográfica que
pueda ser utilizada tanto por el emisor como por el receptor. La
forma estándar de hacer segura la información confidencial es
esconderla en una larga lista de números aleatorios. Pero sabemos
que los espías, hackers y tipos extraños vestidos de negro con un
corazón de piedra y un buen conocimiento del mundo informático
son capaces de entender cómo distinguir la información del ruido.
Aquí es donde entra en juego la mecánica cuántica, que puede
ofrecer a la criptografía los servicios de su especial forma de
aleatoriedad, tan extraña y maravillosa que constituye una barrera
infranqueable, y por si fuera poco, es capaz de informar
inmediatamente de cualquier intento de intrusión! Como la historia
de la criptografía está llena de códigos "impenetrables" que en cierto
punto son penetrados por una tecnología superior, está justificado si
se toma esta afirmación con la cantidad adecuada de escepticismo
(el caso más famoso es el ya mencionado de Enigma, la máquina
que en la Segunda Guerra Mundial encriptaba las transmisiones
nazis y que se consideraba imbatible: los Aliados lograron
desencriptarla sin que el enemigo se diera cuenta).
Veamos un poco más en detalle cómo funciona la criptografía. La
unidad mínima de información que puede transmitirse es el bit, una
abreviatura de dígito binario, es decir, "número binario". Un poco es
simplemente cero o uno. Si por ejemplo lanzamos una moneda y
decidimos que 0 representa la cabeza y 1 la cola, el resultado de
cada lanzamiento es un bit y una serie de lanzamientos puede
escribirse de la siguiente manera: 1011000101110100101010111.
Esto es en lo que respecta a la física clásica. En el mundo cuántico
hay un equivalente del bit que ha sido bautizado como qubit (si
piensas que tiene algo que ver con el "codo", una unidad de medida
tradicional que también aparece en la Biblia, estás fuera del
camino). También está dada por una variable que puede asumir dos
valores alternativos, en este caso el espín del electrón, igual a arriba
o abajo, que ocupan el lugar de 0 y 1 del bit clásico. Hasta ahora
nada nuevo.
Pero un qubit es un estado cuántico, por lo que también puede
existir tanto en forma "mixta" como "pura". Un estado puro no se ve
afectado por la observación. Si medimos el espín de un electrón a lo
largo del eje z, será necesariamente hacia arriba o hacia abajo,
dependiendo de su dirección. Si el electrón se toma al azar, cada
uno de estos valores puede presentarse con una cierta probabilidad.
Si, por el contrario, la partícula ha sido emitida de tal manera que
asume necesariamente un cierto spin, la medición sólo la registra
sin cambiar su estado.
En principio podemos, por lo tanto, transmitir la información en
forma de código binario utilizando una colección de electrones (o
fotones) con un espín predeterminado igual a arriba o abajo en el
eje z; como todos ellos han sido "puros", un detector orientado a lo
largo del mismo eje los leerá sin perturbarlos. Pero el eje z debe ser
definido, no es una característica intrínseca del espacio. Aquí,
entonces, hay una información secreta que podemos enviar al
destinatario del mensaje: cómo se orienta el eje a lo largo del cual
se mide el giro.
Si alguien intenta interceptar la señal con un detector no
perfectamente paralelo a nuestro z, con su medición perturba los
estados electrónicos y por lo tanto obtiene un conjunto de datos sin
sentido (sin darse cuenta). Nuestros receptores que leen el mensaje
se dan cuenta en cambio de que algo ha interferido con los
electrones y por lo tanto que ha habido un intento de intrusión:
sabemos que hay un espía escuchando y podemos tomar
contramedidas. Y viceversa, si el mensaje llega sin problemas,
podemos estar seguros de que la transmisión se ha realizado de
forma segura. El punto clave de la historia es que el intento de
intrusión causa cambios en el estado de los qubits, de los que tanto
el emisor como el receptor son conscientes.
La transmisión de los estados cuánticos también puede utilizarse
para transmitir con seguridad una "clave", es decir, un número muy
grande generado causalmente, que se utiliza para decodificar la
información en ciertos sistemas de comunicación cifrada. Gracias a
los qubits, sabemos si la llave está segura o comprometida y por lo
tanto podemos tomar contramedidas. La criptografía cuántica ha
sido probada hasta ahora en mensajes transmitidos a unos pocos
kilómetros de distancia. Aún pasará algún tiempo antes de que
pueda utilizarse en la práctica, ya que esto requiere una gran
inversión en la última generación de láseres. Pero un día podremos
hacer desaparecer para siempre la molestia de tener que impugnar
una compra cargada en nuestra tarjeta de crédito en algún país
lejano donde nunca antes habíamos estado.
Computadoras cuánticas
Sin embargo, hay una amenaza a la seguridad de la criptografía
cuántica, y es la computadora cuántica, el candidato número uno
para convertirse en la supercomputadora del siglo XXI. Según la ley
empírica enunciada por Gordon Moore, "el número de transistores
en una ficha se duplica cada veinticuatro meses "10. Como ha
calculado algún bromista, si la tecnología automotriz hubiera
progresado al mismo ritmo que la informática en los últimos treinta
años, ahora tendríamos coches de sesenta gramos que cuestan
cuarenta dólares, con un maletero de un kilómetro cúbico y medio,
que no consumen casi nada y que alcanzan velocidades de hasta
un millón y medio de kilómetros por hora11.
En el campo de la informática, hemos pasado de los tubos de vacío
a los transistores y circuitos integrados en menos tiempo que la vida
humana. Sin embargo, la física en la que se basan estas
herramientas, incluyendo las mejores disponibles hoy en día, es
clásica. Usando la mecánica cuántica, en teoría, deberíamos
construir nuevas e incluso más poderosas máquinas. Aún no han
aparecido en la oficina de diseño de IBM o en los planes de negocio
de las empresas más audaces de Silicon Valley (al menos hasta
donde sabemos), pero los ordenadores cuánticos harían que el más
rápido de los clásicos pareciera poco más que un ábaco en las
manos de una persona mutilada.
La teoría de la computación cuántica hace uso de los ya
mencionados qubits y adapta a la física no clásica la teoría clásica
de la información. Los conceptos fundamentales de esta nueva
ciencia fueron establecidos por Richard Feynman y otros a
principios de la década de 1980 y recibieron un impulso decisivo por
la obra de David Deutsch en 1985. Hoy en día es una disciplina en
expansión. La piedra angular ha sido el diseño de "puertas lógicas"
(equivalentes informáticos de los interruptores) que explotan la
interferencia y el enredo cuántico para crear una forma
potencialmente mucho más rápida de hacer ciertos cálculos12
La interferencia, explicada por experimentos de doble rendija, es
uno de los fenómenos más extraños del mundo cuántico. Sabemos
que sólo dos rendijas en una pantalla cambian el comportamiento de
un fotón que pasa a través de ella de una manera extraña. La
explicación que da la nueva física pone en duda las amplitudes de
probabilidad de los diversos caminos que la partícula puede seguir,
que, si se suman adecuadamente, dan la probabilidad de que
termine en una determinada región del detector. Si en lugar de dos
rendijas hubiera mil, el principio básico no cambiaría y para calcular
la probabilidad de que la luz llegue a tal o cual punto deberíamos
tener en cuenta todos los caminos posibles. La complejidad de la
situación aumenta aún más si tomamos dos fotones y no sólo uno,
cada uno de los cuales tiene miles de opciones, lo que eleva el
número de estados totales al orden de los millones. Con tres fotones
los estados se convierten en el orden de los billones, y así
sucesivamente. La complejidad aumenta exponencialmente a
medida que aumenta la entrada.
El resultado final es quizás muy simple y predecible, pero hacer
todas estas cuentas es muy poco práctico, con una calculadora
clásica. La gran idea de Feynman fue proponer una calculadora
analógica que explotara la física cuántica: usemos fotones reales y
realicemos el experimento, dejando que la naturaleza complete ese
monstruoso cálculo de forma rápida y eficiente. El ordenador
cuántico ideal debería ser capaz de elegir por sí mismo el tipo de
mediciones y experimentos que corresponden al cálculo requerido, y
al final de las operaciones traducir el resultado físico en el resultado
numérico. Todo esto implica el uso de una versión ligeramente más
complicada del sistema de doble rendija.
Los increíbles ordenadores del futuro
Para darnos una idea de lo poderosas que son estas técnicas de
cálculo, tomemos un ejemplo simple y comparemos una situación
clásica con la correspondiente situación cuántica. Partamos de un
"registro de 3 bits", es decir, un dispositivo que en cada instante es
capaz de asumir una de estas ocho configuraciones posibles: 000,
001, 010, 011, 100, 101, 110, 111, correspondientes a los números
0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico registra esta información
con tres interruptores que pueden estar abiertos (valor 0) o cerrados
(valor 1). Es fácil ver por analogía que un registro de 4 bits puede
codificar dieciséis números, y así sucesivamente.
Sin embargo, si el registro no es un sistema mecánico o electrónico
sino un átomo, puede existir en un estado mixto, superponiendo el
fundamental (que hacemos corresponder a 0) y el excitado (igual a
1). En otras palabras, es un qubit. Por lo tanto, un registro de 3
qubits expresa ocho números al mismo tiempo, un registro de 4
qubits expresa dieciséis y en general un registro de N qubits
contiene 2N.
En los ordenadores clásicos, el bit suele venir dado por la carga
eléctrica de un pequeño condensador, que puede estar cargado (1)
o no cargado (0). Ajustando el flujo de corriente podemos cambiar el
valor del bit. En los ordenadores cuánticos, en cambio, para cambiar
un qubit utilizamos un rayo de luz para poner el átomo en un estado
excitado o fundamental. Esto implica que en cada instante, en cada
paso del cálculo, el qubit puede asumir los valores 0 y 1 al mismo
tiempo. Estamos comenzando a realizar un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante
todos los primeros 1024 números. Con dos de ellos, acoplados de
forma coincidente, podemos asegurarnos de tener una tabla de
1024 × 1024 multiplicaciones. Una computadora tradicional, aunque
muy rápida, debería realizar en secuencia más de un millón de
cálculos para obtener todos esos datos, mientras que una
computadora cuántica es capaz de explorar todas las posibilidades
simultáneamente y llegar al resultado correcto en un solo paso, sin
esfuerzo.
Esta y otras consideraciones teóricas han llevado a la creencia de
que, en algunos casos, una computadora cuántica resolvería un
problema en un año que la más rápida de las máquinas clásicas no
terminaría antes de unos pocos miles de millones de años. Su poder
proviene de la capacidad de operar simultáneamente en todos los
estados y de realizar muchos cálculos en paralelo en una sola
unidad operativa. Pero hay un pero (suspenso: aquí cabría también
el Sprach Zarathustra de Richard Strauss). Antes de invertir todos
sus ahorros en una puesta en marcha de Cupertino, debe saber que
varios expertos son escépticos sobre las aplicaciones informáticas
cuánticas (aunque todos están de acuerdo en que los debates
teóricos sobre el tema son valiosos para comprender ciertos
fenómenos cuánticos fundamentales).
Es cierto que algunos problemas importantes pueden ser resueltos
de muy buena manera, pero seguimos hablando de máquinas muy
diferentes, diseñadas para situaciones muy específicas, que
difícilmente sustituirán a las actuales. El mundo clásico es otro tipo
de mundo, por lo que no llevamos la máquina rota a la mecánica
cuántica. Una de las mayores dificultades es que estos dispositivos
son muy sensibles a las interferencias con el mundo exterior: si un
solo rayo cósmico hace un estado de cambio de qubits, todo el
cálculo se va al infierno. También son máquinas analógicas,
diseñadas para simular un cálculo particular con un proceso
particular, y por lo tanto carecen de la universalidad típica de
nuestros ordenadores, en los que se ejecutan programas de varios
tipos que nos hacen calcular todo lo que queremos. También es muy
difícil construirlos en la práctica. Para que los ordenadores cuánticos
se hagan realidad y para que valga la pena invertir tiempo y dinero
en ellos, tendremos que resolver complejos problemas de fiabilidad
y encontrar algoritmos utilizables.
Uno de estos algoritmos potencialmente efectivos es la factorización
de grandes números (en el sentido de descomponerlos en factores
primos, como 21=3×7). Desde el punto de vista clásico, es
relativamente fácil multiplicar los números entre sí, pero en general
es muy difícil hacer la operación inversa, es decir, encontrar los
factores de un coloso como:
3 204 637 196 245 567 128 917 346 493 902 297 904 681 379
Este problema tiene importantes aplicaciones en el campo de la
criptografía y es candidato a ser la punta de lanza de la computación
cuántica, porque no es solucionable con las calculadoras clásicas.
Mencionemos también la extraña teoría del matemático inglés Roger
Penrose que concierne a nuestra conciencia. Un ser humano es
capaz de realizar ciertos tipos de cálculos a la velocidad del rayo,
como una calculadora, pero lo hace con métodos muy diferentes.
Cuando jugamos al ajedrez contra una computadora, por ejemplo,
asimilamos una gran cantidad de datos sensoriales y los integramos
rápidamente con la experiencia para contrarrestar una máquina que
funciona de manera algorítmica y sistemática. La computadora
siempre da resultados correctos, el cerebro humano a veces no:
somos eficientes pero inexactos. Hemos sacrificado la precisión
para aumentar la velocidad.
Según Penrose, la sensación de ser consciente es la suma
coherente de muchas posibilidades, es decir, es un fenómeno
cuántico. Por lo tanto, según él, somos a todos los efectos
computadoras cuánticas. Las funciones de onda que usamos para
producir resultados a nivel computacional están quizás distribuidas
no sólo en el cerebro sino en todo el cuerpo. En su ensayo
"Sombras de la mente", Penrose tiene la hipótesis de que las
funciones de onda de la conciencia residen en los misteriosos
microtúbulos de las neuronas. Interesante, por decir lo menos, pero
todavía falta una verdadera teoría de la conciencia.
Sea como fuere, la computación cuántica podría encontrar su razón
de ser arrojando luz sobre el papel de la información en la física
básica. Tal vez tengamos éxito tanto en la construcción de nuevas y
poderosas máquinas como en alcanzar una nueva forma de
entender el mundo cuántico, tal vez más en sintonía con nuestras
percepciones cambiantes, menos extrañas, fantasmales,
perturbadoras. Si esto realmente sucede, será uno de los raros
momentos en la historia de la ciencia en que otra disciplina (en este
caso la teoría de la información, o tal vez de la conciencia) se
fusiona con la física para arrojar luz sobre su estructura básica.
Gran final
Concluyamos nuestra historia resumiendo las muchas preguntas
filosóficas que esperan respuesta: ¿cómo puede la luz ser tanto una
partícula como una onda? ¿hay muchos mundos o sólo uno? ¿hay
un código secreto verdaderamente impenetrable? ¿qué es la
realidad a nivel fundamental? ¿están las leyes de la física reguladas
por muchos lanzamientos de dados? ¿tienen sentido estas
preguntas? la respuesta es quizás "tenemos que acostumbrarnos a
estas rarezas"? ¿dónde y cuándo tendrá lugar el próximo gran salto
científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica.
Hemos entrado en la armonía de relojería del universo clásico de
Newton, con sus leyes deterministas. Podríamos habernos detenido
allí, en un sentido real y metafórico, en esa reconfortante realidad
(aunque sin teléfonos móviles). Pero no lo hicimos. Hemos
penetrado en los misterios de la electricidad y el magnetismo,
fuerzas que sólo en el siglo XIX se unieron y tejieron en el tejido de
la física clásica, gracias a Faraday y Maxwell. Nuestros
conocimientos parecían entonces tan completos que a finales de
siglo hubo quienes predijeron el fin de la física. Todos los problemas
que valía la pena resolver parecían estar resueltos: bastaba con
añadir algunos detalles, que sin duda entrarían en el marco de las
teorías clásicas. Al final de la línea, abajo vamos; los físicos pueden
abrigarse e irse a casa.
Pero todavía había algún fenómeno incomprensible aquí y allá. Las
brasas ardientes son rojas, mientras que según los cálculos
deberían ser azules. ¿Y por qué no hay rastros de éter? ¿Por qué
no podemos ir más rápido que un rayo de luz? Tal vez la última
palabra no se ha dicho todavía. Pronto, el universo sería
revolucionado por una nueva y extraordinaria generación de
científicos: Einstein, Bohr, Schrödinger, Heisenberg, Pauli, Dirac y
otros, todos entusiastas de la idea.
Por supuesto, la vieja y querida mecánica newtoniana sigue
funcionando bien en muchos casos, como el movimiento de los
planetas, cohetes, bolas y máquinas de vapor. Incluso en el siglo
veintisiete, una bola lanzada al aire seguirá la elegante parábola
clásica. Pero después de 1900, o más bien 1920, o mejor aún 1930,
aquellos que quieren saber cómo funciona realmente el mundo
atómico y subatómico se ven obligados a cambiar de idea y entrar
en el reino de la física cuántica y su intrínseca naturaleza
probabilística. Un reino que Einstein nunca aceptó completamente.
Sabemos que el viaje no ha sido fácil. El omnipresente experimento
de la doble rendija puede causar migrañas. Pero fue sólo el
comienzo, porque después vinieron las vertiginosas alturas de la
función de onda de Schrödinger, la incertidumbre de Heisenberg y la
interpretación de Copenhague, así como varias teorías
perturbadoras. Nos encontramos con gatos vivos y muertos al
mismo tiempo, rayos de luz que se comportan como ondas y
partículas, sistemas físicos vinculados al observador, debates sobre
el papel de Dios como el jugador de dados supremo... Y cuando
todo parecía tener sentido, aquí vienen otros rompecabezas: el
principio de exclusión de Pauli, la paradoja EPR, el teorema de Bell.
No es material para conversaciones agradables en fiestas, incluso
para adeptos de la Nueva Era que a menudo formulan una versión
equivocada de la misma. Pero nos hemos hecho fuertes y no nos
hemos rendido, incluso ante alguna ecuación inevitable.
Fuimos aventureros y le dimos al público ideas tan extrañas que
podían ser títulos de episodios de Star Trek: "Muchos mundos",
"Copenhague" (que en realidad también es una obra de teatro), "Las
cuerdas y la teoría M", "El paisaje cósmico" y así sucesivamente.
Esperamos que hayan disfrutado del viaje y que ahora, como
nosotros, tengan una idea de lo maravilloso y profundamente
misterioso que es nuestro mundo.
En el nuevo siglo se avecina el problema de la conciencia humana.
Tal vez pueda explicarse por los estados cuánticos. Aunque no son
pocos los que piensan así, no es necesariamente así - si dos
fenómenos son desconocidos para nosotros, no están
necesariamente conectados.
La mente humana juega un papel en la mecánica cuántica, como
recordarán, es decir, cuando la medición entra en juego. El
observador (su mente) interfiere con el sistema, lo que podría
implicar un papel de la conciencia en el mundo físico. ¿La dualidad
mente-cuerpo tiene algo que ver con la mecánica cuántica? A pesar
de todo lo que hemos descubierto recientemente sobre cómo el
cerebro codifica y manipula la información para controlar nuestro
comportamiento, sigue siendo un gran misterio: ¿cómo es posible
que estas acciones neuroquímicas conduzcan al "yo", a la "vida
interior"? ¿Cómo se genera la sensación de ser quienes somos?
No faltan críticos de esta correlación entre lo cuántico y la mente,
entre ellos el descubridor de ADN Francis Crick, quien en su ensayo
Science and the Soul escribe: "El yo, mis alegrías y tristezas, mis
recuerdos y ambiciones, mi sentido de la identidad personal y el
libre albedrío, no son más que el resultado de la actividad de un
número colosal de neuronas y neurotransmisores".
Esperamos que este sea sólo el comienzo de su viaje y que
continúe explorando las maravillas y aparentes paradojas de nuestro
universo cuántico.

También podría gustarte