Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A principios del siglo XX ocurrió algo similar. El complejo edificio de la física, con sus
predicciones exactas sobre el comportamiento de los objetos, es decir, las multitudes de
átomos, se derrumbó de repente. Gracias a nuevos y sofisticados experimentos,
realizados con gran habilidad, fue posible estudiar las propiedades no sólo de los
átomos individuales, sino también de las partículas más pequeñas de las que estaban
hechas. Era como pasar de escuchar un conjunto orquestal a cuartetos, tríos y solos. Y
los átomos parecían comportarse de manera desconcertante a los ojos de los más
grandes físicos de la época, que despertaban del sueño de la época clásica. Fueron
exploradores de un mundo sin precedentes, el equivalente a la vanguardia poética,
artística y musical de la época. Entre ellos se encontraban los más famosos: Heinrich
Hertz, Ernest Rutherford, J. J. Thomson, Niels Bohr, Marie Curie, Werner Heisenberg,
Erwin Schrödinger, Paul Dirac, Louis-Victor de Broglie, Albert Einstein, Max Born, Max
Planck y Wolfgang Pauli. La conmoción que sintieron después de hurgar en el interior
de los átomos fue igual a la que la tripulación de la Enterprise debió experimentar en su
primer encuentro con una civilización alienígena encontrada en la inmensidad del
cosmos. La confusión producida por el examen de los nuevos datos estimuló
gradualmente los primeros intentos desesperados de los físicos de restaurar cierto
orden y lógica en su ciencia. A finales de la década de 1920 se podía decir que la
estructura fundamental del átomo era ampliamente conocida, y se podía aplicar a la
química y la física de la materia ordinaria. La humanidad había comenzado a entender
realmente lo que estaba sucediendo en el nuevo y extraño mundo cuántico.
Antes de la era cuántica, la física había logrado muy bien describir los fenómenos que
ocurren ante nuestros ojos, resolver problemas en un mundo de escaleras firmemente
apoyadas en las paredes, flechas y balas de cañón lanzadas según trayectorias precisas,
planetas que orbitan y giran sobre sí mismos, cometas que regresan al tiempo esperado,
máquinas de vapor que hacen su trabajo útil, telégrafos y motores eléctricos. En
resumen, a principios del siglo XX casi todos los fenómenos macroscópicos observables
y medibles habían encontrado una explicación coherente dentro de la llamada física
clásica. Pero el intento de aplicar las mismas leyes al extraño mundo microscópico de
los átomos resultó increíblemente difícil, con profundas implicaciones filosóficas. La
teoría que parecía surgir, la teoría cuántica, iba completamente en contra del sentido
común.
Nuestra intuición se basa en experiencias pasadas, por lo que podemos decir que
incluso la ciencia clásica, en este sentido, fue a veces contraintuitiva, al menos para la
gente de la época. Cuando Galileo descubrió las leyes del movimiento ideal en ausencia
de fricción, sus ideas se consideraron extremadamente atrevidas (en un mundo en el
que nadie o casi nadie había pensado en descuidar los efectos de la fricción)2. Pero la
física clásica que surgió de sus intuiciones logró redefinir el sentido común durante tres
siglos, hasta el siglo XX. Parecía ser una teoría sólida, resistente a los cambios radicales -
hasta que la física cuántica irrumpió en escena, llevando a un choque existencial como
nunca antes.
Para entender realmente el comportamiento de los átomos, para crear una teoría que
estuviera de acuerdo con los datos aparentemente contradictorios que salieron de los
laboratorios en los años 30, era necesario actuar de manera radical, con una nueva
audacia. Las ecuaciones, que hasta entonces calculaban con precisión la dinámica de los
acontecimientos, se convirtieron en instrumentos para obtener abanicos de
posibilidades, cada una de las cuales podía ocurrir con una probabilidad determinada.
Las leyes de Newton, con sus certezas (de ahí el término "determinismo clásico") fueron
sustituidas por las ecuaciones de Schrödinger y las desconcertantes construcciones
matemáticas de Heisenberg, que hablaban el lenguaje de la indeterminación y el matiz.
Este es un resultado asombroso. Si los átomos de uranio siguieran las leyes de la física
clásica newtoniana, habría algún mecanismo en funcionamiento que, siempre que
hagamos los cálculos con precisión, nos permitiría predecir exactamente cuándo
decaerá un determinado átomo. Las leyes cuánticas no ofrecen mecanismos
deterministas y nos proporcionan probabilidades y datos borrosos no por simple
desconocimiento del problema, sino por razones más profundas: según la teoría, la
probabilidad de que el decaimiento de ese átomo se produzca en un determinado
período es todo lo que podemos conocer.
Pasemos a otro ejemplo. Consideremos dos fotones idénticos (las partículas de las que
está hecha la luz) y disparémoslos en dirección a una ventana. Hay varias alternativas:
ambos rebotan en el vidrio, ambos lo cruzan, uno rebota y el otro lo cruza. Bueno, la
física cuántica no es capaz de predecir cómo se comportarán los fotones individuales,
cuyo futuro ni siquiera conocemos en principio. Sólo podemos calcular la probabilidad
con la que las diversas alternativas sucederán - por ejemplo, que el fotón sea rechazado
en un 10% y aumente al 90%, pero nada más. La física cuántica puede parecer vaga e
imprecisa en este punto, pero en realidad proporciona los procedimientos correctos (los
únicos procedimientos correctos, para ser precisos) que nos permiten comprender cómo
funciona la materia. También es la única manera de entender el mundo atómico, la
estructura y el comportamiento de las partículas, la formación de las moléculas, el
mecanismo de la radiación (la luz que vemos proviene de los átomos). Gracias a ella
pudimos, en un segundo tiempo, penetrar en el núcleo, entender cómo los quarks que
forman protones y neutrones se unen, cómo el Sol obtiene su gigantesca energía, y más.
Pero ¿cómo es posible que la física de Galileo y Newton, tan trágicamente inadecuada
para describir los movimientos atómicos, pueda predecir con unas pocas y elegantes
ecuaciones los movimientos de los cuerpos celestes, fenómenos como los eclipses o el
regreso del cometa Halley en 2061 (un jueves por la tarde) y las trayectorias de las naves
espaciales? Gracias a la física clásica podemos diseñar las alas de aviones, rascacielos y
puentes capaces de soportar fuertes vientos y terremotos, o robots capaces de realizar
cirugías de alta precisión. ¿Por qué todo funciona tan bien, si la mecánica cuántica nos
muestra tan claramente que el mundo no funciona en absoluto como pensábamos?
Esto es lo que sucede: cuando enormes cantidades de átomos se unen para formar
objetos macroscópicos, como en los ejemplos que acabamos de hacer (aviones, puentes
y robots), los inquietantes y contra-intuitivos fenómenos cuánticos, con su carga de
incertidumbre, parecen anularse entre sí y devuelven los fenómenos a los cimientos de
la precisa previsibilidad de la física newtoniana. La razón por la que esto sucede, en el
dinero, es de naturaleza estadística. Cuando leemos que el promedio de miembros de
las familias americanas es igual a 2.637 individuos nos enfrentamos a un dato preciso y
determinístico. Lástima, sin embargo, que ninguna familia tenga exactamente 2.637
miembros.
En un famoso pasaje de una carta a Max Born, Einstein escribió: "Usted cree que Dios
juega a los dados con el mundo, yo creo en cambio que todo obedece a una ley, en un
mundo de realidad objetiva que trato de captar por medios furiosamente especulativos
[...] Ni siquiera el gran éxito inicial de la teoría cuántica logra convencerme de que en la
base de todo hay azar, aunque sé que los colegas más jóvenes consideran esta actitud
como un efecto de la esclerosis. 3 Erwin Schrödinger pensaba de manera similar: "Si
hubiera sabido que mi ecuación de onda se usaría de esta manera, habría quemado el
artículo antes de publicarlo [...] No me gusta y me arrepiento de haber tenido algo que
ver con ello".4 ¿Qué perturbó a estas eminentes figuras, tanto que se vieron obligadas a
negar su hermosa creación? Entremos en un pequeño detalle sobre estas lamentaciones,
en la protesta de Einstein contra un Dios que "juega a los dados". El punto de inflexión
de la teoría cuántica moderna se remonta a 1925, precisamente a las solitarias
vacaciones que el joven físico alemán Werner Heisenberg pasó en Helgoland, una
pequeña isla del Mar del Norte donde se había retirado para encontrar alivio a la fiebre
del heno. Allí tuvo una idea revolucionaria.
La comunidad científica apoyó cada vez más la hipótesis de que los átomos estaban
compuestos por un núcleo central más denso rodeado por una nube de electrones,
similar a los planetas que orbitan el Sol. Heisenberg examinó el comportamiento de
estos electrones y se dio cuenta de que para sus cálculos no era necesario conocer sus
trayectorias precisas alrededor del núcleo. Las partículas parecían saltar
misteriosamente de una órbita a otra y en cada salto los átomos emitían luz de un cierto
color (los colores reflejan la frecuencia de las ondas de luz). Desde un punto de vista
matemático, Heisenberg había logrado encontrar una descripción sensata de estos
fenómenos, pero involucraba un modelo de átomo diferente al de un diminuto sistema
solar, con los planetas confinados en órbitas inmutables. Al final abandonó el cálculo de
la trayectoria de un electrón que se mueve de la posición observada A a B, porque se
dio cuenta de que cualquier medida de la partícula en ese tiempo interferiría
necesariamente con su comportamiento. Así que Heisenberg elaboró una teoría que
tomaba en cuenta los colores de la luz emitida, pero sin requerir el conocimiento de la
trayectoria precisa seguida por el electrón. Al final sólo importaba que un determinado
evento fuera posible y que sucediera con una cierta probabilidad. La incertidumbre se
convirtió en una característica intrínseca del sistema: nació la nueva realidad de la física
cuántica.
En la física cuántica parece haber un vínculo mágico entre el estado físico de un sistema
y su percepción consciente por parte de un observador sensible. Pero es el mismo acto
de medir, es decir, la llegada de otro sistema a la escena, lo que restablece todas las
posibilidades menos una, haciendo que el estado cuántico "colapse", como se dice, en
una de las muchas alternativas. Veremos cuán inquietante puede ser esto más adelante,
cuando nos encontremos con electrones que pasan de uno en uno a través de dos
rendijas en una pantalla y que forman configuraciones que dependen del conocimiento
de la rendija precisa por la que pasaron, es decir, si alguien o algo ha hecho una
medición en el sistema. Parece que un solo electrón, como por arte de magia, pasa por
las dos rendijas al mismo tiempo si nadie lo está observando, mientras que elige un
posible camino si alguien o algo lo está observando! Esto es posible porque los
electrones no son ni partículas ni ondas: son algo más, completamente nuevo. Han sido
cuánticos.6
En 1925, independientemente de las ideas de Heisenberg, otro físico teórico tenía otra
idea fundamental, también mientras estaba de vacaciones (aunque no solo). Fue el
vienés Erwin Schrödinger, quien había formado un vínculo de amistad y colaboración
científica con su colega Hermann Weyl. Este último fue un matemático de gran valor,
que desempeñó un papel decisivo en el desarrollo de la teoría de la relatividad y la
versión relativista de la teoría del electrón. Weyl ayudó a Schrödinger con los cálculos y
como compensación pudo dormir con su esposa Anny. No sabemos qué pensaba la
mujer sobre el asunto, pero experimentos sociales de este tipo no eran infrecuentes en el
crepúsculo de la sociedad intelectual vienesa. Este acuerdo también incluía la
posibilidad de que Schrödinger se embarcara en mil aventuras extramatrimoniales, una
de las cuales condujo (en cierto sentido) a un gran descubrimiento en el campo
cuántico7.
La idea era esta: describir el electrón con las herramientas matemáticas utilizadas para
las ondas. Esta partícula, que antes se pensaba que estaba modelada como una bola
microscópica, a veces se comporta como una onda. La física de las ondas (fenómenos
que se encuentran en muchas áreas, desde el agua hasta el sonido, desde la luz hasta la
radio, etc.) era entonces bien conocida. Schrödinger estaba muy convencido de que una
partícula como el electrón era realmente una onda de un nuevo tipo, una "onda de
materia", por así decirlo. Parecía una hipótesis de bizcocho, pero la ecuación resultante
era útil en los cálculos y proporcionaba resultados concretos de manera relativamente
sencilla. La mecánica ondulatoria de Schrödinger dio consuelo a aquellos sectores de la
comunidad científica cuyos miembros tenían grandes dificultades para comprender la
aparentemente imparable teoría cuántica y que encontraban la versión de Heisenberg
demasiado abstracta para su gusto.
Para Schrödinger, los electrones eran ondas puras y simples, similares a las ondas
marinas o de sonido, y su naturaleza de partículas podía ser pasada por alto como
ilusoria. Ψ representaba ondas de un nuevo tipo, las de la materia. Pero al final, esta
interpretación suya resultó ser errónea. ¿Qué era realmente Ψ? Después de todo, los
electrones siguieron comportándose como si fueran partículas puntuales, que se podían
ver cuando chocaban con una pantalla fluorescente, por ejemplo. ¿Cómo se reconcilió
este comportamiento con la naturaleza ondulatoria?
Otro físico alemán, Max Born (quien, por cierto, fue un antepasado de la cantante Olivia
Newton-John), propuso una nueva interpretación de la ecuación de Schrödinger, que
sigue siendo una piedra angular de la física actual. Según él, la onda asociada con el
electrón era la llamada "onda de probabilidad "10 . Para ser precisos, el cuadrado de
Ψ(x, t), es decir, Ψ2(x, t), era la probabilidad de encontrar el electrón en el punto x en el
tiempo t. Cuando el valor de Ψ2 es alto, hay una fuerte probabilidad de encontrar el
electrón. Donde Ψ2=0, por otro lado, no hay ninguna posibilidad. Fue una propuesta
impactante, similar a la de Heisenberg, pero tuvo el mérito de ser más fácil de entender,
porque fue formulada dentro del terreno más familiar de la ecuación de Schrödinger.
Casi todo el mundo estaba convencido y el asunto parecía cerrado.
Planck era uno de los más grandes físicos teóricos activos a principios de siglo, y a él
tampoco le gustaba el pliegue que había tomado la teoría cuántica. Era la paradoja
suprema, ya que él había sido el verdadero progenitor de la nueva física, además de
haber acuñado el término "cuántico" ya a finales del siglo XIX.
Tal vez podamos entender al científico que habla de "traición" con respecto a la entrada
de la probabilidad en las leyes de la física en lugar de certezas sólidas de causa y efecto.
Imaginemos que tenemos una pelota de tenis normal y la hacemos rebotar contra un
muro de hormigón liso. No nos movemos del punto donde lo lanzamos y seguimos
golpeándolo con la misma fuerza y apuntando en la misma dirección. Bajo las mismas
condiciones de límite (como el viento), un buen jugador de tenis debe ser capaz de
llevar la pelota exactamente al mismo lugar, tiro tras tiro, hasta que se canse o la pelota
(o la pared) se rompa. Un campeón como André Agassi contaba con estas características
del mundo físico para desarrollar en el entrenamiento las habilidades que le
permitieron ganar Wimbledon. ¿Pero qué pasaría si el rebote no fuera predecible? ¿O si
en alguna ocasión la bola pudo incluso cruzar la pared? ¿Y si sólo se conoce la
probabilidad del fenómeno? Por ejemplo, cincuenta y cinco veces de cada cien la pelota
regresa, las otras cuarenta y cinco pasan a través de la pared. Y así sucesivamente, para
todo: también hay una probabilidad de que pase a través de la barrera formada por la
raqueta. Sabemos que esto nunca sucede en el mundo macroscópico y newtoniano de
los torneos de tenis. Pero a nivel atómico todo cambia. Un electrón disparado contra el
equivalente de una pared de partículas tiene una probabilidad diferente de cero de
atravesarla, gracias a una propiedad conocida como "efecto túnel". Imagine el tipo de
dificultad y frustración que un jugador de tenis encontraría en el mundo subatómico.
Fue precisamente con la ayuda de experimentos análogos que los físicos abandonaron
la interpretación original de Schrödinger, que preveía electrones de "plastilina", es decir,
ondas de materia, para llegar a la mucho menos intuitiva probabilística, según la cual
una cierta función matemática, Ψ2, proporcionaba la probabilidad de encontrar
partículas en una determinada posición en un instante dado. Si disparamos mil
electrones contra una pantalla y comprobamos con un contador Geiger cuántos de ellos
pasan por ella, podemos encontrar que 568 han pasado y 432 se han reflejado. ¿A cuál
de ellos le afectó esto? No hay forma de saberlo, ni ahora ni nunca. Esta es la frustrante
realidad de la física cuántica. Todo lo que podemos hacer es calcular la probabilidad del
evento, Ψ2.
Al examinar las paradojas filosóficas que aporta la teoría cuántica no podemos pasar
por alto el ya famoso caso del gato de Schrödinger, en el que el divertido mundo
microscópico con sus leyes probabilísticas está ligado al macroscópico con sus precisos
pronunciamientos newtonianos. Al igual que Einstein, Podolsky y Rosen, Schrödinger
no quería aceptar el hecho de que la realidad objetiva no existía antes de la observación,
sino que se encontraba en una maraña de estados posibles. Su paradoja del gato fue
originalmente pensada como una forma de burlarse de una visión del mundo que era
insostenible para él, pero ha demostrado ser una de las pesadillas más tenaces de la
ciencia moderna hasta el día de hoy. Esto también, como el EPR, es un experimento
mental o conceptual, diseñado para hacer que los efectos cuánticos se manifiesten de
manera resonante incluso en el campo macroscópico. Y también hace uso de la
radiactividad, un fenómeno que implica el decaimiento de la materia según una tasa
predecible, pero sin saber exactamente cuándo se desintegrará la única partícula (es
decir, como hemos visto anteriormente, podemos decir cuántas partículas decaerán en
una hora, por ejemplo, pero no cuándo lo hará una de ellas).
Esta es la situación imaginada por Schrödinger. Encerramos un gato dentro de una caja
junto con un frasco que contiene un gas venenoso. Por otro lado, ponemos una pequeña
y bien sellada cantidad de material radioactivo para tener un 50% de posibilidades de
ver una sola descomposición en el espacio de una hora. Inventemos algún tipo de
dispositivo que conecte el contador Geiger que detecta la descomposición a un
interruptor, que a su vez activa un martillo, que a su vez golpea el vial, liberando así el
gas y matando al gato (por supuesto estos intelectuales vieneses de principios del siglo
XX eran muy extraños...).
Dejemos pasar una hora y preguntémonos: ¿el gato está vivo o muerto? Si describimos
el sistema con una función de onda, obtenemos un estado "mixto "15 como el que se ha
visto anteriormente, en el que el gato es "embadurnado" (pedimos disculpas a los
amantes de los gatos) a partes iguales entre la vida y la muerte. En los símbolos
podríamos escribir Ψgatto-vivo + Ψgatto-morto. A nivel macroscópico, sólo podemos
calcular la probabilidad de encontrar al gato vivo, igual a (Ψgatto-live)2, y la de
encontrarlo muerto, igual a (Ψgatto-dead)2.
Pero aquí está el dilema: ¿el colapso del estado cuántico inicial en el "gato vivo" o en el
"gato muerto" está determinado por el momento en que alguien (o algo) se asoma a la
caja? ¿No podría ser el propio gato, angustiado al mirar el contador Geiger, la entidad
capaz de tomar la medida? O, si queremos una crisis de identidad más profunda: la
desintegración radiactiva podría ser monitoreada por una computadora, que en
cualquier momento es capaz de imprimir el estado del gato en una hoja de papel dentro
de la caja. Cuando la computadora registra la llegada de la partícula, ¿el gato está
definitivamente vivo o muerto? ¿O es cuando la impresión del estado está terminada?
¿O cuando un observador humano lo lee? ¿O cuando el flujo de electrones producido
por la descomposición se encuentra con un sensor dentro del contador Geiger que lo
activa, es decir, cuando pasamos del mundo subatómico al macroscópico? La paradoja
del gato de Schrödinger, como la del EPR, parece a primera vista una fuerte refutación
de los principios fundamentales de la física cuántica. Está claro que el gato no puede
estar en un estado "mixto", mitad vivo y mitad muerto. ¿O puede?
Como veremos mejor más adelante, algunos experimentos han demostrado que el gato
visible de Schrödinger, que representa a todos los sistemas macroscópicos, puede estar
realmente en un estado mixto; en otras palabras, la teoría cuántica implica la existencia
de estas situaciones también a nivel macroscópico. Otra victoria para la nueva física.
Los efectos cuánticos, de hecho, pueden ocurrir a varias escalas, desde el más pequeño
de los átomos hasta el más grande de los sistemas. Un ejemplo de ello es la llamada
"superconductividad", por la que a muy bajas temperaturas ciertos materiales no tienen
resistencia eléctrica y permiten que la corriente circule infinitamente sin la ayuda de
baterías, y que los imanes permanezcan suspendidos sobre los circuitos para siempre.
Lo mismo ocurre con la "superfluidez", un estado de la materia en el que, por ejemplo,
un flujo de helio líquido puede subir por las paredes de un tubo de ensayo o alimentar
fuentes perpetuas, sin consumir energía. Y lo mismo ocurre con el misterioso fenómeno
gracias al cual todas las partículas adquieren masa, el llamado "mecanismo de Higgs".
No hay forma de escapar de la mecánica cuántica: al final, todos somos gatos
encerrados en alguna caja.
Con este libro queremos dar una idea de las herramientas que la física ha desarrollado
para intentar comprender el extraño mundo microscópico habitado por los átomos y las
moléculas. Pedimos a los lectores sólo dos pequeños esfuerzos: tener un sano sentido de
la curiosidad por el mundo y dominar las técnicas avanzadas de resolución de
ecuaciones diferenciales con derivadas parciales. Muy bien, bromeamos. Después de
años de dar cursos de física elemental a estudiantes de facultades no científicas,
sabemos lo extendido que está el terror a las matemáticas entre la población. No hay
fórmulas, entonces, o al menos el mínimo, unas pocas y dispersas aquí y allá.
La visión científica del mundo debería ser enseñada a todo el mundo. La mecánica
cuántica, en particular, es el cambio de perspectiva más radical que se ha producido en
el pensamiento humano desde que los antiguos griegos comenzaron a abandonar el
mito en favor de la búsqueda de principios racionales en el universo. Gracias a la nueva
teoría, nuestra comprensión del mundo se ha ampliado enormemente. El precio pagado
por la ciencia moderna por esta ampliación de los horizontes intelectuales ha sido la
aceptación de muchas ideas aparentemente contrarias a la intuición. Pero recuerden que
la culpa de esto recae principalmente en nuestro viejo lenguaje newtoniano, que es
incapaz de describir con precisión el mundo atómico. Como científicos, prometemos
hacer lo mejor posible.
Usando este simple lenguaje, veamos cómo expresar las escalas en las que ocurren
varios fenómenos naturales, en orden descendente.
- 100 m=1 m, es decir un metro: es la típica escala humana, igual a la altura de un niño,
la longitud de un brazo o un escalón; - 10-2 m=1 cm, es decir un centímetro: es el ancho
de una pulgada, el largo de una abeja o una avellana.
- 10-6 m, una micra o millonésima de metro: estamos al nivel de las mayores moléculas
que se encuentran en las células de los organismos, como el ADN; también estamos en
la longitud de onda de la luz visible; aquí empezamos a sentir los efectos cuánticos.
- 10-15 m: estamos en las partes del núcleo atómico; los protones y los neutrones tienen
un diámetro de 10-16 m, y por debajo de esta longitud encontramos los quarks.
- 10-35 m: es la escala más pequeña que creemos que existe, bajo la cual la misma idea
de "distancia" pierde su significado debido a los efectos cuánticos.
Los datos experimentales nos dicen que la mecánica cuántica es válida y fundamental
para la comprensión de los fenómenos de 10-9 a 10-15 metros, es decir, de los átomos a
los núcleos (en palabras: de una milmillonésima a una millonésima de una
milmillonésima de metro). En algunas investigaciones recientes, gracias al Tevatrón del
Fermilab, hemos podido investigar distancias del orden de 10-18 metros y no hemos
visto nada que nos convenza del fracaso a esa escala de la mecánica cuántica. Pronto
penetraremos en territorios más pequeños por un factor de diez, gracias al colosal LHC,
el acelerador del CERN que está a punto de empezar a funcionar.* La exploración de
estos nuevos mundos no es similar a la geográfica, al descubrimiento de un nuevo
continente hasta ahora desconocido. Es más bien una investigación dentro de nuestro
mundo, porque el universo se compone de la colección de todos los habitantes del
dominio microscópico. De sus propiedades, y sus consecuencias, depende nuestro
futuro.
Algunos de ustedes se preguntarán si una simple teoría vale la pena. Bueno, hay teorías
y teorías, y es culpa de nosotros los científicos que usamos la misma palabra para
indicar contextos muy diferentes. En sí misma, una "teoría" no está ni siquiera
científicamente bien definida.
Tomemos un ejemplo un tanto trivial. Una población que vive a orillas del Océano
Atlántico nota que el Sol sale en el horizonte todas las mañanas a las 5 a.m. y se pone en
dirección opuesta todas las tardes a las 7 p.m. Para explicar este fenómeno, un
venerable sabio propone una teoría: hay un número infinito de soles ocultos bajo el
horizonte, que aparecen cada 24 horas. Sin embargo, hay una hipótesis que requiere
menos recursos: todo lo que se necesita es un solo Sol girando alrededor de la Tierra,
supuestamente esférico, en 24 horas. Una tercera teoría, la más extraña y contraria a la
intuición, argumenta en cambio que el Sol se queda quieto y la Tierra gira sobre sí
misma en 24 horas. Así que tenemos tres ideas contradictorias. En este caso la palabra
"teoría" implica la presencia de una hipótesis que explica de manera racional y
sistemática por qué ocurre lo que observamos.
Así que hoy en día hablamos de "teoría de la relatividad", "teoría cuántica", "teoría del
electromagnetismo", "teoría darwiniana de la evolución" y así sucesivamente, aunque
sabemos que todas ellas han alcanzado un mayor grado de credibilidad y aceptación
científica. Sus explicaciones de los diversos fenómenos son válidas y se consideran
"verdades objetivas" en sus respectivos ámbitos de aplicación. También hay teorías
propuestas pero no verificadas, como la de las cuerdas, que parecen excelentes intentos,
pero que podrían ser aceptadas como rechazadas. Y hay teorías que se abandonan
definitivamente, como la del flogisto (un misterioso fluido responsable de la
combustión) y la calórica (un fluido igualmente misterioso responsable de la
transmisión del calor). Sin embargo, hoy en día, la teoría cuántica es la mejor verificada
de todas las teorías científicas jamás propuestas. Aceptémoslo como un hecho: es un
hecho.
A medida que nos acercamos a los nuevos territorios atómicos, todo lo que la intuición
sugiere se vuelve sospechoso y la información acumulada hasta ahora puede ya no
sernos útil. La vida cotidiana tiene lugar dentro de una gama muy limitada de
experiencias. No sabemos, por ejemplo, lo que se siente al viajar un millón de veces más
rápido que una bala, o al soportar temperaturas de miles de millones de grados;
tampoco hemos bailado nunca en la luna llena con un átomo o un núcleo. La ciencia, sin
embargo, ha compensado nuestra limitada experiencia directa con la naturaleza y nos
ha hecho conscientes de lo grande y lleno de cosas diferentes que es el mundo ahí fuera.
Para usar la metáfora querida por un colega nuestro, somos como embriones de gallina
que se alimentan de lo que encuentran en el huevo hasta que se acaba la comida, y
parece que nuestro mundo también debe acabar; pero entonces intentamos darle un
pico a la cáscara, salir y descubrir un universo inmensamente más grande e interesante.
Entre las diversas intuiciones típicas de un ser humano adulto está la de que los objetos
que nos rodean, ya sean sillas, lámparas o gatos, existen independientemente de
nosotros y tienen ciertas propiedades objetivas. También creemos, basándonos en lo
que estudiamos en la escuela, que si repetimos un experimento en varias ocasiones (por
ejemplo, si dejamos que dos coches diferentes circulen por una rampa) deberíamos
obtener siempre los mismos resultados. También es obvio, intuitivo, que una pelota de
tenis que pasa de una mitad de la cancha a otra tiene una posición y velocidad definidas
en todo momento. Basta con filmar el evento, es decir, obtener una colección de
instantáneas, conocer la situación en varios momentos y reconstruir la trayectoria
general del balón.
Tal vez sean los conceptos de probabilidad e indeterminación los que desafían nuestras
habilidades lingüísticas. Este no es un pequeño problema que permanece en nuestros
días y frustra incluso a las grandes mentes. Se dice que el famoso físico teórico Richard
Feynman se negó a responder a un periodista que, durante una entrevista, le pidió que
explicara al público qué fuerza actuaba entre dos imanes, alegando que era una tarea
imposible. Más tarde, cuando se le pidió una aclaración, dijo que era debido a
preconceptos intuitivos. El periodista y una gran parte de la audiencia entienden la
"fuerza" como lo que sentimos si recompensamos la palma de tu mano contra la mesa.
Este es su mundo, y su lenguaje. Pero en realidad el acto de poner la mano contra la
mesa implica fuerzas electromagnéticas, la cohesión de la materia, la mecánica cuántica,
es muy complicado. No fue posible explicar la fuerza magnética pura en términos
familiares a los habitantes del "viejo mundo".
Como veremos, para entender la teoría cuántica debemos entrar en un nuevo mundo.
Es ciertamente el fruto más importante de las exploraciones científicas del siglo XX, y
será esencial a lo largo del nuevo siglo. No está bien dejar que sólo los profesionales lo
disfruten.
Incluso hoy, a principios de la segunda década del siglo XXI, algunos científicos ilustres
siguen buscando con gran esfuerzo una versión más "amistosa" de la mecánica cuántica
que perturbe menos nuestro sentido común. Pero estos esfuerzos hasta ahora parecen
no llevar a ninguna parte. Otros científicos simplemente aprenden las reglas del mundo
cuántico y hacen progresos, incluso importantes, por ejemplo adaptándolas a nuevos
principios de simetría, utilizándolas para formular hipótesis sobre un mundo en el que
las cuerdas y las membranas sustituyen a las partículas elementales, o imaginando lo
que ocurre a escalas miles de millones de veces más pequeñas que las que hemos
alcanzado hasta ahora con nuestros instrumentos. Esta última línea de investigación
parece la más prometedora y podría darnos una idea de lo que podría unificar las
diversas fuerzas y la propia estructura del espacio y el tiempo.
Para tener un ejemplo de una idea contraria a la intuición, tomemos nuestra Tierra, que
desde nuestro típico punto de vista parece sólida, inmutable, eterna. Somos capaces de
equilibrar una bandeja llena de tazas de café sin derramar una sola gota, y sin embargo
nuestro planeta gira rápido sobre sí mismo. Todos los objetos de su superficie, lejos de
estar en reposo, giran con él como los pasajeros de un colosal carrusel. En el Ecuador, la
Tierra se mueve más rápido que un jet, a más de 1600 kilómetros por hora; además,
corre desenfrenadamente alrededor del Sol a una increíble velocidad media de 108.000
kilómetros por hora. Y para colmo, todo el sistema solar, incluyendo la Tierra, viaja
alrededor de la galaxia a velocidades aún mayores. Sin embargo, no lo notamos, no
sentimos que estamos corriendo. Vemos el Sol saliendo por el este y poniéndose por el
oeste, y nada más. ¿Cómo es posible? Escribir una carta mientras se monta a caballo o se
conduce un coche a cien millas por hora en la autopista es una tarea muy difícil, pero
todos hemos visto imágenes de astronautas haciendo trabajos de precisión dentro de
una estación orbital, lanzada alrededor de nuestro planeta a casi 30.000 millas por hora.
Si no fuera por el globo azul que cambia de forma en el fondo, esos hombres que flotan
en el espacio parecen estar quietos.
El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos de diferente peso
caen a la misma velocidad y llegan al suelo al mismo tiempo. Para casi todos sus
contemporáneos, sin embargo, estaba lejos de ser obvio, porque la experiencia diaria
parecía decir lo contrario. Pero el científico hizo los experimentos correctos para probar
su tesis, y también encontró una justificación racional: era la resistencia del aire que
barajaba las cartas. Para Galileo esto era sólo un factor de complicación, que ocultaba la
profunda simplicidad de las leyes naturales. Sin aire entre los pies, todos los cuerpos
caen con la misma velocidad, desde la pluma hasta la roca colosal.
El peso, por otro lado, es la fuerza ejercida por la gravedad sobre los cuerpos dotados
de masa (recordarán que el profesor de física en el instituto repetía: "Si transportas un
objeto a la Luna, su masa permanece igual, mientras que el peso se reduce". Hoy en día
todo esto está claro para nosotros gracias al trabajo de hombres como Galileo). La fuerza
de gravedad es directamente proporcional a la masa: dobla la masa y también dobla la
fuerza. Al mismo tiempo, sin embargo, a medida que la masa crece, también lo hace la
resistencia a cambiar el estado de movimiento. Estos dos efectos iguales y opuestos se
anulan mutuamente y así sucede que todos los cuerpos caen al suelo a la misma
velocidad - como de costumbre descuidando ese factor de fricción que se complica.
Para los filósofos de la antigua Grecia el estado de descanso parecía obviamente el más
natural para los cuerpos, a los que todos tienden. Si pateamos una pelota, tarde o
temprano se detiene; si nos quedamos sin combustible en un auto, también se detiene;
lo mismo sucede con un disco que se desliza sobre una mesa. Todo esto es
perfectamente sensato y también perfectamente aristotélico (esto del aristotelismo debe
ser nuestro instinto innato).
Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho, de que si se abisagraba
la superficie de la mesa y se alisaba el disco, continuaría funcionando durante mucho
más tiempo; podemos verificarlo, por ejemplo, deslizando un disco de hockey sobre un
lago helado. Eliminemos toda la fricción y otros factores complicados, y veamos que el
disco sigue deslizándose interminablemente a lo largo de una trayectoria recta a una
velocidad uniforme. Esto es lo que causa el final del movimiento, dijo Galileo: la fricción
entre el disco y la mesa (o entre el coche y la carretera), es un factor que complica.
Normalmente en los laboratorios de física hay una larga pista metálica con numerosos
pequeños agujeros por los que pasa el aire. De esta manera, un carro colocado en el riel,
el equivalente a nuestro disco, puede moverse flotando en un cojinete de aire. En los
extremos de la barandilla hay parachoques de goma. Todo lo que se necesita es un
pequeño empujón inicial y el carro comienza a rebotar sin parar entre los dos extremos,
de ida y vuelta, a veces durante toda la hora. Parece animado con su propia vida, ¿cómo
es posible? El espectáculo es divertido porque va en contra del sentido común, pero en
realidad es una manifestación de un principio profundo de la física, que se manifiesta
cuando eliminamos la complicación de la fricción. Gracias a experimentos menos
tecnológicos pero igualmente esclarecedores, Galileo descubrió una nueva ley de la
naturaleza, que dice: "Un cuerpo aislado en movimiento mantiene su estado de
movimiento para siempre. Por "aislado" nos referimos a que la fricción, las diversas
fuerzas, o lo que sea, no actúan sobre él. Sólo la aplicación de una fuerza puede cambiar
un estado de movimiento.
El método científico implica una cuidadosa observación del mundo. Una de las piedras
angulares de su éxito en los últimos cuatro siglos es su capacidad para crear modelos
abstractos, para referirse a un universo ideal en nuestras mentes, desprovisto de las
complicaciones del real, donde podemos buscar las leyes de la naturaleza. Después de
haber logrado un resultado en este mundo, podemos ir al ataque del otro, el más
complicado, después de haber cuantificado los factores de complicación como la
fricción.
Pasemos a otro ejemplo importante. El sistema solar es realmente intrincado. Hay una
gran estrella en el centro, el Sol, y hay nueve (o más bien ocho, después de la
degradación de Plutón) cuerpos más pequeños de varias masas que giran a su
alrededor; los planetas a su vez pueden tener satélites. Todos estos cuerpos se atraen
entre sí y se mueven según una compleja coreografía. Para simplificar la situación,
Newton redujo todo a un modelo ideal: una estrella y un solo planeta. ¿Cómo se
comportarían estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un sistema complejo
(ocho planetas y el Sol) y consideremos un subconjunto más manejable del mismo (un
planeta y el Sol). Ahora quizás el problema pueda ser abordado (en este caso sí).
Resuélvelo y trata de entender qué características de la solución se conservan en el
retorno al sistema complejo de partida (en este caso vemos que cada planeta se
comporta prácticamente como si estuviera solo, con mínimas correcciones debido a la
atracción entre los propios planetas).
Los cuerpos salieron en caída libre, con una velocidad que aumenta a medida que pasa
el tiempo según un valor fijo (la tasa de variación de la velocidad se llama aceleración).
Una bala, una pelota de tenis, una bala de cañón, todas describen en su movimiento un
arco de suprema elegancia matemática, trazando una curva llamada parábola. Un
péndulo, es decir, un cuerpo atado a un cable colgante (como un columpio hecho por un
neumático atado a una rama, o un viejo reloj), oscila con una regularidad notable, de
modo que (precisamente) se puede ajustar el reloj. El Sol y la Luna atraen las aguas de
los mares terrestres y crean mareas. Estos y otros fenómenos pueden ser explicados
racionalmente por las leyes de movimiento de Newton.
Su explosión creativa, que tiene pocos iguales en la historia del pensamiento humano, lo
llevó en poco tiempo a dos grandes descubrimientos. Para describirlos con precisión y
comparar sus predicciones con los datos, utilizó un lenguaje matemático particular
llamado cálculo infinitesimal, que tuvo que inventar en su mayor parte desde cero. El
primer descubrimiento, normalmente denominado "las tres leyes del movimiento", se
utiliza para calcular los movimientos de los cuerpos una vez conocidas las fuerzas que
actúan sobre ellos (Newton podría haber presumido así: "Dame las fuerzas y un
ordenador lo suficientemente potente y te diré lo que ocurrirá en el futuro". Pero parece
que nunca lo dijo).
Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil maneras: a través de
cuerdas, palos, músculos humanos, viento, presión del agua, imanes y así
sucesivamente. Una fuerza natural particular, la gravedad, fue el centro del segundo
gran descubrimiento de Newton. Describiendo el fenómeno con una ecuación de
asombrosa sencillez, estableció que todos los objetos dotados de masa se atraen entre sí
y que el valor de la fuerza de atracción disminuye a medida que aumenta la distancia
entre los objetos, de esta manera: si la distancia se duplica, la fuerza se reduce en una
cuarta parte; si se triplica, en una novena parte; y así sucesivamente. Es la famosa "ley
de la inversa del cuadrado", gracias a la cual sabemos que podemos hacer que el valor
de la fuerza de gravedad sea pequeño a voluntad, simplemente alejándonos lo
suficiente. Por ejemplo, la atracción ejercida sobre un ser humano por Alfa Centauri,
una de las estrellas más cercanas (a sólo cuatro años luz), es igual a una diez milésima
de una milmillonésima, o 10-13, de la ejercida por la Tierra. Por el contrario, si nos
acercáramos a un objeto de gran masa, como una estrella de neutrones, la fuerza de
gravedad resultante nos aplastaría hasta el tamaño de un núcleo atómico. Las leyes de
Newton describen la acción de la gravedad sobre todo: manzanas que caen de los
árboles, balas, péndulos y otros objetos situados en la superficie de la Tierra, donde casi
todos pasamos nuestra existencia. Pero también se aplican a la inmensidad del espacio,
por ejemplo entre la Tierra y el Sol, que están en promedio a 150 millones de kilómetros
de distancia.
¿Estamos seguros, sin embargo, de que estas leyes todavía se aplican fuera de nuestro
planeta? Una teoría es válida si proporciona valores de acuerdo con los datos
experimentales (teniendo en cuenta los inevitables errores de medición). Piensa: la
evidencia muestra que las leyes de Newton funcionan bien en el sistema solar. Con muy
buena aproximación, los planetas individuales pueden ser estudiados gracias a la
simplificación vista anteriormente, es decir, descuidando los efectos de los demás y sólo
teniendo en cuenta el Sol. La teoría newtoniana predice que los planetas giran alrededor
de nuestra estrella siguiendo órbitas perfectamente elípticas. Pero si examinamos bien
los datos, nos damos cuenta de que hay pequeñas discrepancias en el caso de Marte,
cuya órbita no es exactamente la predicha por la aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente pequeños) efectos
en el planeta rojo de cuerpos como la Tierra, Venus, Júpiter y así sucesivamente. Este
último, en particular, es muy grande y le da a Marte un buen golpe cada vez que se
acerca a sus órbitas. A largo plazo, estos efectos se suman. No es imposible que dentro
de unos pocos miles de millones de años Marte sea expulsado del sistema solar como
un concursante de un reality show. Así que vemos que el problema de los movimientos
planetarios se vuelve más complejo si consideramos los largos intervalos de tiempo.
Pero gracias a los ordenadores modernos podemos hacer frente a estas pequeñas (y no
tan pequeñas) perturbaciones - incluyendo las debidas a la teoría de la relatividad
general de Einstein, que es la versión moderna de la gravitación newtoniana. Con las
correcciones correctas, vemos que la teoría siempre está en perfecto acuerdo con los
datos experimentales. Sin embargo, ¿qué podemos decir cuando entran en juego
distancias aún mayores, como las que hay entre las estrellas? Las mediciones
astronómicas más modernas nos dicen que la fuerza de gravedad está presente en todo
el cosmos y, por lo que sabemos, se aplica en todas partes.
Tomemos un momento para contemplar una lista de fenómenos que tienen lugar según
la ley de Newton. Las manzanas caen de los árboles, en realidad se dirigen hacia el
centro de la Tierra. Las balas de artillería siembran la destrucción después de los arcos
de parábola. La Luna se asoma a sólo 384.000 kilómetros de nosotros y causa mareas y
languidez romántica. Los planetas giran alrededor del Sol en órbitas ligeramente
elípticas, casi circulares. Los cometas, por otro lado, siguen trayectorias muy elípticas y
tardan cientos o miles de años en dar un giro y volver a mostrarse. Desde el más
pequeño al más grande, los ingredientes del universo se comportan de manera
perfectamente predecible, siguiendo las leyes descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz
La mayoría de los cuerpos que nos rodean, sin embargo, son visibles no porque emitan
luz, sino porque la reflejan. Excluyendo el caso de los espejos, la reflexión es siempre
imperfecta, no total: un objeto rojo se nos aparece como tal porque refleja sólo este
componente de la luz y absorbe naranja, verde, violeta y así sucesivamente. Los
pigmentos de pintura son sustancias químicas que tienen la propiedad de reflejar con
precisión ciertos colores, con un mecanismo selectivo. Los objetos blancos, en cambio,
reflejan todos los componentes de la luz, mientras que los negros los absorben todos:
por eso el asfalto oscuro de un aparcamiento se calienta en los días de verano, y por eso
en los trópicos es mejor vestirse con ropas de colores claros. Estos fenómenos de
absorción, reflexión y calentamiento, en relación con los diversos colores, tienen
propiedades que pueden ser medidas y cuantificadas por diversos instrumentos
científicos.
La luz está llena de rarezas. Aquí estás, te vemos porque los rayos de luz reflejados por
tu cuerpo llegan a nuestros ojos. ¡Qué interesante! Nuestro amigo mutuo Edward está
observando el piano en su lugar: los rayos de la interacción entre tú y nosotros
(normalmente invisibles, excepto cuando estamos en una habitación polvorienta o llena
de humo) se cruzan con los de la interacción entre Edwar y el piano sin ninguna
interferencia aparente. Pero si concentramos en un objeto los rayos producidos por dos
linternas, nos damos cuenta de que la intensidad de la iluminación se duplica, por lo
que hay una interacción entre los rayos de luz.
El hecho de que la luz sea una entidad que "viaja" por el espacio, por ejemplo de una
bombilla a nuestra retina, no es del todo intuitivo. En los ojos de un niño, la luz es algo
que brilla, no que se mueve. Pero eso es exactamente lo que es. Galileo fue uno de los
primeros en tratar de medir su velocidad, con la ayuda de dos asistentes colocados en la
cima de dos colinas cercanas que pasaron la noche cubriendo y descubriendo dos
linternas a horas predeterminadas. Cuando veían la otra luz, tenían que comunicarla en
voz alta a un observador externo (el propio Galileo), que tomaba sus medidas
moviéndose a varias distancias de las dos fuentes. Esta es una excelente manera de
medir la velocidad del sonido, de acuerdo con el mismo principio de que hay una cierta
cantidad de tiempo entre ver un rayo y escuchar un trueno. El sonido no es muy rápido,
va a unos 1200 por hora (o 330 metros por segundo), por lo que el efecto es perceptible a
simple vista: por ejemplo, se tarda 3 segundos antes de que el rayo venga de un
relámpago que cae a un kilómetro de distancia. Pero el simple experimento de Galileo
no era adecuado para medir la velocidad de la luz, que es enormemente mayor.
En 1676 un astrónomo danés llamado Ole Römer, que en ese momento trabajaba en el
Observatorio de París, apuntó con su telescopio a los entonces conocidos satélites de
Júpiter (llamados "galileos" o "Médicis" porque habían sido descubiertos por el habitual
Galileo menos de un siglo antes y dedicados por él a Cosme de' Médicis). 2 Se concentró
en sus eclipses y notó un retraso con el que las lunas desaparecían y reaparecían detrás
del gran planeta; este pequeño intervalo de tiempo dependía misteriosamente de la
distancia entre la Tierra y Júpiter, que cambia durante el año (por ejemplo, Ganímedes
parecía estar a principios de diciembre y a finales de julio). Römer entendió que el
efecto se debía a la velocidad finita de la luz, según un principio similar al del retardo
entre el trueno y el relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia entre los dos
planetas, que combinados con las precisas observaciones de Römer permitieron calcular
la velocidad de la luz: dio como resultado un impresionante valor de 300.000 kilómetros
por segundo, inmensamente superior al del sonido. En 1850 Armand Fizeau y Jean
Foucault, dos hábiles experimentadores franceses en feroz competencia entre sí, fueron
los primeros en calcular esta velocidad usando métodos directos, en la Tierra, sin
recurrir a mediciones astronómicas. Fue el comienzo de una carrera de persecución
entre varios científicos en busca del valor más preciso posible, que continúa hasta hoy.
El valor más acreditado hoy en día, que en la física se indica con la letra c, es de
299792,45 kilómetros por segundo. Observamos incidentalmente que esta c es la misma
que aparece en la famosa fórmula E=mc2. Lo encontraremos varias veces, porque es una
de las piezas principales de ese gran rompecabezas llamado universo.
cambiado.
Thomas Young En ese año un médico inglés con muchos intereses, incluyendo la física,
realizó un experimento que pasaría a la historia. Thomas Young (1773-129) fue un niño
prodigio: aprendió a leer a los dos años, y a los seis ya había leído la Biblia entera dos
veces y había empezado a estudiar latín3 . Pronto se enfrentó a la filosofía, la historia
natural y el análisis matemático inventado por Newton; también aprendió a construir
microscopios y telescopios. Antes de los veinte años aprendió hebreo, caldeo, arameo, la
variante samaritana del hebreo bíblico, turco, parsis y amárico. De 1792 a 1799 estudió
medicina en Londres, Edimburgo y Göttingen, donde, olvidando su educación
cuáquera, también se interesó por la música, la danza y el teatro. Se jactaba de que
nunca había estado ocioso un día. Obsesionado con el antiguo Egipto, este
extraordinario caballero, aficionado y autodidacta, fue uno de los primeros en traducir
jeroglíficos. La compilación del diccionario de las antiguas lenguas egipcias fue una
hazaña que lo mantuvo literalmente ocupado hasta el día de su muerte.
Su carrera como médico fue mucho menos afortunada, quizás porque no infundía
confianza a los enfermos o porque carecía del je ne sais quoi que necesitaba en sus
relaciones con los pacientes. La falta de asistencia a su clínica de Londres, sin embargo,
le permitió tomar tiempo para asistir a las reuniones de la Royal Society y discutir con
las principales figuras científicas de la época. Por lo que nos interesa aquí, sus mayores
descubrimientos fueron en el campo de la óptica. Empezó a investigar el tema en 1800 y
en siete años estableció una extraordinaria serie de experimentos que parecían
confirmar la teoría ondulatoria de la luz con creciente confianza. Pero antes de llegar a
la más famosa, tenemos que echar un vistazo a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los poetas románticos.
Veámoslos en la costa, libres para viajar. La distancia entre dos crestas consecutivas (o
entre dos vientres) se denomina longitud de onda, mientras que la altura de la cresta en
relación con la superficie del mar en calma se denomina amplitud. Las ondas se mueven
a una cierta velocidad, que en el caso de la luz, como ya hemos visto, se indica con c.
Fijémoslo en un punto: el período entre el paso de una cresta y la siguiente es un ciclo.
La frecuencia es la velocidad a la que se repiten los ciclos; si, por ejemplo, vemos pasar
tres crestas en un minuto, digamos que la frecuencia de esa onda es de 3 ciclos/minuto.
Tenemos que la longitud de onda multiplicada por la frecuencia es igual a la velocidad
de la onda misma; por ejemplo, si la onda de 3 ciclos/minuto tiene una longitud de onda
de 30 metros, esto significa que se está moviendo a 90 metros por minuto, lo que
equivale a 5,4 kilómetros por hora.
Ahora vemos un tipo de ondas muy familiares, esas ondas de sonido. Vienen en varias
frecuencias. Los audibles para el oído humano van desde 30 ciclos/segundo de los
sonidos más bajos hasta 17000 ciclos/segundo de los de arriba. La nota "la centrale", o
la3, está fijada en 440 ciclos/segundo. La velocidad del sonido en el aire, como ya hemos
visto, es de unos 1200 km/h. Gracias a simples cálculos y recordando que la longitud de
onda es igual a la velocidad dividida por la frecuencia, deducimos que la longitud de
onda de la3 es (330 metros/segundo): (440 ciclos/segundo) = 0,75 metros. Las longitudes
de onda audibles por los humanos varían de (330 metros/segundo) : (440
ciclos/segundo) = 0,75 metros: (17 000 ciclos/segundo) = 2 centímetros a (330
metros/segundo) : (30 ciclos/segundo) = 11 metros. Es este parámetro, junto con la
velocidad del sonido, el que determina lo que ocurre con las ondas sonoras cuando
resuenan en un desfiladero, o se propagan en un gran espacio abierto como un estadio,
o llegan al público en un teatro.
En la naturaleza hay muchos tipos de ondas: además de las ondas marinas y sonoras,
recordamos, por ejemplo, las vibraciones de las cuerdas y las ondas sísmicas que
sacuden la tierra bajo nuestros pies. Todos ellos pueden describirse bien con la física
clásica (no cuántica). Las amplitudes se refieren de vez en cuando a diferentes
cantidades mensurables: la altura de la ola sobre el nivel del mar, la intensidad de las
ondas sonoras, el desplazamiento de la cuerda desde el estado de reposo o la
compresión de un resorte. En cualquier caso, siempre estamos en presencia de una
perturbación, una desviación de la norma dentro de un medio de transmisión que antes
era tranquilo. La perturbación, que podemos visualizar como el pellizco dado a una
cuerda, se propaga en forma de onda. En el reino de la física clásica, la energía
transportada por este proceso está determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su línea. En la
superficie se puede ver un flotador, que sirve tanto para evitar que el anzuelo llegue al
fondo como para señalar que algo ha picado el cebo. El agua se ondula, y el flotador
sube y baja siguiendo las olas. Su posición cambia regularmente: del nivel cero a una
cresta, luego de vuelta al nivel cero, luego de vuelta a un vientre, luego de vuelta al
nivel cero y así sucesivamente. Este movimiento cíclico está dado por una onda llamada
armónica o sinusoidal. Aquí lo llamaremos simplemente una ola.
Entonces todavía hay un misterio sobre nuestra estrella. Este colosal generador de luz
produce tanto luz visible como invisible, entendiéndose por "luz invisible" la luz con
una longitud de onda demasiado larga (desde el infrarrojo) o demasiado corta (desde el
ultravioleta hacia abajo) para ser observada. La atmósfera de la Tierra, principalmente
la capa de ozono de la estratosfera superior, bloquea gran parte de los rayos
ultravioletas y ondas aún más cortas, como los rayos X. Ahora imaginemos que hemos
inventado un dispositivo que nos permite sin demasiadas complicaciones absorber la
luz selectivamente, sólo en ciertas frecuencias, y medir su energía.
Este dispositivo existe (incluso está presente en los laboratorios mejor equipados de las
escuelas secundarias) y se llama espectrómetro. Es la evolución del prisma newtoniano,
capaz de descomponer la luz en varios colores desviando selectivamente sus
componentes según varios ángulos. Si insertamos un mecanismo que permita una
medición cuantitativa de estos ángulos, también podemos determinar las respectivas
longitudes de onda (que dependen directamente de los propios ángulos).
Hasta ahora todo bien, sólo estamos aclarando los resultados obtenidos por Newton
sobre la descomposición de la luz. En 1802, sin embargo, el químico inglés William
Wollaston apuntó un espectrómetro en la dirección de la luz solar y descubrió que
además del espectro de colores ordenados de rojo a violeta había muchas líneas oscuras
y delgadas. ¿Qué era esto?
En este punto entra en escena Joseph Fraunhofer (1787-1826), un bávaro con gran
talento y poca educación formal, hábil fabricante de lentes y experto en óptica10 .
Después de la muerte de su padre, el enfermizo encontró un empleo no cualificado
como aprendiz en una fábrica de vidrio y espejos en Munich. En 1806 logró unirse a una
compañía de instrumentos ópticos en la misma ciudad, donde con la ayuda de un
astrónomo y un hábil artesano aprendió los secretos de la óptica a la perfección y
desarrolló una cultura matemática. Frustrado por la mala calidad del vidrio que tenía a
su disposición, el perfeccionista Fraunhofer rompió un contrato que le permitía espiar
los secretos industriales celosamente guardados de una famosa cristalería suiza, que
recientemente había trasladado sus actividades a Munich. Esta colaboración dio como
resultado lentes técnicamente avanzadas y sobre todo, por lo que nos interesa aquí, un
descubrimiento fundamental que aseguraría a Fraunhofer un lugar en la historia de la
ciencia.
Las huellas de los átomos Como hemos visto arriba, un diapasón ajustado para "dar la
señal" vibra a una frecuencia de 440 ciclos por segundo. En el ámbito microscópico de
los átomos las frecuencias son inmensamente más altas, pero ya en la época de
Fraunhofer era posible imaginar un mecanismo por el cual las misteriosas partículas
estaban equipadas con muchos equivalentes de diapasón muy pequeños, cada uno con
su propia frecuencia característica y capaces de vibrar y emitir luz con una longitud de
onda correspondiente a la propia frecuencia.
¿Y por qué entonces aparecen las líneas negras? Si los átomos de sodio excitados por el
calor de la llama vibran con frecuencias que emiten luz entre 5911 y 5962 Å (valores que
corresponden a tonos de amarillo), es probable que, a la inversa, prefieran absorber la
luz con las mismas longitudes de onda. La superficie al rojo vivo del Sol emite luz de
todo tipo, pero luego pasa a través de la "corona", es decir, los gases menos calientes de
la atmósfera solar. Aquí es donde se produce la absorción selectiva por parte de los
átomos, cada uno de los cuales retiene la luz de la longitud de onda que le conviene;
este mecanismo es responsable de las extrañas líneas negras observadas por Fraunhofer.
Una pieza a la vez, las investigaciones posteriores han revelado que cada elemento,
cuando es excitado por el calor, emite una serie característica de líneas espectrales,
algunas agudas y nítidas (como las líneas de neón de color rojo brillante), otras débiles
(como el azul de las lámparas de vapor de mercurio). Estas líneas son las huellas
dactilares de los elementos, y su descubrimiento fue una primera indicación de la
existencia de mecanismos similares a los "diapasones" que se ven arriba (o alguna otra
diablura) dentro de los átomos.
Las líneas espectrales están muy bien definidas, por lo que es posible calibrar el
espectrómetro para obtener resultados muy precisos, distinguiendo por ejemplo una luz
con una longitud de onda de 6503,2 Å (rojo oscuro) de otra de 6122,7 Å (rojo claro). A
finales del siglo XIX, se publicaron gruesos tomos que enumeraban los espectros de
todos los elementos entonces conocidos, gracias a los cuales los más expertos en
espectroscopia pudieron determinar la composición química de compuestos
desconocidos y reconocer hasta la más mínima contaminación. Sin embargo, nadie tenía
idea de cuál era el mecanismo responsable de producir mensajes tan claros. Cómo
funcionaba el átomo seguía siendo un misterio.
Otro éxito de la espectroscopia fue de una naturaleza más profunda. En la huella del
Sol, increíblemente, se podían leer muchos elementos en la Tierra: hidrógeno, helio,
litio, etc. Cuando la luz de estrellas y galaxias distantes comenzó a ser analizada, el
resultado fue similar. El universo está compuesto de los mismos elementos en todas
partes, siguiendo las mismas leyes de la naturaleza, lo que sugiere que todo tuvo un
origen único gracias a un misterioso proceso físico de creación.
Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba resolver otro
problema: ¿cómo transmiten las fuerzas, y en particular la gravedad, su acción a
grandes distancias? Si unimos un carruaje a un caballo, vemos que la fuerza utilizada
por el animal para tirar del vehículo se transmite directamente, a través de los arneses y
las barras. ¿Pero cómo "siente" la Tierra al Sol, que está a 150 millones de kilómetros de
distancia? ¿Cómo atrae un imán a un clavo a cierta distancia? En estos casos no hay
conexiones visibles, por lo que se debe asumir una misteriosa "acción a distancia".
Según la formulación de Newton, la gravedad actúa a distancia, pero no se sabe cuál es
la "varilla" que conecta dos cuerpos como la Tierra y el Sol. Después de haber luchado
en vano con este problema, incluso el gran físico inglés tuvo que rendirse y dejar que la
posteridad se ocupara de la materia.
Todos los cuerpos emiten energía y la absorben de sus alrededores. Aquí por "cuerpo"
nos referimos a un objeto grande, o macroscópico, compuesto de muchos miles de
millones de átomos. Cuanto más alta es su temperatura, más energía emite.
Los cuerpos calientes, en todas sus partes (que podemos considerar a su vez como
cuerpos), tienden a alcanzar un equilibrio entre el valor de la energía dada al ambiente
externo y la absorbida. Si, por ejemplo, tomas un huevo de la nevera y lo sumerges en
una olla llena de agua hirviendo, el huevo se calienta y la temperatura del agua
disminuye. Por el contrario, si se tira un huevo caliente en agua fría, la transferencia de
calor se produce en la dirección opuesta. Si no se proporciona más energía, después de
un tiempo el huevo y el agua estarán a la misma temperatura. Este es un experimento
casero fácil de hacer, que ilustra claramente el comportamiento de los cuerpos con
respecto al calor. El estado final en el que las temperaturas del huevo y del agua son
iguales se llama equilibrio térmico, y es un fenómeno universal: un objeto caliente
sumergido en un ambiente frío se enfría, y viceversa. En el equilibrio térmico, todas las
partes del cuerpo están a la misma temperatura, por lo que emiten y absorben energía
de la misma manera.
Cuando se está tumbado en una playa en un día hermoso, el cuerpo está emitiendo y
absorbiendo radiación electromagnética: por un lado se absorbe la energía producida
por el radiador primitivo, el Sol, y por otro lado se emite una cierta cantidad de calor
porque el cuerpo tiene mecanismos de regulación que le permiten mantener la
temperatura interna correcta1 . Las diversas partes del cuerpo, desde el hígado hasta el
cerebro, desde el corazón hasta las puntas de los dedos, se mantienen en equilibrio
térmico, de modo que los procesos bioquímicos se desarrollan sin problemas. Si el
ambiente es muy frío, el organismo debe producir más energía, o al menos no
dispersarla, si quiere mantener la temperatura ideal. El flujo sanguíneo, que es
responsable de la transferencia de calor a la superficie del cuerpo, se reduce por lo tanto
para que los órganos internos no pierdan calor, por lo que sentimos frío en los dedos y
la nariz. Por el contrario, cuando el ambiente es muy caliente, el cuerpo tiene que
aumentar la energía dispersa, lo que sucede gracias al sudor: la evaporación de este
líquido caliente sobre la piel implica el uso de una cantidad adicional de energía del
cuerpo (una especie de efecto de acondicionamiento del aire), que luego se dispersa
hacia el exterior. El hecho de que el cuerpo humano irradia calor es evidente en las
habitaciones cerradas y abarrotadas: treinta personas apiladas en una sala de reuniones
producen 3 kilovatios, que son capaces de calentar el ambiente rápidamente. Por el
contrario, en la Antártida esos mismos colegas aburridos podrían salvarle la vida si los
abraza con fuerza, como hacen los pingüinos emperadores para proteger sus frágiles
huevos de los rigores del largo invierno.
Los humanos, los pingüinos e incluso las tostadoras son sistemas complejos que
producen energía desde el interior. En nuestro caso, el combustible es dado por la
comida o la grasa almacenada en el cuerpo; una tostadora en cambio tiene como fuente
de energía las colisiones de los electrones de la corriente eléctrica con los átomos de
metales pesados de los cuales se hace la resistencia. La radiación electromagnética
emitida, en ambos casos, se dispersa en el ambiente externo a través de la superficie en
contacto con el aire, en nuestro caso la piel. Esta radiación suele tener un color que es la
huella de determinadas "transiciones atómicas", es decir, es hija de la química. Los
fuegos artificiales, por ejemplo, cuando explotan están ciertamente calientes y la luz que
emiten depende de la naturaleza de los compuestos que contienen (cloruro de estroncio,
cloruro de bario y otros),2 gracias a cuya oxidación brillan con colores brillantes y
espectaculares.
Un muy buen modelo lo da una caldera de carbón anticuada, como la que se encuentra
en los trenes de vapor, que, al aumentar la temperatura, produce en su interior una
radiación térmica prácticamente pura. De hecho, este fue el modelo utilizado por los
físicos a finales del siglo XIX para el estudio del cuerpo negro. Para tener una fuente de
radiación térmica pura, debe estar aislada de alguna manera de la fuente de calor, en
este caso el carbón en combustión. Para ello construimos un robusto contenedor de
paredes gruesas, digamos de hierro, en el que hacemos un agujero para observar lo que
ocurre en su interior y tomar medidas. Pongámoslo en la caldera, dejémoslo calentar y
asomarse por el agujero. Detectamos radiación de calor puro, que llena toda la nave.
Esto se emite desde las paredes calientes y rebota de un extremo al otro; una pequeña
parte sale del agujero de observación.
L
a teoría clásica de la luz y los cálculos de Planck llevaron no sólo a la conclusión de
que la distribución de las longitudes de onda se concentraba en las partes azul-violeta,
sino incluso (debido a la desesperación de los físicos teóricos, que estaban cada vez más
perplejos) que la intensidad se hizo infinita en las regiones más remotas del ultravioleta.
Hubo alguien, tal vez un periodista, que llamó a la situación una "catástrofe
ultravioleta". De hecho fue un desastre, porque la predicción teórica no coincidía en
absoluto con los datos experimentales. Escuchando los cálculos, las brasas no emitirían
luz roja, como la humanidad ha conocido por lo menos durante cien mil años, sino luz
azul.
Fue una de las primeras grietas en la construcción de la física clásica, que hasta entonces
parecía inexpugnable. (Gibbs había encontrado otro, probablemente el primero de
todos, unos veinticinco años antes; en ese momento su importancia no había sido
comprendida, excepto quizás por Maxwell). Todos ellos, sin embargo, caen
rápidamente a cero en el área de ondas muy cortas. ¿Qué sucede cuando una teoría
elegante y bien probada, concebida por las más grandes mentes de la época y certificada
por todas las academias europeas, choca con los brutales y crudos datos
experimentales? Si para las religiones los dogmas son intocables, para la ciencia las
teorías defectuosas están destinadas a ser barridas tarde o temprano.
La física clásica predice que la tostadora brillará azul cuando todos sepan que es roja.
Recuerda esto: cada vez que haces una tostada, estás observando un fenómeno que
viola descaradamente las leyes clásicas. Y aunque no lo sepas (por ahora), tienes la
confirmación experimental de que la luz está hecha de partículas discretas, está
cuantificada. ¡Es mecánica cuántica en vivo! Pero, ¿podría objetar, no vimos en el
capítulo anterior que gracias al genio del Sr. Young se ha demostrado que la luz es una
onda? Sí, y es verdad. Preparémonos, porque las cosas están a punto de ponerse muy
extrañas. Seguimos siendo viajeros que exploran extraños nuevos mundos lejanos - y
sin embargo también llegamos allí desde una tostadora.
Max Planck Berlín, el epicentro de la catástrofe del ultravioleta, fue el reino de Max
Planck, un físico teórico de unos cuarenta años, gran experto en termodinámica7 . En
1900, a partir de los datos experimentales recogidos por sus colegas y utilizando un
truco matemático, logró transformar la fórmula derivada de la teoría clásica en otra que
encajaba muy bien con las mediciones. La manipulación de Planck permitió que las
ondas largas se mostraran tranquilamente a todas las temperaturas, más o menos como
se esperaba en la física clásica, pero cortó las ondas cortas imponiendo una especie de
"peaje" a su emisión. Este obstáculo limitó la presencia de la luz azul, que de hecho
irradiaba menos abundantemente.
El truco parecía funcionar. El "peaje" significaba que las frecuencias más altas (recuerde:
ondas cortas = frecuencias altas) eran más "caras", es decir, requerían mucha más
energía que las más bajas. Así que, según el razonamiento correcto de Planck, a bajas
temperaturas la energía no era suficiente para "pagar el peaje" y no se emitían ondas
cortas. Para volver a nuestra metáfora teatral, había encontrado una forma de liberar las
primeras filas y empujar a los espectadores hacia las filas del medio y los túneles. Una
intuición repentina (que no era típica de su forma de trabajar) permitió a Planck
conectar la longitud de onda (o la frecuencia equivalente) con la energía: cuanto más
larga sea la longitud, menos energía.
Parece una idea elemental, y de hecho lo es, porque así es como funciona la naturaleza.
Pero la física clásica no lo contempló en absoluto. La energía de una onda
electromagnética, según la teoría de Maxwell, dependía sólo de su intensidad, no del
color o la frecuencia. ¿Cómo encajó Planck esto en su tratamiento del cuerpo negro?
¿Cómo transmitió la idea de que la energía no sólo depende de la intensidad sino
también de la frecuencia? Todavía falta una pieza del rompecabezas, porque hay que
especificar qué tiene más energía a medida que las frecuencias aumentan.
Para resolver el problema, Planck encontró una manera eficiente de dividir la luz
emitida, cualquiera que sea su longitud de onda, en paquetes llamados paquetes
cuánticos, cada uno con una cantidad de energía relacionada con su frecuencia. La
fórmula iluminadora de Planck es realmente tan simple como es posible: E=hf
Aquí tenemos que decir unas palabras sobre Einstein. No era un niño prodigio y no le
gustaba especialmente la escuela. De niño, nadie le hubiera predicho un futuro exitoso.
Pero la ciencia siempre le había fascinado, desde que su padre le enseñó una brújula
cuando tenía cuatro años. Estaba hechizado por ello: fuerzas invisibles siempre
forzaban a la aguja a apuntar al norte, en cualquier dirección en la que se girara. Como
escribió en su vejez: "Recuerdo bien, o mejor dicho creo que recuerdo bien, la profunda
y duradera impresión que me dejó esta experiencia. Aún siendo joven, Einstein también
fue cautivado por la magia del álgebra, que había aprendido de un tío, y fue hechizado
por un libro de geometría leído a la edad de doce años. A los dieciséis años escribió su
primer artículo científico, dedicado al éter en el campo magnético.
Imagínese el choque cultural que experimentaron los físicos en 1900, que se mostraron
tranquilos y serenos en sus estudios para consultar datos sobre los continuos espectros
de radiación emitidos por los objetos calientes, datos que se habían acumulado durante
casi medio siglo. Los experimentos que los produjeron fueron posibles gracias a la
teoría de Maxwell sobre el electromagnetismo, aceptada hace más de treinta años, que
predecía que la luz era una onda. El hecho de que un fenómeno tan típicamente
ondulante pudiera, en determinadas circunstancias, comportarse como si estuviera
compuesto por paquetes de energía discretos, en otras palabras, "partículas", sumió a la
comunidad científica en un terrible estado de confusión. Planck y sus colegas, sin
embargo, dieron por sentado que tarde o temprano llegarían a una explicación de alto
nivel, por así decirlo, neoclásica. Después de todo, la radiación de cuerpo negro era un
fenómeno muy complicado, como el clima atmosférico, en el que muchos eventos en sí
mismos simples de describir se juntan en un estado complejo aparentemente esquivo.
Pero quizás el aspecto más incomprensible de esto era la forma en que la naturaleza
parecía revelar por primera vez, a quienes tenían la paciencia de observarla, sus secretos
más íntimos.
Como en todas las colisiones elásticas de la física clásica, durante este proceso se
conservan la energía total y el momento del sistema electrón + fotón. Pero para
comprender plenamente lo que sucede, es necesario romper las vacilaciones y tratar al
fotón como una partícula a todos los efectos, un paso al que Compton llegó
gradualmente, después de haber notado el fracaso de todas sus hipótesis anteriores. En
1923 la naciente teoría cuántica (la "vieja teoría cuántica" de Niels Bohr) todavía no era
capaz de explicar el efecto Compton, que sólo se entendería gracias a los desarrollos
posteriores. Cuando el físico americano presentó sus resultados en una conferencia de
la Sociedad Americana de Física, tuvo que enfrentarse a la oposición abierta de muchos
colegas.
Vidrio y espejos El fotón, como partícula, simplemente "es". Dispara los detectores,
colisiona con otras partículas, explica el efecto fotoeléctrico y el efecto Compton. ¡Existe!
Pero no explica la interferencia, y otro fenómeno también.
He aquí una explicación plausible: los rayos del sol se reflejan en la superficie de
nuestro cuerpo, atraviesan la vitrina, golpean el espejo y vuelven hasta llegar a nuestra
retina. Sin embargo, un pequeño porcentaje de la luz también se refleja en la propia
vitrina. Bueno, ¿y qué? Todo esto es perfectamente lógico, como quiera que lo veas. Si la
luz es una onda, no hay problema: las ondas están normalmente sujetas a reflexión y
refracción parcial. Si la luz, en cambio, está compuesta por un flujo de partículas,
podemos explicarlo todo admitiendo que una cierta parte de los fotones, digamos el
96%, atraviesa el cristal y el 4% restante se refleja. Pero si tomamos un solo fotón de esta
enorme corriente, formada por partículas de todas formas, ¿cómo sabemos cómo se
comportará frente al vidrio? ¿Cómo decide nuestro fotón (llamémoslo Bernie) qué
camino tomar?
Ernest Rutherford (1871-1937) era un hombre grande y erizado que parecía una morsa.
Después de ganar el Premio Nobel de Química por su investigación en radiactividad, se
convirtió en director del prestigioso Laboratorio Cavendish en Cambridge en 1917.
Nació en Nueva Zelanda en el seno de una gran familia de agricultores; la vida en la
granja lo había acostumbrado a trabajar duro y lo convirtió en un hombre de recursos.
Apasionado por las máquinas y las nuevas tecnologías, se dedicó desde su infancia a
reparar relojes y a construir modelos de funcionamiento de molinos de agua. En sus
estudios de postgrado había estado involucrado en el electromagnetismo y había
logrado construir un detector de ondas de radio antes de que Marconi llevara a cabo sus
famosos experimentos. Gracias a una beca llegó a Cambridge, donde su radio, capaz de
captar señales a casi un kilómetro de distancia, impresionó favorablemente a muchos
profesores, incluyendo a J. J. Thomson, que en ese momento dirigía el Laboratorio
Cavendish.
Thomson invitó a Rutherford a trabajar con él en una de las novedades de la época, los
rayos X, entonces conocidos como rayos Becquerel, y a estudiar el fenómeno de la
descarga eléctrica en los gases. El joven kiwi tenía nostalgia, pero era una oferta
imprescindible. El fruto de su colaboración se resumió en un famoso artículo sobre la
ionización, que se explicó por el hecho de que los rayos X, al colisionar con la materia,
parecían crear un número igual de partículas cargadas eléctricamente, llamadas "iones".
Thomson entonces afirmaría públicamente que nunca había conocido a nadie tan hábil
y apasionado por la investigación como su estudiante.
Alrededor de 1909, Rutherford coordinó un grupo de trabajo dedicado a las llamadas
partículas alfa, que fueron disparadas a una fina lámina de oro para ver cómo sus
trayectorias eran desviadas por átomos de metales pesados. Algo inesperado sucedió en
esos experimentos. Casi todas las partículas se desviaron ligeramente, al pasar por la
lámina de oro, a una pantalla de detección a cierta distancia. Pero uno de cada 8.000
rebotó y nunca pasó del papel de aluminio. Como Rutherford dijo más tarde, "fue como
disparar un mortero a un pedazo de papel y ver la bala regresar. ¿Qué estaba pasando?
¿Había algo dentro del metal que pudiera repeler las partículas alfa, pesadas y con
carga positiva?
Gracias a las investigaciones previas de J.J. Thomson, se sabía en ese momento que los
átomos contenían luz, electrones negativos. Para que la construcción fuera estable y
para equilibrar todo, por supuesto, se requería una cantidad igual y opuesta de cargas
positivas. Sin embargo, dónde estaban estos cargos era entonces un misterio. Antes de
Rutherford, nadie había sido capaz de dar forma al interior del átomo.
En 1905 J. J. Thomson había propuesto un modelo que preveía una carga positiva
repartida uniformemente dentro del átomo y los diversos electrones dispersos como
pasas en el panettone - por esta razón fue bautizado por los físicos como el "modelo del
panettone" (modelo del pudín de ciruela en inglés). Si el átomo se hizo realmente así, las
partículas alfa del experimento anterior siempre tendrían que pasar a través de la
lámina: sería como disparar balas a un velo de espuma de afeitar. Aquí, ahora imagina
que en esta situación una bala de cada ocho mil es desviada por la espuma hasta que
vuelve. Esto sucedió en el laboratorio de Rutherford.
Según sus cálculos, la única manera de explicar el fenómeno era admitir que toda la
masa y la carga positiva del átomo se concentraba en un "núcleo", una pequeña bola
situada en el centro del propio átomo. De esta manera habría habido las
concentraciones de masa y carga necesarias para repeler las partículas alfa, pesadas y
positivas, que eventualmente llegaron en un curso de colisión. Era como si dentro del
velo de espuma de afeitar hubiera muchas bolas duras y resistentes, capaces de desviar
y repeler las balas. Los electrones a su vez no se dispersaron sino que giraron alrededor
del núcleo. Gracias a Rutherford, entonces, el modelo de pan dulce fue consignado al
basurero de la historia. El átomo parecía más bien un pequeño sistema solar, con
planetas en miniatura (los electrones) orbitando una densa y oscura estrella (el núcleo),
todo ello unido por fuerzas electromagnéticas.
El danés melancólico Un día, Niels Bohr, un joven teórico danés que se estaba
perfeccionando en ese momento en el Laboratorio Cavendish, asistió a una conferencia
en Rutherford y quedó tan impresionado por la nueva teoría atómica del gran
experimentador que le pidió que trabajara con él en la Universidad de Manchester,
donde estaba entonces. Aceptó acogerlo durante cuatro meses en 1912.
Bohr se puso a estudiar el átomo más simple de todos, el átomo de hidrógeno, que en el
modelo de Rutherford consiste en un solo electrón negativo que orbita alrededor del
núcleo positivo. Pensando en los resultados de Planck y Einstein, y en ciertas ideas que
estaban en el aire sobre el comportamiento ondulatorio de las partículas, el joven danés
se lanzó a una hipótesis muy poco clásica y muy arriesgada. Según Bohr, sólo se
permiten ciertas órbitas al electrón, porque su movimiento dentro del átomo es similar
al de las ondas. Entre las órbitas permitidas hay una de nivel de energía mínimo, donde
el electrón se acerca lo más posible al núcleo: la partícula no puede bajar más que esto y
por lo tanto no puede emitir energía mientras salta a un nivel más bajo - que realmente
no existe. Esta configuración especial se llama el estado fundamental.
Con su modelo, Bohr intentaba principalmente explicar a nivel teórico el espectro
discreto de los átomos, esas líneas más o menos oscuras que ya hemos encontrado.
Como recordarán, los diversos elementos, al ser calentados hasta que emiten luz, dejan
una huella característica en el espectrómetro que consiste en una serie de líneas de color
que resaltan claramente sobre un fondo más oscuro. En el espectro de la luz solar,
entonces, también hay líneas negras y delgadas en ciertos puntos precisos. Las líneas
claras corresponden a las emisiones, las oscuras a las absorciones. El hidrógeno, como
todos los elementos, tiene su "huella" espectral: a estos datos, conocidos en su momento,
Bohr trató de aplicar su modelo recién nacido.
En tres artículos posteriores publicados en 1913, el físico danés expuso su audaz teoría
cuántica del átomo de hidrógeno. Las órbitas permitidas al electrón se caracterizan por
cantidades fijas de energía, que llamaremos E1, E2, E3 etc. Un electrón emite radiación
cuando "salta" de un nivel superior, digamos E3, a uno inferior, digamos E2: es un fotón
cuya energía (dada, recordemos, por E=hf) es igual a la diferencia entre los de los dos
niveles. Así que E2-E3=hf. Añadiendo este efecto en los miles de millones de átomos
donde el proceso ocurre al mismo tiempo, obtenemos como resultado las líneas claras
del espectro. Gracias a un modelo que conservaba parcialmente la mecánica newtoniana
pero que se desviaba de ella cuando no estaba de acuerdo con los datos experimentales,
Bohr pudo calcular triunfalmente las longitudes de onda correspondientes a todas las
líneas espectrales del hidrógeno. Sus fórmulas dependían sólo de constantes y valores
conocidos, como la masa y la carga de los electrones (como de costumbre sazonada aquí
y allá por símbolos como π y, obviamente, el signo distintivo de la mecánica cuántica, la
constante h de Planck).
El carácter del átomo Así es gracias a Rutherford y Bohr si hoy en día la representación
más conocida del átomo es la del sistema solar, donde pequeños electrones zumban
alrededor del núcleo como muchos planetas pequeños, en órbitas similares a las
elípticas predichas por Kepler. Muchos quizás piensan que el modelo es preciso y que el
átomo está hecho así. Desgraciadamente no, porque las intuiciones de Bohr eran
brillantes pero no del todo correctas. La proclamación del triunfo resultó prematura. Se
dio cuenta de que su modelo se aplicaba sólo al átomo más simple, el átomo de
hidrógeno, pero ya estaba fallando en el siguiente paso, con el helio, el átomo con dos
electrones. Los años 20 estaban a la vuelta de la esquina y la mecánica cuántica parecía
atascada. Sólo se había dado el primer paso, correspondiente a lo que ahora llamamos la
vieja teoría cuántica.
Según las leyes clásicas, ningún electrón podría permanecer en órbita alrededor del
núcleo. Su movimiento sería acelerado, como todos los movimientos circulares (porque
la velocidad cambia continuamente de dirección con el tiempo), y según las leyes de
Maxwell cada partícula cargada en movimiento acelerado emite energía en forma de
radiación electromagnética, es decir, luz. Según los cálculos clásicos, un electrón en
órbita perdería casi inmediatamente su energía, que desaparecería en forma de
radiación electromagnética; por lo tanto, la partícula en cuestión perdería altitud y
pronto se estrellaría contra el núcleo. El átomo clásico no podría existir, si no es en
forma colapsada, por lo tanto químicamente muerto e inservible. La teoría clásica no fue
capaz de justificar los valores energéticos de los electrones y los núcleos. Por lo tanto,
era necesario inventar un nuevo modelo: la teoría cuántica.
Además, como ya se sabía a finales del siglo XIX gracias a los datos de las líneas
espectrales, los átomos emiten luz pero sólo con colores definidos, es decir, con
longitudes de onda (o frecuencias) a valores discretos y cuantificados. Casi parece que
sólo pueden existir órbitas particulares, y los electrones están obligados a saltar de una
a otra cada vez que emiten o absorben energía. Si el modelo "kepleriano" del átomo
como sistema solar fuera cierto, el espectro de la radiación emitida sería continuo,
porque la mecánica clásica permite la existencia de un rango continuo de órbitas.
Parece, en cambio, que el mundo atómico es "discreto", muy diferente de la continuidad
prevista por la física newtoniana.
Bohr comprendió inmediatamente que había una órbita mínima, a lo largo de la cual el
electrón estaba lo más cerca posible del núcleo. Desde este nivel no podía caer más bajo,
por lo que el átomo no se derrumbó y su destino fatal. Esta órbita mínima se conoce
como el estado fundamental y corresponde al estado de energía mínima del electrón. Su
existencia implica la estabilidad del átomo. Hoy sabemos que esta propiedad
caracteriza a todos los sistemas cuánticos.
La hipótesis de Bohr demostró ser realmente efectiva: de las nuevas ecuaciones todos
los números que correspondían a los valores observados en los experimentos saltaron
uno tras otro. Los electrones atómicos están, como dicen los físicos, "ligados" y sin la
contribución de la energía del exterior continúan girando tranquilamente alrededor del
núcleo. La cantidad de energía necesaria para hacerlos saltar y liberarlos del enlace
atómico se llama, precisamente, energía de enlace, y depende de la órbita en la que se
encuentre la partícula. (Por lo general nos referimos a tal energía como el mínimo
requerido para alejar un electrón del átomo y llevarlo a una distancia infinita y con
energía cinética nula, un estado que convencionalmente decimos energía nula; pero es,
de hecho, sólo una convención). Viceversa, si un electrón libre es capturado por un
átomo, libera una cantidad de energía, en forma de fotones, igual a la cantidad de
enlace de la órbita en la que termina.
Las energías de enlace de las órbitas (es decir, de los estados) se miden generalmente en
unidades llamadas voltios de electrones (símbolo: eV). El estado fundamental en el
átomo de hidrógeno, que corresponde a esa órbita especial de mínima distancia del
núcleo y máxima energía de enlace, tiene una energía igual a 13,6 eV. Este valor se
puede obtener teóricamente también gracias a la llamada "fórmula de Rydberg",
llamada así en honor del físico sueco Johannes Rydberg, quien en 1888 (ampliando
algunas investigaciones de Johann Balmer y otros) había adelantado una explicación
empírica de las líneas espectrales del hidrógeno y otros átomos. De hecho, el valor de
13,6 eV y la fórmula de la que puede derivarse se conocían desde hacía algunos años,
pero fue Bohr quien primero dio una rigurosa justificación teórica.
Como recordarán, en esta teoría, anticuada pero no olvidada, se espera que los
electrones emitan fotones al saltar de un estado de mayor energía a otro de menor
energía. Esta regla obviamente no se aplica al estado fundamental E1, es decir, cuando
n=1, porque en este caso el electrón no tiene disponible una órbita inferior. Estas
transiciones tienen lugar de una manera completamente predecible y lógica. Si, por
ejemplo, el electrón en el estado n=3 baja al estado n=2, el ocupante de esta última órbita
debe nivelarse hasta n=1. Cada salto va acompañado de la emisión de un fotón con una
energía igual a la diferencia entre las energías de los estados implicados, como E2-E3 o
E1-E2. En el caso del átomo de hidrógeno, los valores numéricos correspondientes son
10,5 eV - 9,2 eV = 1,3 eV, y 13,6 eV - 10,5 eV = 3,1 eV. Dado que la energía E y la longitud
de onda λ de un fotón están relacionadas por la fórmula de Planck E=hf=hc/λ, es posible
derivar la energía de los fotones emitidos midiendo su longitud de onda por
espectroscopia. En la época de Bohr los relatos parecían volver en lo que respecta al
átomo de hidrógeno, el más simple (sólo un electrón alrededor de un protón), pero ya
delante del helio, el segundo elemento en orden de simplicidad, no se sabía bien cómo
proceder.
A Bohr se le ocurrió otra idea, que es medir el momento de los electrones a través de la
absorción de energía por los átomos, invirtiendo el razonamiento visto anteriormente.
Si la hipótesis de los estados cuánticos es cierta, entonces los átomos pueden adquirir
energía sólo en paquetes correspondientes a las diferencias entre las energías de los
estados, E2 - E3, E1 - E2 y así sucesivamente. El experimento crucial para probar esta
hipótesis fue realizado en 1914 por James Franck y Gustav Hertz en Berlín, y fue quizás
la última investigación importante realizada en Alemania antes del estallido de la
Primera Guerra Mundial. Los dos científicos obtuvieron resultados perfectamente
compatibles con la teoría de Bohr, pero no eran conscientes de ello. No conocerían los
resultados del gran físico danés hasta varios años después.
Es difícil darse cuenta del pánico que se extendió entre los más grandes físicos del
mundo a principios de los terribles años 20, entre 1920 y 1925. Después de cuatro siglos
de fe en la existencia de principios racionales que subyacen a las leyes de la naturaleza,
la ciencia se vio obligada a revisar sus propios fundamentos. El aspecto que más
perturbó las conciencias, adormecidas por las tranquilizadoras certezas del pasado, fue
la desconcertante dualidad subyacente de la teoría cuántica. Por un lado, había
abundante evidencia experimental de que la luz se comportaba como una onda,
completa con interferencia y difracción. Como ya hemos visto en detalle, la hipótesis de
la onda es la única capaz de dar cuenta de los datos obtenidos del experimento de la
doble rendija.
De vuelta a nosotros. Los físicos en la década de 1920 estaban desconcertados ante esa
extraña bestia, mitad partícula, mitad onda, que algunos llamaban ondícula
(contracción de onda, onda y partícula, partícula). A pesar de las pruebas bien
establecidas a favor de la naturaleza ondulatoria, experimento tras experimento los
fotones resultaron ser objetos concretos, capaces de colisionar entre sí y con los
electrones. Los átomos emitieron uno cuando salieron de un estado de excitación,
liberando la misma cantidad de energía, E=hf, transportada por el propio fotón. La
historia tomó un giro aún más sorprendente con la entrada de un joven físico francés, el
aristócrata Louis-Cesar-Victor-Maurice de Broglie, y su memorable tesis doctoral.
La familia de Broglie, entre cuyos miembros sólo había oficiales de alto rango,
diplomáticos o políticos, era muy hostil a las inclinaciones de Louis. El viejo duque, su
abuelo, llamaba a la ciencia "una anciana que busca la admiración de los jóvenes". Así
que el vástago, en aras del compromiso, emprendió sus estudios para convertirse en
oficial de la marina, pero continuó experimentando en su tiempo libre, gracias al
laboratorio que había instalado en la mansión ancestral. En la marina se hizo un nombre
como experto en transmisión y después de la muerte del viejo duque se le permitió
tomarse un permiso para dedicarse a tiempo completo a su verdadera pasión.
De Broglie había reflexionado largamente sobre las dudas de Einstein acerca del efecto
fotoeléctrico, que era incompatible con la naturaleza ondulante de la luz y que
corroboraba la hipótesis de los fotones. Mientras releía el trabajo del gran científico, al
joven francés se le ocurrió una idea muy poco ortodoxa. Si la luz, que parecería ser una
onda, exhibe un comportamiento similar al de las partículas, quizás lo contrario
también pueda ocurrir en la naturaleza. Tal vez las partículas, todas las partículas,
exhiben un comportamiento ondulatorio en ciertas ocasiones. En palabras de de Broglie:
"La teoría del átomo de Bohr me llevó a formular la hipótesis de que los electrones
también podían considerarse no sólo partículas, sino también objetos a los que era
posible asignar una frecuencia, que es una propiedad ondulatoria".
Unos años antes, un estudiante de doctorado que hubiera elegido esta audaz hipótesis
para su tesis se habría visto obligado a trasladarse a la facultad de teología de alguna
oscura universidad de Molvania Citeriore. Pero en 1924 todo era posible, y de Broglie
tenía un admirador muy especial. El gran Albert Einstein fue llamado por sus perplejos
colegas parisinos como consultor externo para examinar la tesis del candidato, que le
pareció muy interesante (tal vez también pensó "pero ¿por qué no tuve esta idea?"). En
su informe a la comisión parisina, el Maestro escribió: "De Broglie ha levantado una
solapa del gran velo". El joven francés no sólo obtuvo el título, sino que unos años más
tarde recibió incluso el Premio Nobel de Física, gracias a la teoría presentada en su tesis.
Su mayor éxito fue haber encontrado una relación, modelada en la de Planck, entre el
momento clásico de un electrón (masa por velocidad) y la longitud de onda de la onda
correspondiente. Pero, ¿una ola de qué? Un electrón es una partícula, por el amor de
Dios, ¿dónde está la onda? De Broglie habló de "un misterioso fenómeno con caracteres
de periodicidad" que tuvo lugar dentro de la propia partícula. Parece poco claro, pero
estaba convencido de ello. Y aunque su interpretación era humeante, la idea subyacente
era brillante.
En 1927, dos físicos americanos que trabajaban en los prestigiosos Laboratorios Bell de
AT&T, Nueva Jersey, estudiaban las propiedades de los tubos de vacío bombardeando
con flujos de electrones varios tipos de cristales. Los resultados fueron bastante
extraños: los electrones salieron de los cristales según las direcciones preferidas y
parecían ignorar a los demás. Los investigadores del Laboratorio Bell no lo sabían, hasta
que descubrieron la loca hipótesis de De Broglie. Visto desde este nuevo punto de vista,
su experimento era sólo una versión compleja del de Young, con la doble rendija, y el
comportamiento de los electrones mostraba una propiedad bien conocida de las ondas,
que es la difracción! Los resultados habrían tenido sentido si se hubiera asumido que la
longitud de onda de los electrones estaba realmente relacionada con su impulso, tal
como de Broglie había predicho. La red regular de átomos en los cristales era el
equivalente a las fisuras del experimento de Young, que tenía más de un siglo de
antigüedad. Este descubrimiento fundamental de la "difracción electrónica" corroboró la
tesis de de Broglie: los electrones son partículas que se comportan como ondas, y
también es bastante fácil de verificar.
Una matemática extraña Werner Heisenberg (1901-1976) fue el príncipe de los teóricos,
tan desinteresado en la práctica del laboratorio que se arriesgó a reprobar su tesis en la
Universidad de Munich porque no sabía cómo funcionaban las baterías.
Afortunadamente para él y para la física en general, también fue ascendido. Hubo otros
momentos no fáciles en su vida. Durante la Primera Guerra Mundial, mientras su padre
estaba en el frente como soldado, la escasez de alimentos y combustible en la ciudad era
tal que las escuelas y universidades se veían a menudo obligadas a suspender las clases.
Y en el verano de 1918 el joven Werner, debilitado y desnutrido, se vio obligado, junto
con otros estudiantes, a ayudar a los agricultores en una cosecha agrícola bávara.
Al final de la guerra, a principios de los años 20, era un joven prodigio: pianista de alto
nivel, esquiador y alpinista hábil, así como matemático licenciado en física. Durante las
lecciones del viejo maestro Arnold Sommerfeld, conoció a otro joven prometedor,
Wolfgang Pauli, que más tarde se convertiría en su más cercano colaborador y su más
feroz crítico. En 1922 Sommerfeld llevó a Heisenberg, de 21 años, a Göttingen, entonces
el faro de la ciencia europea, para asistir a una serie de conferencias sobre la naciente
física atómica cuántica, impartidas por el propio Niels Bohr. En esa ocasión el joven
investigador, nada intimidado, se atrevió a contrarrestar algunas de las afirmaciones del
gurú y desafiar su modelo teórico de raíz. Sin embargo, después de este primer
enfrentamiento, nació una larga y fructífera colaboración entre ambos, marcada por la
admiración mutua.
El joven Werner se impuso una doctrina feroz: ningún modelo debe basarse en la física
clásica (por lo tanto, nada de sistemas solares en miniatura, aunque sean lo
suficientemente bonitos para dibujar). El camino a la salvación no fue la intuición o la
estética, sino el rigor matemático. Otro de sus dikats conceptuales era la renuncia a
todas las entidades (como las órbitas, para ser precisos) que no se podían medir
directamente.
Impulsado por las ideas de Bohr, Heisenberg redefinió en el campo cuántico las
nociones más banales de la física clásica, como la posición y la velocidad de un electrón,
para que estuvieran en correspondencia con los equivalentes newtonianos. Pero pronto
se dio cuenta de que sus esfuerzos por reconciliar dos mundos llevaron al surgimiento
de un nuevo y extraño "álgebra de la física".
Heisenberg no había estudiado a fondo las fronteras más avanzadas de las matemáticas
puras de su tiempo, pero pudo contar con la ayuda de colegas más experimentados, que
reconocieron inmediatamente el tipo de álgebra que contenían sus definiciones: no eran
más que multiplicaciones de matrices con valores complejos. El llamado "álgebra
matricial" era una exótica rama de las matemáticas, conocida desde hace unos sesenta
años, que se utilizaba para tratar objetos formados por filas y columnas de números:
matrices. El álgebra matrimonial aplicada al formalismo de Heisenberg (llamada
mecánica matricial) condujo a la primera disposición concreta de la física cuántica. Sus
cálculos condujeron a resultados sensatos para las energías de los estados y las
transiciones atómicas, es decir, saltos en el nivel de los electrones.
Cuando se aplicó la mecánica matricial no sólo al caso del átomo de hidrógeno, sino
también a otros sistemas microscópicos simples, se descubrió que funcionaba de
maravilla: las soluciones obtenidas teóricamente coincidían con los datos
experimentales. Y de esas extrañas manipulaciones de las matrices surgió un concepto
revolucionario.
A partir de este principio también podemos deducir la estabilidad del átomo de Bohr, es
decir, demostrar la existencia de un estado fundamental, una órbita inferior bajo la cual
el electrón no puede descender, como sucede en cambio en la mecánica newtoniana. Si
el electrón se acercara cada vez más al núcleo hasta que nos golpeara, la incertidumbre
sobre su posición sería cada vez menor, es decir, como dicen los científicos Δx "tendería
a cero". De acuerdo con el principio de Heisenberg Δp se volvería arbitrariamente
grande, es decir, la energía del electrón crecería más y más. Se muestra que existe un
estado de equilibrio en el que el electrón está "bastante" bien ubicado, con Δx diferente
de cero, y en el que la energía es la mínima posible, dado el valor correspondiente de
Δp.
¿Por qué es tan importante? Volvamos a la primera ley de Newton, la F=pero que
gobierna el movimiento de las manzanas, los planetas y todos los objetos
macroscópicos. Nos dice que la fuerza F aplicada a un objeto de masa m produce una
aceleración (es decir, un cambio de velocidad) a y que estas tres cantidades están
vinculadas por la relación escrita arriba. Resolver esta ecuación nos permite conocer el
estado de un cuerpo, por ejemplo una pelota de tenis, en cada momento. Lo importante,
en general, es conocer la F, de la que luego derivamos la posición x y la velocidad v en
el instante t. Las relaciones entre estas cantidades se establecen mediante ecuaciones
diferenciales, que utilizan conceptos de análisis infinitesimal (inventados por el propio
Newton) y que a veces son difíciles de resolver (por ejemplo, cuando el sistema está
compuesto por muchos cuerpos). La forma de estas ecuaciones es, sin embargo,
bastante simple: son los cálculos y aplicaciones los que se complican.
Desde mucho antes del nacimiento oficial de la mecánica cuántica, los físicos fueron
utilizados para tratar (clásicamente) varios casos de ondas materiales en el continuo,
como las ondas de sonido que se propagan en el aire. Veamos un ejemplo con el sonido.
La cantidad que nos interesa es la presión ejercida por la onda en el aire, que indicamos
con Ψ(x,t). Desde el punto de vista matemático se trata de una "función", una receta que
da el valor de la presión de onda (entendida como una variación de la presión
atmosférica estándar) en cada punto x del espacio y en cada instante t. Las soluciones de
la ecuación clásica relativa describen naturalmente una onda que "viaja" en el espacio y
el tiempo, "perturbando" el movimiento de las partículas de aire (o agua, o un campo
electromagnético u otro). Las olas del mar, los tsunamis y la bella compañía son todas
las formas permitidas por estas ecuaciones, que son del tipo "diferencial": implican
cantidades que cambian, y para entenderlas es necesario conocer el análisis matemático.
La "ecuación de onda" es un tipo de ecuación diferencial que si se resuelve nos da la
"función de onda" Ψ(x,t) - en nuestro ejemplo la presión del aire que varía en el espacio
y el tiempo a medida que pasa una onda sonora.
Aquí, sin embargo, hay un giro, que es uno de los aspectos más sorprendentes de la
mecánica cuántica. Schrödinger se dio cuenta de que su función de onda era, como se
esperaría de una onda, continua en el espacio y en el tiempo, pero que para hacer que
las cosas se sumen, tenía que tomar números diferentes de los reales. Y esto es una gran
diferencia con las ondas normales, ya sean mecánicas o electromagnéticas, donde los
valores son siempre reales. Por ejemplo, podemos decir que la cresta de una ola
oceánica se eleva desde el nivel medio del mar por 2 metros (y por lo tanto tenemos que
exponer la bandera roja en la playa); o aún peor que se acerca un tsunami de 10 metros
de altura, y por lo tanto tenemos que evacuar las zonas costeras a toda prisa. Estos
valores son reales, concretos, medibles con diversos instrumentos, y todos entendemos
su significado.
Una eterna adolescente ¿Dónde está la teoría cuántica después de los descubrimientos
de Heisenberg, Schrödinger, Bohr, Born y colegas? Existen las funciones de onda
probabilística por un lado y el principio de incertidumbre por el otro, que permite
mantener el modelo de partículas. La crisis de la dualidad "un poco de onda un poco de
partícula" parece resuelta: los electrones y los fotones son partículas, cuyo
comportamiento es descrito por ondas probabilísticas. Como ondas están sujetas a
fenómenos de interferencia, haciendo que las partículas dóciles aparezcan donde se
espera que lo hagan, obedeciendo a la función de la onda. Cómo llegan allí no es un
problema que tenga sentido. Esto es lo que dicen en Copenhague. El precio a pagar por
el éxito es la intrusión en la física de la probabilidad y varias peculiaridades cuánticas.
La idea de que la naturaleza (o Dios) juega a los dados con la materia subatómica no le
gustaba a Einstein, Schrödinger, de Broglie, Planck y muchos otros. Einstein, en
particular, estaba convencido de que la mecánica cuántica era sólo una etapa, una teoría
provisional que tarde o temprano sería sustituida por otra, determinística y causal. En
la segunda parte de su carrera, el gran físico hizo varios intentos ingeniosos para evitar
el problema de la incertidumbre, pero sus esfuerzos se vieron frustrados uno tras otro
por Bohr, supuestamente para su maligna satisfacción.
Por lo tanto, debemos cerrar el capítulo suspendido entre los triunfos de la teoría y un
cierto sentimiento de inquietud. A finales de los años 20 la mecánica cuántica era ahora
una ciencia adulta, pero aún susceptible de crecimiento: sería profundamente revisada
varias veces, hasta los años 40.
Capítulo 6
Quantum
Pero cuando decimos que una teoría o modelo "funciona", ¿qué queremos decir
exactamente? Que es matemáticamente capaz de hacer predicciones sobre algún
fenómeno natural, comparable con los datos experimentales. Si las predicciones y
mediciones acumuladas en nuestras experiencias se coliman, entonces la teoría funciona
"ex post", es decir, explica por qué sucede un cierto hecho, que antes nos era
desconocido.
Por ejemplo, podríamos preguntarnos qué sucede al lanzar dos objetos de diferente
masa desde un punto alto, digamos la torre de Pisa. La demostración de Galileo y todos
los experimentos realizados posteriormente muestran que, a menos que haya pequeñas
correcciones debido a la resistencia del aire, dos objetos graves de masas diferentes que
caen desde la misma altura llegan al suelo al mismo tiempo. Esto es cien por ciento
cierto en ausencia de aire, como se ha demostrado espectacularmente en la Luna en
vivo por televisión: la pluma y el martillo dejados caer por un astronauta llegaron
exactamente al mismo tiempo.2 La teoría original y profunda que se ha confirmado en
este caso es la gravitación universal newtoniana, combinada con sus leyes de
movimiento. Al juntar las ecuaciones relacionadas, podemos predecir cuál será el
comportamiento de un cuerpo en caída sujeto a la fuerza de la gravedad y calcular
cuánto tiempo llevará alcanzar el suelo. Es un juego de niños verificar que dos objetos
de masas diferentes lanzados desde la misma altura deben llegar al suelo al mismo
tiempo (si descuidamos la resistencia del aire).3
Pero una buena teoría también debe hacernos capaces de predecir la evolución de
fenómenos aún no observados. Cuando se lanzó el satélite ECHO en 1958, por ejemplo,
se utilizaron la gravitación y las leyes de movimiento de Newton para calcular de
antemano la trayectoria que seguiría, anotar la fuerza de empuje y otros factores
correctivos importantes, como la velocidad del viento y la rotación de la Tierra. El poder
de predicción de una ley depende, por supuesto, del grado de control que pueda
ejercerse sobre los diversos factores involucrados. Desde todo punto de vista, la teoría
de Newton ha demostrado ser extraordinariamente exitosa, tanto en las verificaciones
ex post como en el campo de la predicción, cuando se aplica a su vasto alcance:
velocidades no demasiado altas (mucho más bajas que la luz) y escalas no demasiado
pequeñas (mucho más grandes que las atómicas).
En este capítulo exploraremos las aplicaciones de esta extraña teoría, que nos parecerá
relacionada con la brujería. Podremos explicar toda la química, desde la tabla periódica
de los elementos hasta las fuerzas que mantienen unidas las moléculas de los
compuestos, de los cuales hay miles de millones de tipos. Luego veremos cómo la física
cuántica afecta virtualmente todos los aspectos de nuestras vidas. Si bien es cierto que
Dios juega a los dados con el universo, ha logrado controlar los resultados de los juegos
para darnos el transistor, el diodo de túnel, los láseres, los rayos X, la luz de sincrotrón,
los marcadores radiactivos, los microscopios de efecto túnel de barrido, los
superconductores, la tomografía por emisión de positrones, los superfluidos, los
reactores nucleares, las bombas atómicas, las imágenes de resonancia magnética y los
microchips, sólo para dar algunos ejemplos. Probablemente no tengas superconductores
o microscopios de escaneo, pero ciertamente tienes cientos de millones de transistores
en la casa. Su vida es tocada de mil maneras por tecnologías posibles a través de la física
cuántica. Si tuviéramos un universo estrictamente newtoniano, no podríamos navegar
por Internet, no sabríamos qué es el software, y no habríamos visto las batallas entre
Steve Jobs y Bill Gates (o mejor dicho, habrían sido rivales multimillonarios en otro
sector, como los ferrocarriles). Podríamos habernos ahorrado unos cuantos problemas
que plagan nuestro tiempo, pero ciertamente no tendríamos las herramientas para
resolver muchos más.
Las consecuencias en otros campos científicos, más allá de los límites de la física, son
igualmente profundas. Erwin Schrödinger, a quien debemos la elegante ecuación que
rige todo el mundo cuántico, escribió en 1944 un libro profético titulado Qué es la vida4
, en el que hizo una hipótesis sobre la transmisión de la información genética. El joven
James Watson leyó este notable trabajo y fue estimulado a investigar la naturaleza de
los genes. El resto de la historia es bien conocida: junto con Francis Crick, en la década
de 1950 Watson descubrió la doble hélice del ADN, iniciando la revolución de la
biología molecular y, más tarde, la inescrupulosa ingeniería genética de nuestros
tiempos. Sin la revolución cuántica no habríamos podido comprender la estructura de
las moléculas más simples, y mucho menos el ADN, que es la base de toda la vida.5 Al
adentrarse en áreas más fronterizas y especulativas, los cuantos podrían ofrecer la
solución a problemas como la naturaleza de la mente, la conciencia y la autopercepción,
o al menos esto es lo que afirman algunos físicos teóricos temerarios que se atreven a
enfrentarse al campo de las ciencias cognitivas.
La mecánica cuántica sigue arrojando luz sobre los fenómenos químicos hasta el día de
hoy. En 1998, por ejemplo, se concedió el Premio Nobel de Química a dos físicos, Walter
Kohn y John Pople, por el descubrimiento de poderosas técnicas de computación para
resolver las ecuaciones cuánticas que describen la forma y las interacciones de las
moléculas. Astrofísica, ingeniería nuclear, criptografía, ciencia de los materiales,
electrónica: estas ramas del conocimiento y otras, incluyendo la química, la biología, la
bioquímica y así sucesivamente, se empobrecerían sin los cuantos. Lo que llamamos
computación probablemente sería poco más que diseñar archivos para documentos en
papel. ¿Qué haría esta disciplina sin la incertidumbre de Heisenberg y las
probabilidades de Born?
Un juego con Dmitri Mendeleev La química era una ciencia seria y vital, como la física,
mucho antes de que la teoría cuántica entrara en escena. Fue a través de la investigación
química de John Dalton que la realidad de los átomos fue confirmada en 1803, y los
experimentos de Michael Faraday llevaron al descubrimiento de sus propiedades
eléctricas. Pero nadie entendía cómo eran realmente las cosas. La física cuántica
proporcionó a la química un modelo sofisticado y racional capaz de explicar la
estructura detallada y el comportamiento de los átomos, así como un formalismo para
comprender las propiedades de las moléculas y predecir de forma realista su formación.
Todos estos éxitos fueron posibles precisamente por la naturaleza probabilística de la
teoría.
El estudio de la química, como todo el mundo sabe, parte de la tabla periódica de los
elementos, que adorna las paredes de cientos de miles de aulas en todo el mundo. Su
invento fue una verdadera hazaña científica, lograda en gran parte por el
sorprendentemente prolífico Dmitri Ivanovič Mendeleev (1834-1907). Figura destacada
de la Rusia zarista, Mendeleev fue un gran erudito, capaz de escribir cuatrocientos
libros y artículos, pero también se interesó por las aplicaciones prácticas de su trabajo,
tanto que dejó contribuciones sobre temas como el uso de fertilizantes, la producción de
queso en cooperativas, la normalización de pesos y medidas, los aranceles aduaneros en
Rusia y la construcción naval. Políticamente radical, se divorció de su esposa para
casarse con una joven estudiante del instituto de arte. A juzgar por las fotos de época, le
gustaba mantener el pelo largo.7
El "peso atómico" que mencionamos antes no es más que la masa característica de cada
átomo. Todos los átomos de la misma sustancia, digamos el oxígeno, tienen la misma
masa. Lo mismo ocurre con los átomos de nitrógeno, que son un poco menos pesados
que los átomos de oxígeno. Hay sustancias muy ligeras, como el hidrógeno, la más
ligera de todas, y otras muy pesadas, como el uranio, cientos de veces más masivas que
el hidrógeno. La masa atómica se mide por comodidad con una unidad de medida
especial y se indica con la letra M,8 pero aquí no es importante entrar en los detalles de
los valores individuales. Estamos más bien interesados en la lista de los elementos en
orden creciente de peso atómico. Mendeleev se dio cuenta de que la posición de un
elemento en esta lista tenía una clara correspondencia con sus propiedades químicas:
era la clave para penetrar en los misterios de la materia.
El Sr. Pauli entra en escena Los sistemas físicos tienden a organizarse en un estado de
menor energía. En los átomos, las reglas cuánticas y la ecuación de Schrödinger
proporcionan las configuraciones permitidas en las que los electrones pueden moverse,
las orbitales, cada una de las cuales tiene su propio y preciso nivel de energía. El último
paso para desentrañar todos los misterios del átomo comienza aquí, y es un
descubrimiento extraordinario y sorprendente: ¡cada órbita tiene espacio para un
máximo de dos electrones! Si no, el mundo físico sería muy diferente.
Aquí es donde entra en juego el genio de Wolfgang Pauli, este irascible y legendario
científico que representó en cierto sentido la conciencia de su generación, el hombre que
aterrorizaba a colegas y estudiantes, que a veces firmaba él mismo "La Ira de Dios" y
sobre el que oiremos más a menudo (véase también la nota 1 del capítulo 5).
Para evitar las pilas de electrones en el s1, en 1925 Pauli formuló la hipótesis de que era
válido el llamado principio de exclusión, según el cual dos electrones dentro de un
átomo nunca pueden estar en el mismo estado cuántico simultáneamente. Gracias al
principio de exclusión hay un criterio para poner las partículas en el lugar correcto al
subir a los átomos cada vez más pesados. Por cierto, el mismo principio es lo que nos
impide atravesar las paredes, porque nos asegura que los electrones de nuestro cuerpo
no pueden estar en el estado de los de la pared y deben permanecer separados por
vastos espacios, como las casas de las Grandes Praderas.
Un autor que permaneció en el anonimato escribió este poema sobre Pauli, según lo
reportado por George Gamow en su libro "Treinta años que sacudieron la física": El
principio de exclusión fue uno de los mayores logros científicos de Pauli. Básicamente
nos devolvió la química, permitiéndonos entender por qué la tabla periódica de
elementos está hecha de esa manera. Sin embargo, en su formulación básica es muy
simple: nunca dos electrones en el mismo estado cuántico. No está hecho, verboten! Esta
pequeña regla nos guía en la construcción de átomos cada vez más grandes y en la
comprensión de sus propiedades químicas.
Repetimos las dos reglas de oro, de Pauli, que debemos seguir a medida que avanzamos
en la tabla periódica: 1) los electrones deben ocupar siempre diferentes estados
cuánticos y 2) los electrones deben estar configurados para tener la menor energía
posible. Esta segunda regla, por cierto, se aplica en otras áreas y también explica por
qué los cuerpos sujetos a la fuerza de gravedad caen: un objeto en el suelo tiene menos
energía que uno en el decimocuarto piso. Pero volvamos al helio. Hemos dicho que los
dos electrones en s1 son consistentes con los datos experimentales. ¿No es eso una
violación del principio de exclusión? En realidad no, porque gracias a otra gran idea de
Pauli, tal vez la más ingeniosa, el giro entra en juego (además de lo que diremos ahora,
para una discusión más profunda de este tema ver el Apéndice).
Los electrones, en cierto sentido, giran sobre sí mismos incesantemente, como peonzas
microscópicas. Esta rotación, desde el punto de vista cuántico, puede ocurrir de dos
maneras, que se llaman arriba (arriba) y abajo (abajo). Es por eso que dos electrones
pueden permanecer fácilmente en la misma órbita 1 y respetar el dictado de Pauli: basta
con que tengan un espín opuesto para que se encuentren en diferentes estados
cuánticos. Eso es todo. Pero ahora que hemos agotado los 1s, no podemos sobrecargarlo
con un tercer electrón.
El átomo de helio satura la órbita 1 y está bien, porque no hay más espacio disponible:
los dos electrones están sentados y tranquilos. La consecuencia de esta estructura es
precisamente la inactividad química del helio, que no desea interactuar con otros
átomos. El hidrógeno, en cambio, tiene sólo un electrón en 1s y es hospitalario con otras
partículas que quieran unirse a él, siempre y cuando tengan el espín opuesto; de hecho,
la llegada de un electrón de otro átomo (como veremos en breve) es la forma en que el
hidrógeno crea un vínculo con otros elementos16. En el lenguaje de la química, la órbita
del hidrógeno se denomina "incompleta" (o incluso que su electrón sea "impar"),
mientras que la del helio es "completa", porque tiene el máximo número de electrones
esperado: dos, de espín opuesto. La química de estos dos elementos, por lo tanto, es tan
diferente como el día o la noche.
Ahora es hasta el sodio, Z=11, con once cargas positivas en el núcleo y once electrones
que de alguna manera tenemos que arreglar. Ya hemos visto que los diez primeros
completan las cinco primeras órbitas, por lo que debemos recurrir a los tres y colocar
allí el electrón solitario. Voilà: el sodio es químicamente similar al hidrógeno y al litio,
porque los tres tienen un solo electrón en la órbita más exterior, que es del tipo s. Luego
está el magnesio, que añade al electrón en 3s otro compartido (en sentido cuántico)
entre 3px, 3py y 3pcs. Continuando con el llenado de 3s y 3p, nos damos cuenta de que
las configuraciones se replican exactamente las ya vistas para 2s y 2p; después de otros
ocho pasos llegamos al argo, otro gas noble e inerte que tiene todas las órbitas
completas: 1s, 2s, 2p, 3s y 3p - todas contienen sus dos buenos electrones de espín
opuestos. La tercera fila de la tabla periódica reproduce exactamente la segunda, porque
las órbitas s y p de sus átomos se llenan de la misma manera.
En la cuarta fila, sin embargo, las cosas cambian. Empezamos tranquilamente con 4s y
4p pero luego nos encontramos con el 3d. Los orbitales de este tipo corresponden a
soluciones de orden aún más alto de la ecuación de Schrödinger y se llenan de una
manera más complicada, porque en este punto hay muchos electrones. Hasta ahora
hemos descuidado este aspecto, pero las partículas cargadas negativamente interactúan
entre sí, repeliéndose entre sí debido a la fuerza eléctrica, lo que hace que los cálculos
sean muy complicados. Es el equivalente del problema newtoniano de n cuerpos, es
decir, es similar a la situación en la que los movimientos de un sistema solar cuyos
planetas están lo suficientemente cerca unos de otros como para hacer sentir su
influencia gravitatoria. Los detalles de cómo es posible llegar a una solución son
complejos y no son relevantes para lo que diremos aquí, pero es suficiente saber que
todo funciona al final. Las órbitas 3d se mezclan con las 4p para que encuentren espacio
para hasta diez electrones antes de completarse. Por eso el período ocho cambia a
dieciocho (18=8+10) y luego cambia de nuevo por razones similares a treinta y dos. Las
bases físicas del comportamiento químico de la materia ordinaria, y por lo tanto
también de las sustancias que permiten la vida, están ahora claras. El misterio de
Mendeleev ya no es tal.
a los detalles.
Capítulo 7
Einstein y Bohr
Veamos, por ejemplo, el caso del electrón, que al igual que el fotón puede ser emitido
desde una fuente y disparado contra una pantalla en la que se han hecho dos rendijas,
más allá de las cuales hemos colocado una pantalla detectora (con circuitos especiales
en lugar de fotocélulas). Realizamos el experimento disparando los electrones
lentamente, por ejemplo uno por hora, para asegurarnos de que las partículas pasen de
una en una (sin "interferir" entre ellas). Como descubrimos en el capítulo 4, al repetir las
mediciones muchas veces al final nos encontramos con un conjunto de ubicaciones de
electrones en la pantalla formando una figura de interferencia. La partícula individual
también parece "saber" si hay una o dos rendijas abiertas, mientras que ni siquiera
sabemos por dónde pasó. Si cerramos una de las dos rendijas, la figura de interferencia
desaparece. Y desaparece incluso si colocamos un instrumento junto a las rendijas que
registra el paso de los electrones desde ese punto. En última instancia, la cifra de
interferencia aparece sólo cuando nuestra ignorancia del camino seguido por el único
electrón es total.
4. Como si esto no fuera suficiente, tenemos que lidiar con otras propiedades
perturbadoras. Por ejemplo, el giro. Tal vez el aspecto más desconcertante de la historia
esté dado por el hecho de que el electrón tiene un valor de espín fraccionado, igual a
1/2, es decir, su "momento angular" es ħ/2 (véase el Apéndice). Además, un electrón
siempre está alineado en cualquier dirección en la que elijamos medir su espín, que si
tenemos en cuenta su orientación puede ser +1/2 o -1/2, o como dijimos anteriormente
arriba (arriba) o abajo (abajo)2. La guinda del pastel es la siguiente: si giramos un
electrón en el espacio en 360°, su función de onda de Ψe se convierte en -Ψe, es decir,
cambia de signo (en el Apéndice hay un párrafo que explica cómo ocurre esto). Nada de
esto le sucede a los objetos del mundo clásico.
¡Nein! dice Pauli. El signo menos implica que si se toman dos electrones al azar
(recuerde que todos son idénticos), su estado cuántico conjunto debe ser tal que cambie
de signo si los dos se intercambian. La consecuencia de todo esto es el principio de
exclusión de Pauli, la fuerza de intercambio, el relleno orbital, la tabla periódica, la
razón por la cual el hidrógeno es reactivo y el helio inerte, toda la química. Esta es la
base de la existencia de materia estable, conductores, estrellas de neutrones, antimateria
y aproximadamente la mitad del producto interno bruto de los Estados Unidos.
Volvamos al punto 1 del párrafo anterior y al querido viejo muón, partícula elemental
que pesa doscientas veces el electrón y vive dos millonésimas de segundo, antes de
descomponerse y transformarse en un electrón y neutrinos (otras partículas
elementales). A pesar de estas extrañas características, realmente existen y en el
Fermilab esperamos algún día construir un acelerador que los haga funcionar a alta
velocidad.
Imaginemos que dentro del muón se esconde una bomba de tiempo, un pequeño
mecanismo con su buen reloj conectado a una carga de dinamita, que hace estallar la
partícula, aunque no sepamos cuándo. La bomba debe ser, por lo tanto, un dispositivo
mecánico de tipo newtoniano pero submicroscópico, no observable con nuestras
tecnologías actuales pero aún así responsable en última instancia de la descomposición:
las manecillas del reloj llegan al mediodía, y hola muón. Si cuando se crea un muón
(generalmente después de choques entre otros tipos de partículas) el tiempo de
detonación se establece al azar (tal vez en formas relacionadas con la creación del
mecanismo oculto), entonces hemos replicado de manera clásica el proceso
aparentemente indeterminado que se observa. La pequeña bomba de tiempo es un
ejemplo de una variable oculta, nombre que se da a varios dispositivos similares que
podrían tener el importante efecto de modificar la teoría cuántica en un sentido
determinista, para barrer la probabilidad "sin sentido". Pero como veremos en breve,
después de ochenta años de disputa sabemos que este intento ha fracasado y la mayoría
de los físicos contemporáneos aceptan ahora la extraña lógica cuántica.
Cosas ocultas En la década de 1930, mucho antes de que se descubrieran los quarks,
Einstein dio rienda suelta a su profunda oposición a la interpretación de Copenhague
con una serie de intentos de transformar la teoría cuántica en algo más parecido a la
vieja, querida y sensata física de Newton y Maxwell. En 1935, con la colaboración de los
dos jóvenes físicos teóricos Boris Podolsky y Nathan Rosen, se sacó el as de la manga8 .
Su contrapropuesta se basaba en un experimento mental (Gendankenexperiment, ya
hemos discutido) que pretendía demostrar con gran fuerza el choque entre el mundo
cuántico de la probabilidad y el mundo clásico de los objetos reales, con propiedades
definidas, y que también establecería de una vez por todas dónde estaba la verdad.
Este experimento se hizo famoso bajo el nombre de "Paradoja EPR", por las iniciales de
los autores. Su propósito era demostrar lo incompleto de la mecánica cuántica, con la
esperanza de que un día se descubriera una teoría más completa.
¿Qué significa estar "completo" o "incompleto" para una teoría? En este caso, un ejemplo
de "finalización" viene dado por las variables ocultas vistas anteriormente. Estas
entidades son exactamente lo que dicen ser: factores desconocidos que influyen en el
curso de los acontecimientos y que pueden (o tal vez no) ser descubiertos por una
investigación más profunda (recuerde el ejemplo de la bomba de tiempo dentro del
muón). En realidad son presencias comunes en la vida cotidiana. Si lanzamos una
moneda al aire, sabemos que los dos resultados "cabeza" y "cruz" son igualmente
probables. En la historia de la humanidad, desde la invención de las monedas, este
gesto se habrá repetido miles de miles de millones de veces (tal vez incluso por Bruto
para decidir si matar o no a César). Todo el mundo está de acuerdo en que el resultado
es impredecible, porque es el resultado de un proceso aleatorio. ¿Pero estamos
realmente seguros? Aquí es donde salen las variables ocultas.
Una es, para empezar, la fuerza utilizada para lanzar la moneda al aire, y en particular
cuánto de esta fuerza resulta en el movimiento vertical del objeto y cuánto en su
rotación sobre sí mismo. Otras variables son el peso y el tamaño de la moneda, la
dirección de las micro-corrientes de aire, el ángulo preciso en el que golpea la mesa al
caer y la naturaleza de la superficie de impacto (¿está la mesa hecha de madera? ¿Está
cubierta con un paño?). En resumen, hay muchas variables ocultas que influyen en el
resultado final.
Ahora imaginemos que estamos construyendo una máquina capaz de lanzar la moneda
con la misma fuerza. Siempre utilizamos el mismo ejemplar y realizamos el
experimento en un lugar protegido de las corrientes (tal vez bajo una campana de vidrio
donde creamos el vacío), asegurándonos de que la moneda siempre caiga cerca del
centro de la mesa, donde también tenemos control sobre la elasticidad de la superficie.
Después de gastar, digamos, 17963,47 dólares en este artilugio, estamos listos para
encenderlo. ¡Adelante! ¡Hagamos quinientas vueltas y consigamos quinientas cabezas!
Hemos logrado controlar todas las variables ocultas elusivas, que ahora no son ni
variables ni ocultas, ¡y hemos derrotado el caso! ¡El determinismo manda! La física
clásica newtoniana se aplica tanto a las monedas como a las flechas, balas, pelotas de
tenis y planetas. La aparente aleatoriedad del lanzamiento de una moneda se debe a
una teoría incompleta y a un gran número de variables ocultas, que en principio son
todas explicables y controlables.
¿En qué otras ocasiones vemos el azar en el trabajo de la vida cotidiana? Las tablas
actuariales sirven para predecir cuánto tiempo vivirá una determinada población (de
humanos, pero también de perros y caballos), pero la teoría general de la longevidad de
una especie es ciertamente incompleta, porque quedan muchas variables complejas
ocultas, entre ellas la predisposición genética a determinadas enfermedades, la calidad
del medio ambiente y de los alimentos, la probabilidad de ser alcanzado por un
asteroide y muchas otras. En el futuro, quizás, si excluimos los accidentes ocasionales,
podremos reducir el grado de incertidumbre y predecir mejor hasta que disfrutemos de
la compañía de los abuelos o primos.
Tal vez fue por este precedente que Einstein pensó naturalmente que la mecánica
cuántica era incompleta y que su naturaleza probabilística era sólo aparente, el
resultado del promedio estadístico hecho sobre entidades desconocidas: variables
ocultas. Si hubiera sido posible desvelar esta complejidad interna, habría sido posible
volver a la física determinista newtoniana y reingresar en la realidad clásica subyacente
al conjunto. Si, por ejemplo, los fotones mantuvieran un mecanismo oculto para decidir
si se reflejaban o refractaban, la aleatoriedad de su comportamiento cuando chocaban
con la vitrina sólo sería aparente. Conociendo el funcionamiento del mecanismo,
podríamos predecir los movimientos de las partículas.
Aclaremos esto: esto nunca ha sido descubierto. Algunos físicos como Einstein estaban
disgustados, filosóficamente hablando, por la idea de que la aleatoriedad era una
característica intrínseca y fundamental de nuestro mundo y esperaban recrear de
alguna manera el determinismo newtoniano. Si conociéramos y controláramos todas las
variables ocultas, dijeron, podríamos diseñar un experimento cuyo resultado fuera
predecible, como sostiene el núcleo del determinismo.
Así que preguntémonos si hay una forma de descubrir la existencia de variables ocultas.
Sin embargo, primero veamos cuál fue el desafío de Einstein.
La clave para resolver la paradoja de la EPR reside en el hecho de que las dos partículas
A y B, por muy distantes que estén, nacieron al mismo tiempo del mismo evento y por
lo tanto están relacionadas en un enredo. Sus posiciones, impulso, giro, etc. son siempre
indefinidos, pero cualquiera que sea el valor que adquieran, siempre permanecen
unidos entre sí. Si, por ejemplo, obtenemos un número preciso para la velocidad de A,
sabemos que la velocidad de B es la misma, sólo que opuesta en dirección; la misma
para la posición y el giro. Con el acto de medir hacemos colapsar una función de onda
que hasta entonces incluía en sí misma todos los valores posibles para las propiedades
de A y B. Gracias al enredo, sin embargo, lo que aprendemos en nuestro laboratorio en
la Tierra nos permite saber las mismas cosas sobre una partícula que podría estar en
Rigel 3, sin tocarla, observarla o interferir con ella de ninguna manera. La función de
onda de B también colapsó al mismo tiempo, aunque la partícula está navegando a años
luz de distancia.
En una ocasión Bohr llegó a comparar la revolución cuántica con la desatada por
Einstein, la relatividad, después de la cual el espacio y el tiempo se encontraron con
nuevas y extrañas cualidades. La mayoría de los físicos, sin embargo, estuvieron de
acuerdo en que la primera tenía efectos mucho más radicales en nuestra visión del
mundo.
Bohr insistió en un aspecto: dos partículas, una vez que se enredan como resultado de
un evento microscópico, permanecen enredadas incluso si se alejan a distancias
siderales. Mirando a A, influimos en el estado cuántico que incluye a A y B. El espín de
B, por lo tanto, está determinado por el tamaño del de A, dondequiera que se
encuentren las dos partículas. Este aspecto particular de la paradoja EPR habría sido
mejor comprendido treinta años después, gracias al esclarecedor trabajo de John Bell al
que volveremos. Por ahora, sepan que la palabra clave es "no-localidad", otra versión de
la entrometida definición de Einstein: "acción espectral a distancia".
Esta insistencia autoritaria puede quizás silenciar las dudas de un físico novato, pero
¿es realmente suficiente para salvar nuestras almas filosóficas en problemas?
Seguramente la "refutación" de Bohr no satisfizo para nada a Einstein y sus colegas. Los
dos contendientes parecían hablar idiomas diferentes. Einstein creía en la realidad
clásica, en la existencia de entidades físicas con propiedades bien definidas, como los
electrones y los protones. Para Bohr, que había abandonado la creencia en una realidad
independiente, la "demostración" del rival de lo incompleto no tenía sentido, porque
estaba equivocado precisamente en la forma en que el otro concebía una teoría
"razonable". Einstein le preguntó a un colega nuestro un día: "Pero, ¿realmente crees
que la Luna existe allí sólo cuando la miras?". Si reemplazamos nuestro satélite por un
electrón en esta pregunta, la respuesta no es inmediata. La mejor manera de salir es
sacar a relucir los estados cuánticos y las probabilidades. Si nos preguntamos cuál es el
espín de cierto electrón emitido por un cable de tungsteno en una lámpara
incandescente, sabemos que estará arriba o abajo con una probabilidad igual al 50%; si
nadie lo mide, no tiene sentido decir que el espín está orientado en cierta dirección.
Acerca de la pregunta de Einstein, es mejor pasarla por alto. Los satélites son mucho
más grandes que las partículas.
Hemos dedicado este capítulo a uno de los aspectos más enigmáticos de la física
cuántica, la exploración del micromundo. Sería ya traumático si se tratara de un nuevo
planeta sujeto a nuevas y diferentes leyes de la naturaleza, porque esto socavaría los
fundamentos mismos de la ciencia y la tecnología, cuyo control nos hace ricos y
poderosos (algunos de nosotros, digamos). Pero lo que es aún más desconcertante es
que las extrañas leyes del micromundo dan paso a la vieja y banal física newtoniana
cuando la escala dimensional crece hasta el nivel de las pelotas de tenis o los planetas.
¿Nos obliga esto a aceptar estas inconcebibles acciones a distancia no locales? Estamos
en un atolladero filosófico. A medida que comprendemos cuán diferente es el mundo
de nuestra experiencia cotidiana, experimentamos un lento pero inevitable cambio de
perspectiva. El último medio siglo ha sido para la física cuántica la versión acelerada de
la larga serie de éxitos de Newton y Maxwell en la física clásica. Ciertamente hemos
llegado a una comprensión más profunda de los fenómenos, ya que la mecánica
cuántica está en la base de todas las ciencias (incluyendo la física clásica, que es una
aproximación) y puede describir completamente el comportamiento de los átomos,
núcleos y partículas subnucleares (quarks y leptones), así como las moléculas, el estado
sólido, los primeros momentos de la vida en nuestro universo (a través de la cosmología
cuántica), las grandes cadenas en la base de la vida, los frenéticos desarrollos de la
biotecnología, tal vez incluso la forma en que opera la conciencia humana. Nos ha dado
tanto, pero los problemas filosóficos y conceptuales que trae consigo continúan
atormentándonos, dejándonos con un sentimiento de inquietud mezclado con grandes
esperanzas.
Algunas de estas disciplinas han cambiado completamente nuestra forma de vida y han
aumentado enormemente nuestro potencial para entender y estudiar el universo. La
próxima vez que uno de ustedes o un miembro de su familia entre en una máquina de
resonancia magnética (esperemos que nunca), considere este hecho: mientras la
máquina zumba, gira, avanza el sofá y hace sonidos como una orquesta sobrenatural,
mientras un monitor en la sala de control forma una imagen detallada de sus órganos,
usted está experimentando de manera esencial con los efectos de la física cuántica
aplicada, un mundo de superconductores y semiconductores, giro, electrodinámica
cuántica, nuevos materiales y así sucesivamente. Dentro de una máquina de resonancia
estás, literalmente, dentro de un experimento tipo EPR. Y si el aparato de diagnóstico es
en cambio un PET, una tomografía por emisión de positrones, ¡sabed que estáis siendo
bombardeados con antimateria!
Para superar el estancamiento de Copenhague, se han utilizado técnicas de mecánica
cuántica para abordar muchos problemas prácticos y específicos en esferas que antes se
consideraban intratables. Los físicos han comenzado a estudiar los mecanismos que
gobiernan el comportamiento de los materiales, como la forma en que la fase cambia de
sólido a líquido a gas, o cómo la materia responde a la magnetización, el calentamiento
y el enfriamiento, o por qué algunos materiales son mejores conductores de la corriente
eléctrica que otros. Todo esto cae en gran parte dentro de la llamada "física de la materia
condensada". Para responder a las preguntas anteriores bastaría con aplicar la ecuación
de Schrödinger, pero con el tiempo se han desarrollado técnicas matemáticas más
refinadas, gracias a las cuales hemos podido diseñar nuevos y sofisticados juguetes,
como transistores y láseres, en los que se basa toda la tecnología del mundo digital en el
que vivimos hoy en día.
Pero hay preguntas abiertas que involucran fenómenos que ocurren a velocidades
cercanas a las de la luz, por ejemplo: ¿qué es lo que mantiene unido al núcleo? ¿cuáles
son los bloques de construcción realmente fundamentales de la materia, las verdaderas
partículas elementales? ¿cómo encaja la relatividad restringida en la teoría cuántica?
Debemos entonces entrar en un mundo más rápido, diferente al de la física material.
Para comprender lo que sucede en el núcleo, un lugar donde la masa puede ser
convertida en energía como en el caso de la desintegración radiactiva (fisión o fusión),
tenemos que considerar los fenómenos cuánticos que tienen lugar a velocidades
cercanas a la de la luz y que entran en el terreno accidentado de la teoría de la
relatividad restringida. Una vez que entendemos cómo funcionan las cosas, podemos
dar el siguiente paso hacia la más complicada y profunda relatividad general, que se
ocupa de la fuerza de gravedad. Y por último, abordar el problema de los problemas,
que permanecieron abiertos hasta el final de la Segunda Guerra Mundial: cómo
describir plenamente las interacciones entre un electrón relativista (es decir, rápido) y la
luz.
El matrimonio entre la física cuántica y la relatividad estrecha La teoría de Einstein es la
versión correcta del concepto de movimiento relativo, generalizado a velocidades
incluso cercanas a las de la luz. Básicamente, postula principios generales relacionados
con la simetría de las leyes físicas2 y tiene profundas implicaciones en la dinámica de
las partículas. Einstein descubrió la relación fundamental entre la energía y el momento,
que difiere radicalmente de la de Newton. Esta innovación conceptual está en la base de
las modificaciones que deben hacerse a la mecánica cuántica para reformularla en un
sentido relativista3.
Entonces surge espontáneamente una pregunta: ¿qué surge del matrimonio de estas dos
teorías? Algo extraordinario, como veremos en breve.
E = mc2
Parecería ser un asunto de lana de cabra, pero en realidad hay una gran diferencia,
como explicaremos a continuación. Para derivar la energía de una partícula tenemos
que tomar la raíz cuadrada de los dos miembros de esta ecuación y encontrar la
conocida E=mc2. ¡Pero eso no es todo!
Es un simple hecho aritmético: los números tienen dos raíces cuadradas, una positiva y
otra negativa. La raíz cuadrada de 4, por ejemplo, es tanto √4=2 como √4=-2, porque
sabemos que 2×2=4 pero también (-2)×(-2)=4 (sabemos que dos números negativos
multiplicados juntos dan un número positivo). Así que también la ecuación escrita
arriba, resuelta con respecto a E, nos da dos soluciones: E=mc2 y E=-mc2.
He aquí un bonito enigma: ¿cómo podemos estar seguros de que la energía derivada de
la fórmula de Einstein es siempre positiva? ¿Cuál de las dos raíces debemos tomar? ¿Y
cómo lo sabe la naturaleza?
Al principio el problema no parecía muy grave, pero fue robado como una sofisticación
inútil y tonta. Los que lo sabían no tenían ninguna duda, la energía siempre era o nada
o positiva, y una partícula con energía negativa era un absurdo que ni siquiera debería
ser contemplado, so pena de ridículo. Todos estaban demasiado ocupados jugando con
la ecuación de Schrödinger, que en su forma original sólo se aplica a las partículas
lentas, como los electrones externos de los átomos, las moléculas y los cuerpos sólidos
en general. En su versión no relativista, el problema no se plantea porque la energía
cinética de las partículas en movimiento siempre viene dada por un número positivo. Y
el sentido común nos lleva a pensar que la energía total de una partícula de masa en
reposo es mc2, es decir, también es positiva. Por estas razones, los físicos de la época ni
siquiera consideraron la raíz cuadrada negativa y calificaron esa solución de "espuria",
es decir, "no aplicable a ningún cuerpo físico".
Pero supongamos por un momento que en su lugar hay partículas con energía negativa,
que corresponden a la solución con el signo menos delante y es decir con una energía en
reposo igual a -mc2. Si se movieran, la energía aumentaría en módulo y por lo tanto se
haría aún más pequeña a medida que aumenta el impulso6 . En posibles colisiones con
otras partículas seguirían perdiendo energía, así como debido a la emisión de fotones, y
por lo tanto su velocidad aumentaría cada vez más, acercándose a la de la luz. El
proceso nunca se detendría y las partículas en cuestión tendrían una energía que
tendería a convertirse en infinita, o más bien infinitamente negativa. Después de un
tiempo, el universo se llenaría de estas rarezas, partículas que irradian energía
hundiéndose constantemente más y más en el abismo del infinito negativo.7
La simple extracción de la raíz puede dar lugar a verdaderas rarezas. Por ejemplo,
obtenemos objetos llamados números imaginarios y complejos, que tienen un papel
fundamental en la mecánica cuántica. Ya hemos conocido un ejemplo notorio: i = √-1, la
raíz de menos uno. La física cuántica debe necesariamente involucrar a i y a sus
hermanos debido a su naturaleza matemática y no hay manera de evitarlos. También
hemos visto que la teoría predice rarezas como el enredo y los estados mixtos, que son
"casos excepcionales", consecuencias debidas al hecho de que todo se basa en la raíz
cuadrada de la probabilidad. Si sumamos y restamos estas raíces antes de elevar todo al
cuadrado, podemos obtener cancelaciones de término y por lo tanto un fenómeno como
la interferencia, como hemos visto desde el experimento de Young en adelante. Estas
rarezas desafían nuestro sentido común tanto como, y tal vez más, la raíz cuadrada de
menos uno habría parecido absurda a las culturas que nos precedieron, como los
antiguos griegos. Al principio ni siquiera aceptaban números irracionales, tanto que
según una leyenda Pitágoras condenó a su discípulo que había demostrado la
irracionalidad de √2, es decir, el hecho de que este número no puede escribirse en forma
de fracción, una proporción entre dos números enteros. En la época de Euclides las
cosas habían cambiado y se aceptaba la irracionalidad, pero hasta donde sabemos la
idea de los números imaginarios nunca fue contemplada (para más detalles ver la nota
15 del capítulo 5).
Otro resultado sensacional obtenido por la física en el último siglo puede considerarse
una consecuencia de esta simple estructura matemática, a saber, el concepto de espín y
espinor. Un espinor es en la práctica la raíz cuadrada de un vector (véase el Apéndice
para más detalles). Un vector, que quizás le resulte más familiar, es como una flecha en
el espacio, con longitud y dirección definidas, que representa cantidades como, por
ejemplo, la velocidad de una partícula. Tomar la raíz cuadrada de un objeto con
dirección espacial parece una idea extraña y de hecho tiene consecuencias extrañas.
Cuando giras un espinazo 360° no regresa igual a sí mismo, sino que se vuelve menos él
mismo. Los cálculos nos dicen entonces que si intercambiamos la posición de dos
electrones idénticos con el espín 1/2, la función de onda del estado que incluye la
posición de ambos debe cambiar de signo: Ψ(x,y) = - Ψ(y,x). El principio de exclusión de
Pauli se deriva de este mismo hecho: dos partículas idénticas con espín 1/2 no pueden
tener el mismo estado, porque de lo contrario la función de onda sería idénticamente
nula. Ya hemos visto que el principio aplicado a los electrones nos lleva a excluir la
presencia de más de dos partículas en una órbita, una de las cuales tiene spin up y la
otra spin down. De ahí la existencia de una "fuerza de intercambio" repulsiva entre dos
partículas con spin 1/2 que no quieren a toda costa permanecer en el mismo estado
cuántico, lo que incluye permanecer en el mismo lugar al mismo tiempo. El principio de
exclusión de Pauli rige la estructura de la tabla periódica de elementos y es una
consecuencia muy visible y fundamental del increíble hecho de que los electrones se
representan como raíces cuadradas de vectores, es decir, espinores.
La fórmula de Einstein que une la masa y la energía nos da otra situación en la que la
física del siglo XX tuvo que lidiar con las raíces cuadradas. Como dijimos, al principio
todo el mundo ignoró el problema descuidando las soluciones negativas en el estudio
de las partículas como los fotones o los mesones. Un mesón es una partícula con cero
espín, mientras que el fotón tiene espín igual a 1, y su energía es siempre positiva. En el
caso de los electrones, que tienen el espín 1/2, fue necesario encontrar una teoría que
integrara la mecánica cuántica y la relatividad estrecha; y en este campo nos
encontramos cara a cara con los estados de energía negativa, que aquí nos dan la
oportunidad de conocer una de las figuras más importantes de la física del siglo XX.
Paul Dirac Paul Dirac fue uno de los padres fundadores de la física cuántica, autor,
entre otras cosas, del libro sagrado de esta disciplina: Los Principios de la Mecánica
Cuántica8 . Es un texto de referencia que trata de manera coherente con la teoría según
la escuela de pensamiento de Bohr-Heisenberg y combina la función de onda de
Schrödinger con la mecánica matricial de Heisenberg. Es una lectura recomendada para
aquellos que quieran profundizar en el tema, aunque requiera conocimientos a nivel de
los primeros años de universidad.
Las contribuciones originales de Dirac a la física del siglo XX son de suma importancia.
Cabe destacar, por ejemplo, su propuesta teórica sobre la existencia de monopolios
magnéticos, el campo magnético equivalente a las cargas eléctricas, fuentes puntuales
del propio campo. En la teoría clásica de Maxwell esta posibilidad no se contempla,
porque se considera que los campos magnéticos son generados sólo por cargas en
movimiento. Dirac descubrió que los monopolos y las cargas eléctricas son conceptos
que no son independientes sino que están relacionados a través de la mecánica cuántica.
Sus especulaciones teóricas unieron la nueva física con una rama de las matemáticas
llamada topología, que estaba ganando importancia en esos años. La teoría de Dirac de
los monopolios magnéticos tuvo una fuerte resonancia también desde un punto de vista
estrictamente matemático y en muchos sentidos anticipó el marco conceptual que más
tarde desarrolló la teoría de las cuerdas. Pero su descubrimiento fundamental, uno de
los más profundos en la física del siglo XX, fue la teoría relativista del electrón.
En 1926 el joven Dirac buscaba una nueva ecuación para describir las partículas de
espín 1/2, que pudiera superar a la de Schrödinger y tener en cuenta la estrecha
relatividad. Para ello necesitaba espinores (las raíces cuadradas de los vectores,
recuerde) y tenía que asumir que el electrón tenía masa. Pero para que se tuviera en
cuenta la relatividad, descubrió que tenía que duplicar los espinores con respecto a la
situación no relativista, asignando así dos espinores a cada electrón.
La ecuación de Dirac toma las raíces cuadradas muy en serio, en el sentido más amplio.
Los dos espinores iniciales representan dos electrones, uno arriba y otro abajo, que sin
considerar la relatividad tienen energía positiva, así que de E2=m2c4 utilizamos sólo la
solución E=+mc2. Pero si tenemos en cuenta la relatividad, necesitamos otros dos
espinores, a los que asociamos la solución negativa de la ecuación de Einstein E=-mc2.
Así que tienen energía negativa. El propio Dirac no podía hacer nada al respecto,
porque esta elección era obligatoria si queríamos tener en cuenta los requisitos de
simetría exigidos por la relatividad restringida, esencialmente referidos al tratamiento
correcto de los movimientos. Fue frustrante.
Pero Dirac tuvo una idea brillante para resolver el problema. Como hemos visto, el
principio de exclusión de Pauli establece que dos electrones no pueden tener
exactamente el mismo estado cuántico al mismo tiempo: si uno ya está en un cierto
estado, como en una órbita atómica, nadie más puede ocupar ese lugar (por supuesto
que también debemos tener en cuenta el espín, por lo que en un estado con ciertas
características de ubicación y movimiento dos electrones pueden vivir juntos, uno con el
espín hacia arriba y el otro con el espín hacia abajo). Dirac tuvo la idea de extender esto
al vacío: también el vacío está en realidad lleno de electrones, que ocupan todos los
estados de energía negativa. Estos estados problemáticos del universo están por lo tanto
ocupados por dos electrones, uno que gira hacia arriba y el otro hacia abajo. En esta
configuración, los electrones de energía positiva de los átomos no podrían emitir
fotones y se encontrarían en un estado de energía negativa, porque no encontrarían
ninguno libre y gracias al principio de acción de Pauli les estaría prohibida la acción.
Con esta hipótesis el vacío se convertiría en análogo a un gigantesco átomo inerte, como
el de un gas noble, con todos los orbitales llenos, es decir, con todos los estados de
energía negativa ocupados, para cualquier cantidad de movimiento.
Sin embargo, hay una simetría muy interesante que, si se implementa en una teoría
cuántica "ajustada", nos permite calcular la constante cosmológica y obtener un
resultado matemáticamente reconfortante: cero. Esta simetría viene dada por una
conexión particular entre los fermiones y los bosones. Para verlo en funcionamiento
tenemos que introducir una dimensión imaginaria extra en la escena, algo que podría
haber salido de la imaginación de Lewis Carroll. Y esta dimensión extra se comporta
como un fermión: con un principio "à la Pauli" prohíbe que se dé más de un paso en
ella.
Dondequiera que entremos en la nueva dimensión, debemos detenernos
inmediatamente (es como poner un electrón en estado cuántico: entonces no podemos
añadir más electrones). Pero cuando un bosón pone su pie en él, se transforma en un
fermión. Y viceversa. Si esta extraña dimensión existiera realmente y si entráramos en
ella, como Alicia en A través del espejo, veríamos al electrón transformarse en un bosón
llamado selectrón y al fotón convertirse en un fermión llamado fotón.
¿Así que la supersimetría resuelve el verdadero problema de la energía del vacío? Tal
vez, pero no está muy claro cómo. Hay dos obstáculos. En primer lugar, todavía no se
ha observado ninguna pareja bosónica supersimétrica del electrón16 . Sin embargo, la
supersimetría, como todas las simetrías (piense en una bola de vidrio perfectamente
esférica), puede ser "rota" (sólo dé un martillo a esta esfera). Los físicos tienen un
profundo amor por la simetría, que siempre es un ingrediente de nuestras teorías más
apreciadas y utilizadas. Muchos colegas esperan que la supersimetría realmente exista
en la naturaleza y que también haya un mecanismo (similar al martilleo de la esfera)
que pueda romperla. Si así fuera, observaríamos las consecuencias sólo en energías muy
altas, como las que esperamos obtener en aceleradores colosales como el LHC. Según la
teoría, los socios del electrón fotónico, es decir, el selectortrón y el fotón, son muy
pesados y sólo veremos rastros de ellos cuando alcancemos una energía igual a un valor
umbral llamado ΛSUSY (SUSY es la abreviatura de super simetría).
En los últimos diez años aproximadamente ha surgido una nueva y radical hipótesis,
según la cual siempre hemos sobrestimado el número de peces en el Mar de Dirac,
porque no son objetos tridimensionales en un océano tridimensional, sino que forman
parte de un holograma. Un holograma es una proyección de un cierto espacio en uno
más pequeño, como sucede cuando proyectamos una escena tridimensional en una
pantalla bidimensional. Según esta hipótesis, todo lo que ocurre en tres dimensiones
puede ser descrito completamente basado en lo que ocurre en la pantalla, con una
dimensión menos. El Mar de Dirac, como sigue, no está lleno de peces de la manera que
pensamos, porque estos son en realidad objetos bidimensionales. En resumen, los
estados de energía negativa son una mera ilusión y la energía total del vacío es tanto
menor que es potencialmente compatible con el valor observado de la constante
cosmológica. Decimos "potencialmente" porque la teoría holográfica sigue siendo una
obra en construcción y todavía tiene muchos puntos abiertos.
Esta nueva idea proviene del campo de la teoría de las cuerdas, en áreas donde se
pueden establecer conexiones entre los espacios holográficos (la más definida y original
está dada por la llamada conjetura de Maldacena, o AdS/CFT).17 Volveremos a esta
hipótesis, poco realista o profunda, en el próximo capítulo; sin embargo, el sentido
general parece ser el de la lógica de un soñador.
Tomemos por simplicidad un material cristalino. Los cristales tienen muchas formas,
cuyas propiedades han sido cuidadosamente catalogadas. Los electrones que
comienzan a vagar entre los cristales tienen funciones de onda con una frecuencia muy
baja en la banda de valencia. Dentro de esta banda, los electrones están dispuestos
según el principio de exclusión de Pauli: a lo sumo dos por nivel, uno con spin up y otro
con spin down. Los estados de muy baja frecuencia son muy similares a los de un
electrón libre para moverse en el espacio, sin interferencia con la red cristalina. Estos
estados tienen el nivel de energía más bajo y se llenan primero. Siguiendo siempre el
principio de exclusión, los electrones continúan llenando los siguientes estados hasta
que sus longitudes de onda cuánticas se acortan, llegando a ser comparables a la
distancia entre los átomos.
Los electrones, sin embargo, están sujetos a desviaciones del campo electromagnético
generado por los átomos de la red cristalina, que se comporta como un interferómetro
gigante de Young con muchas rendijas: una para cada átomo (las análogas a las rendijas
son las cargas de la red). El movimiento de estas partículas, por lo tanto, implica una
colosal interferencia cuántica20 . Ésta interviene precisamente cuando la longitud de
onda del electrón es del mismo orden de magnitud con respecto a la distancia entre los
átomos: los estados en esta condición están sujetos a una interferencia destructiva y por
lo tanto se anulan mutuamente.
Los semiconductores típicos son sólidos cristalinos como el silicio (el principal
componente de la arena). Su conductividad puede modificarse drásticamente
añadiendo otros elementos como "impurezas", mediante una técnica llamada dopaje. Se
dice que los semiconductores con pocos electrones en la banda de conducción son del
tipo n y suelen estar dopados con la adición de átomos que ceden electrones, que por lo
tanto "repoblan" la banda de conducción. Se dice que los semiconductores con una
banda de conducción casi completa son del tipo p y normalmente se dopan con la
adición de átomos que aceptan electrones de la banda de valencia.
Un material de tipo p tiene "agujeros" en la banda de valencia que se ven muy similares
a los encontrados cuando hablamos del mar de Dirac. En ese caso vimos que estos
huecos actuaban como partículas positivas; aquí sucede algo similar: los huecos,
llamados "gaps", toman el papel de cargas positivas y facilitan el paso de la corriente
eléctrica. Un semiconductor tipo p, por lo tanto, es una especie de Mar de Dirac en
miniatura, creado en un laboratorio. En este caso, sin embargo, los huecos involucran
muchos electrones y se comportan como si fueran partículas más pesadas, por lo que
son menos eficientes como portadores de corriente que los electrones individuales.
Diodos y transistores El ejemplo más simple de un mecanismo que podemos construir
con semiconductores es el diodo. Un diodo actúa como conductor en una dirección y
como aislante en la otra. Para construir uno, un material de tipo p suele acoplarse con
un material de tipo n para formar una unión p-n. No se requiere mucho esfuerzo para
estimular los electrones del elemento de tipo n para que pasen a través de la unión y
terminen en la banda de valencia del elemento de tipo p. Este proceso, que se asemeja a
la aniquilación de partículas y antipartículas en el Mar de Dirac, hace que la corriente
fluya en una sola dirección.
Si intentamos invertir el fenómeno nos damos cuenta de que es difícil: al quitar los
electrones de la banda de conducción no encontramos ninguno capaz de reemplazarlos
provenientes del material tipo p. En un diodo, si no exageramos con el voltaje (es fácil
quemar un semiconductor con una corriente demasiado intensa), podemos hacer que la
electricidad fluya fácilmente en una sola dirección, y por eso este dispositivo tiene
importantes aplicaciones en los circuitos eléctricos.
En 1947 John Bardeen y William Brattain, que trabajaban en los Laboratorios Bell en un
grupo encabezado por William Shockley, construyeron el primer transistor de "punto
de contacto". Era una generalización del diodo, hecha por la unión de tres
semiconductores. Un transistor nos permite controlar el flujo de corriente ya que el
voltaje varía entre las tres capas (llamadas colector, base y emisor respectivamente) y
sirve básicamente como interruptor y amplificador. Es quizás el mecanismo más
importante inventado por el hombre y que le valió a Bardeen, Brattain y Shockley el
Premio Nobel en 1956.22
Otro aparato que pone en práctica este extraño efecto es la unión Josephson, una especie
de interruptor electrónico llamado así en honor a su brillante y extraño inventor, Brian
Josephson. Este dispositivo funciona a temperaturas cercanas al cero absoluto, donde la
superconductividad cuántica añade un carácter exótico a los fenómenos. En la práctica,
es un aparato electrónico digital súper rápido y súper frío que explota el efecto túnel
cuántico. Parece salir directamente de las páginas de un libro de Kurt Vonnegut, pero
realmente existe y es capaz de encenderse y apagarse miles de miles de millones de
veces por segundo. En nuestra era de ordenadores cada vez más potentes, esta
velocidad es una característica muy deseable. Esto se debe a que los cálculos se hacen
sobre bits, es decir, sobre unidades que pueden ser cero o uno, gracias a varios
algoritmos que representan todos los números, los suman, los multiplican, calculan
derivados e integrales, y así sucesivamente. Todo esto se hace cambiando el valor de
ciertos circuitos eléctricos de cero (apagado) a uno (encendido) varias veces, por lo que
comprenderá que acelerar esta operación es de suma importancia. El cruce de
Josephson lo hace mejor.
El efecto túnel aplicado a la microscopía nos ha permitido "ver" los átomos simples, por
ejemplo en la fantástica arquitectura de la doble hélice que forma el ADN, un registro
de toda la información que define a un ser vivo. El microscopio de efecto túnel,
inventado en los años ochenta del siglo pasado, no utiliza un haz de luz (como en el
microscopio óptico) ni un haz de electrones (como en el electrónico estándar). Su
funcionamiento se basa en una sonda de muy alta precisión que sigue el contorno del
objeto a observar permaneciendo a una distancia de menos de una millonésima de
milímetro. Esta brecha es lo suficientemente pequeña como para permitir que las
corrientes eléctricas presentes en la superficie del propio objeto lo superen gracias al
efecto túnel y así estimular un cristal muy sensible presente en la sonda. Cualquier
variación en esta distancia, debido a un átomo "saliente", es registrada y convertida en
una imagen por un software especial. Es el equivalente al lápiz óptico de un tocadiscos
(¿alguien lo recuerda?), que recorre colinas y valles en un surco y los convierte en la
magnífica música de Mozart.
El microscopio de efecto túnel también es capaz de tomar átomos uno por uno y
moverlos a otro lugar, lo que significa que podemos construir una molécula de acuerdo
a nuestros diseños, poniendo las piezas juntas como si fuera un modelo. Podría ser un
nuevo material muy resistente o un medicamento antiviral. Gerd Benning y Heinrich
Rohrer, que inventaron el microscopio de efecto túnel en un laboratorio de IBM en
Suiza, fueron galardonados con el Premio Nobel en 1986, y su idea dio origen a una
industria con un volumen de negocios de mil millones de dólares.
Algunas personas esperan con impaciencia llegar pronto a una superteoría que se
reduzca a la mecánica cuántica en ciertas áreas, como sucede con la relatividad que
engloba la mecánica clásica newtoniana y devuelve valor sólo en ciertas áreas, es decir,
cuando los cuerpos en juego se mueven lentamente. Esto significaría que la física
cuántica moderna no es el final de la línea, porque allí, escondida en lo profundo de la
mente de la Naturaleza, existe una teoría definitiva, mejor, capaz de describir el
universo completamente. Esta teoría podría abordar las fronteras de la física de alta
energía, pero también los mecanismos íntimos de la biología molecular y la teoría de la
complejidad. También podría llevarnos a descubrir fenómenos completamente nuevos
que hasta ahora han escapado al ojo de la ciencia. Después de todo, nuestra especie se
caracteriza por la curiosidad y no puede resistir la tentación de explorar este excitante y
sorprendente micromundo como un planeta que orbita una estrella distante. Y la
investigación también es un gran negocio, si es cierto que el 60% del PIB americano
depende de tecnologías que tienen que ver con la física cuántica. Así que hay muy
buenas razones para continuar explorando los bloques de construcción sobre los que
construimos nuestra comprensión del mundo.
El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión, tal vez concebida
para parecer deliberadamente anti-intuitiva? Incluso el gran Feynman se sintió
desafiado por el teorema de Bell y trató de llegar a una representación de la mecánica
cuántica que lo hiciera más digerible, gracias a su idea de la suma en los caminos. Como
hemos visto, a partir de ciertas ideas de Paul Dirac inventó una nueva forma de pensar
sobre los acontecimientos. En su marco, cuando una partícula radioactiva decae y da
vida a un par de otras partículas, una con spin up y otra con spin down, tenemos que
examinar las dos "vías" que se determinan. Una, que llamaremos A, lleva la partícula
con spin hacia arriba al detector 1 y la que tiene spin hacia abajo al detector 2; la otra, la
ruta B, hace lo contrario. A y B tienen cuantitativamente dos "amplitudes de
probabilidad", que podemos sumar. Cuando hacemos una medición, también
averiguamos cuál de los dos caminos ha tomado realmente el sistema, si A o B; así, por
ejemplo, si encontramos la partícula con spin up en el punto 1, sabemos que ha pasado
por A. En todo esto, sólo podemos calcular la probabilidad de los distintos caminos.
La solución más inmediata es introducir una "clave" criptográfica que pueda ser
utilizada tanto por el emisor como por el receptor. La forma estándar de hacer segura la
información confidencial es esconderla en una larga lista de números aleatorios. Pero
sabemos que los espías, hackers y tipos extraños vestidos de negro con un corazón de
piedra y un buen conocimiento del mundo informático son capaces de entender cómo
distinguir la información del ruido.
Aquí es donde entra en juego la mecánica cuántica, que puede ofrecer a la criptografía
los servicios de su especial forma de aleatoriedad, tan extraña y maravillosa que
constituye una barrera infranqueable, y por si fuera poco, es capaz de informar
inmediatamente de cualquier intento de intrusión! Como la historia de la criptografía
está llena de códigos "impenetrables" que en cierto punto son penetrados por una
tecnología superior, está justificado si se toma esta afirmación con la cantidad adecuada
de escepticismo (el caso más famoso es el ya mencionado de Enigma, la máquina que en
la Segunda Guerra Mundial encriptaba las transmisiones nazis y que se consideraba
imbatible: los Aliados lograron desencriptarla sin que el enemigo se diera cuenta).
Pero un qubit es un estado cuántico, por lo que también puede existir tanto en forma
"mixta" como "pura". Un estado puro no se ve afectado por la observación. Si medimos
el espín de un electrón a lo largo del eje z, será necesariamente hacia arriba o hacia
abajo, dependiendo de su dirección. Si el electrón se toma al azar, cada uno de estos
valores puede presentarse con una cierta probabilidad. Si, por el contrario, la partícula
ha sido emitida de tal manera que asume necesariamente un cierto spin, la medición
sólo la registra sin cambiar su estado.
La transmisión de los estados cuánticos también puede utilizarse para transmitir con
seguridad una "clave", es decir, un número muy grande generado causalmente, que se
utiliza para decodificar la información en ciertos sistemas de comunicación cifrada.
Gracias a los qubits, sabemos si la llave está segura o comprometida y por lo tanto
podemos tomar contramedidas. La criptografía cuántica ha sido probada hasta ahora en
mensajes transmitidos a unos pocos kilómetros de distancia. Aún pasará algún tiempo
antes de que pueda utilizarse en la práctica, ya que esto requiere una gran inversión en
la última generación de láseres. Pero un día podremos hacer desaparecer para siempre
la molestia de tener que impugnar una compra cargada en nuestra tarjeta de crédito en
algún país lejano donde nunca antes habíamos estado.
El resultado final es quizás muy simple y predecible, pero hacer todas estas cuentas es
muy poco práctico, con una calculadora clásica. La gran idea de Feynman fue proponer
una calculadora analógica que explotara la física cuántica: usemos fotones reales y
realicemos el experimento, dejando que la naturaleza complete ese monstruoso cálculo
de forma rápida y eficiente. El ordenador cuántico ideal debería ser capaz de elegir por
sí mismo el tipo de mediciones y experimentos que corresponden al cálculo requerido,
y al final de las operaciones traducir el resultado físico en el resultado numérico. Todo
esto implica el uso de una versión ligeramente más complicada del sistema de doble
rendija.
Los increíbles ordenadores del futuro Para darnos una idea de lo poderosas que son
estas técnicas de cálculo, tomemos un ejemplo simple y comparemos una situación
clásica con la correspondiente situación cuántica. Partamos de un "registro de 3 bits", es
decir, un dispositivo que en cada instante es capaz de asumir una de estas ocho
configuraciones posibles: 000, 001, 010, 011, 100, 101, 110, 111, correspondientes a los
números 0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico registra esta información con tres
interruptores que pueden estar abiertos (valor 0) o cerrados (valor 1). Es fácil ver por
analogía que un registro de 4 bits puede codificar dieciséis números, y así
sucesivamente.
En los ordenadores clásicos, el bit suele venir dado por la carga eléctrica de un pequeño
condensador, que puede estar cargado (1) o no cargado (0). Ajustando el flujo de
corriente podemos cambiar el valor del bit. En los ordenadores cuánticos, en cambio,
para cambiar un qubit utilizamos un rayo de luz para poner el átomo en un estado
excitado o fundamental. Esto implica que en cada instante, en cada paso del cálculo, el
qubit puede asumir los valores 0 y 1 al mismo tiempo. Estamos comenzando a realizar
un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante todos los primeros
1024 números. Con dos de ellos, acoplados de forma coincidente, podemos asegurarnos
de tener una tabla de 1024 × 1024 multiplicaciones. Una computadora tradicional,
aunque muy rápida, debería realizar en secuencia más de un millón de cálculos para
obtener todos esos datos, mientras que una computadora cuántica es capaz de explorar
todas las posibilidades simultáneamente y llegar al resultado correcto en un solo paso,
sin esfuerzo.
Esta y otras consideraciones teóricas han llevado a la creencia de que, en algunos casos,
una computadora cuántica resolvería un problema en un año que la más rápida de las
máquinas clásicas no terminaría antes de unos pocos miles de millones de años. Su
poder proviene de la capacidad de operar simultáneamente en todos los estados y de
realizar muchos cálculos en paralelo en una sola unidad operativa. Pero hay un pero
(suspenso: aquí cabría también el Sprach Zarathustra de Richard Strauss). Antes de
invertir todos sus ahorros en una puesta en marcha de Cupertino, debe saber que varios
expertos son escépticos sobre las aplicaciones informáticas cuánticas (aunque todos
están de acuerdo en que los debates teóricos sobre el tema son valiosos para
comprender ciertos fenómenos cuánticos fundamentales).
Es cierto que algunos problemas importantes pueden ser resueltos de muy buena
manera, pero seguimos hablando de máquinas muy diferentes, diseñadas para
situaciones muy específicas, que difícilmente sustituirán a las actuales. El mundo clásico
es otro tipo de mundo, por lo que no llevamos la máquina rota a la mecánica cuántica.
Una de las mayores dificultades es que estos dispositivos son muy sensibles a las
interferencias con el mundo exterior: si un solo rayo cósmico hace un estado de cambio
de qubits, todo el cálculo se va al infierno. También son máquinas analógicas, diseñadas
para simular un cálculo particular con un proceso particular, y por lo tanto carecen de la
universalidad típica de nuestros ordenadores, en los que se ejecutan programas de
varios tipos que nos hacen calcular todo lo que queremos. También es muy difícil
construirlos en la práctica. Para que los ordenadores cuánticos se hagan realidad y para
que valga la pena invertir tiempo y dinero en ellos, tendremos que resolver complejos
problemas de fiabilidad y encontrar algoritmos utilizables.
Mencionemos también la extraña teoría del matemático inglés Roger Penrose que
concierne a nuestra conciencia. Un ser humano es capaz de realizar ciertos tipos de
cálculos a la velocidad del rayo, como una calculadora, pero lo hace con métodos muy
diferentes. Cuando jugamos al ajedrez contra una computadora, por ejemplo,
asimilamos una gran cantidad de datos sensoriales y los integramos rápidamente con la
experiencia para contrarrestar una máquina que funciona de manera algorítmica y
sistemática. La computadora siempre da resultados correctos, el cerebro humano a
veces no: somos eficientes pero inexactos. Hemos sacrificado la precisión para aumentar
la velocidad.
Sea como fuere, la computación cuántica podría encontrar su razón de ser arrojando luz
sobre el papel de la información en la física básica. Tal vez tengamos éxito tanto en la
construcción de nuevas y poderosas máquinas como en alcanzar una nueva forma de
entender el mundo cuántico, tal vez más en sintonía con nuestras percepciones
cambiantes, menos extrañas, fantasmales, perturbadoras. Si esto realmente sucede, será
uno de los raros momentos en la historia de la ciencia en que otra disciplina (en este
caso la teoría de la información, o tal vez de la conciencia) se fusiona con la física para
arrojar luz sobre su estructura básica.
Gran final Concluyamos nuestra historia resumiendo las muchas preguntas filosóficas
que esperan respuesta: ¿cómo puede la luz ser tanto una partícula como una onda? ¿hay
muchos mundos o sólo uno? ¿hay un código secreto verdaderamente impenetrable?
¿qué es la realidad a nivel fundamental? ¿están las leyes de la física reguladas por
muchos lanzamientos de dados? ¿tienen sentido estas preguntas? la respuesta es quizás
"tenemos que acostumbrarnos a estas rarezas"? ¿dónde y cuándo tendrá lugar el
próximo gran salto científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica. Hemos entrado en la
armonía de relojería del universo clásico de Newton, con sus leyes deterministas.
Podríamos habernos detenido allí, en un sentido real y metafórico, en esa reconfortante
realidad (aunque sin teléfonos móviles). Pero no lo hicimos. Hemos penetrado en los
misterios de la electricidad y el magnetismo, fuerzas que sólo en el siglo XIX se unieron
y tejieron en el tejido de la física clásica, gracias a Faraday y Maxwell. Nuestros
conocimientos parecían entonces tan completos que a finales de siglo hubo quienes
predijeron el fin de la física. Todos los problemas que valía la pena resolver parecían
estar resueltos: bastaba con añadir algunos detalles, que sin duda entrarían en el marco
de las teorías clásicas. Al final de la línea, abajo vamos; los físicos pueden abrigarse e
irse a casa.
Pero todavía había algún fenómeno incomprensible aquí y allá. Las brasas ardientes son
rojas, mientras que según los cálculos deberían ser azules. ¿Y por qué no hay rastros de
éter? ¿Por qué no podemos ir más rápido que un rayo de luz? Tal vez la última palabra
no se ha dicho todavía. Pronto, el universo sería revolucionado por una nueva y
extraordinaria generación de científicos: Einstein, Bohr, Schrödinger, Heisenberg, Pauli,
Dirac y otros, todos entusiastas de la idea.
Esperamos que este sea sólo el comienzo de su viaje y que continúe explorando las
maravillas y aparentes paradojas de nuestro universo cuántico.