Documentos de Académico
Documentos de Profesional
Documentos de Cultura
*
Ellos fueron, en orden alfabético: Eduardo Aldana, Fernando Chaparro, Gabriel García-Márquez,
Manuel Elkin Patarroyo, Rodrigo Gutiérrez, Rodolfo Llinás, Marco Palacios, Eduardo Posada, Ángela
Restrepo y Carlos Eduardo Vasco.
PRÓLOGO
CONTENIDO
AL LECTOR INQUIETO
A MODO DE PROLEGÓMENOS
Un largo trecho
Einstein y la física estadística
Un siglo de saltos cuánticos
El nanomundo, un universo sui-generis
Prolegómeno
Filosofía de la naturaleza
Cuerpo negro, cuantización y evolución como conceptos
Más allá de la dialéctica
La universalidad de los cuantos y la evolución cultural
Motivaciones intrínsecas y extrínsecas
Justificando un doble calificativo
Síntesis de la evolución biológico-cultural
Evolución de la física y fin de la historia
La información es más fundamental que la materia y la energía
EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Electrodinámica
3. Ondas y campos
REFERENCIAS Y COMPLEMENTOS
AL LECTOR INQUIETO
«The eternal mystery of the world is its comprehensibility», Albert Einstein (1936).
Con esta frase, Einstein hace referencia al universo entero y su funcionamiento. Pero hay otro
misterio todavía más profundo: la conciencia. ¿Forma ella parte del universo?
Hace mucho se suponía que es posible establecer una diferencia entre seres vivos conscientes
y los organismos vivos que no lo son. Hoy ya no estamos tan seguros de eso. También
supusimos que era posible predecir el comportamiento humano. La confusa época que vivimos
es prueba de que no es así: pasarán varios años antes de que logremos enderezar el rumbo del
mundo, si es que puede reorientarse el curso de la civilización.
Hay dos campos diferentes o áreas separadas de la física actual, la clásica y la cuántica, cuya
frontera es frágil pero a la vez tan inequívoca como pudo ser para los griegos la diferencia
entre el ser y la nada. Podría decirse que la primera culminó con una nueva concepción del
espacio y el tiempo y con una nueva formulación de la teoría que había hecho de Isaac Newton
el mayor genio de la física durante varios siglos, la de gravitación universal. Esta última fue a su
vez la obra cumbre de Albert Einstein, la que lo convirtió en el científico fan de varias
generaciones en el pasado siglo. De la otra fue también en gran medida fundador, con su
hipótesis sobre el carácter dual de la luz, corpúsculo y onda. Las dos teorías, clásica y cuántica,
lucen tan radicalmente diferentes a la postre que el genio entre genios, como puede
denominarse a Einstein, no pudo aceptar como válido el posterior desarrollo de la segunda.
Los físicos saben a qué rango de fenómenos se refieren cuando hablan de lo clásico y cuáles
son aquellos que no caben en el esquema anterior, los frágiles efectos cuánticos, solamente
robustos en condiciones muy especiales. Para detectar estos últimos es a menudo
indispensable disponer de sofisticados y costosos laboratorios que hacen posible observar
indirectamente objetos diminutos en condiciones extremas de baja temperatura y alto vacío.
A pesar de lo anterior, hay ocasiones en que los efectos cuánticos se observan a escala
macroscópica. Uno de ellos se observó tempranamente, en 1911, cuando aún no se había
formulado la teoría cuántica. Nos referimos al fenómeno de la superconductividad a baja
temperatura. Este es inequívocamente un nuevo estado de la materia en el que la resistencia
al paso de la corriente eléctrica es rigurosamente cero y se presenta al mismo tiempo la
denominada levitación magnética. Por más que se investigó durante cerca de 75 años con
diversos materiales, el fenómeno no había sido observado a temperaturas superiores a los 25
K (escala Kelvin, vale decir -248o C). Fue así como en 1986 se inició una nueva era en el campo
y en otras áreas cuando se descubrieron los primeros superconductores a temperaturas por
encima de 27 K. Hoy el límite está alrededor de los 150 K y nada prohíbe, en principio, que se
pueda observar ese fenómeno cuántico a temperaturas cercanas a la del medio ambiente.
Más sorprendentes todavía han resultado observaciones experimentales y estudios teóricos de
la última década que indican cómo ciertos fenómenos relacionados con la vida, la fotosíntesis,
el olfato y la aeronavegación magnética tienen que ver con efectos puramente cuánticos.
Aunque ha habido especulaciones de vieja data sobre el origen cuántico de la conciencia, los
resultados experimentales del momento distan mucho de favorecer esas hipótesis. No
obstante, los efectos cuánticos en procesos mentales básicos no pueden descartarse del todo.
Así pues, partiremos del supuesto de que es claro qué quieren decir los físicos cuando hacen
referencia al universo cuántico, aunque es probable que pocos entre ellos se preocupen por la
posible relación entre ese universo y la conciencia, la unión de dos misterios que a su vez se
entrelazan con el misterio primigenio.
La física nació mecánica: un mecanismo de relojería que funciona con una precisión absoluta.
Por contraste, si de algo estamos ciertos en la era actual, es de la validez universal del principio
de incerteza, el principio regulador de los fenómenos cuánticos. Y sin embargo, a esta nueva
disciplina se le denomina Mecánica Cuántica. Esto es una evidente contradicción.
¿Cuándo un objeto deja de comportarse cuánticamente para dar paso al comportamiento
clásico? Esta difícil pregunta no se le ha de formular a un lector común y corriente, al hombre
de la calle. Debemos empezar por explicar la bastardilla. Cada quien puede ser común y
corriente o muy especial; puede ser un lector desprevenido o un inquieto observador. Si la
pregunta se le formula a un físico cualquiera, acaso responda con un encogimiento de
hombros; y si nos da una respuesta, tal vez ella no sea clara. Así, pues, hay que aceptar que la
pregunta misma o bien no tiene respuesta o puede estar mal formulada; anticipemos que
todos los potenciales lectores, sin excepción, son también potencialmente inquietos, incluso el
llamado ciudadano de a pie, no sin cierto toque despectivo que nosotros rechazamos. A todos
ellos están dirigidas estas reflexiones. También al físico, como pretendemos argumentarlo.
Reformulemos entonces la pregunta: ¿cuál es el límite de aplicabilidad de la teoría cuántica?
No lo sabemos, pero se puede responder con una afirmación contundente. Ella es la teoría
más precisa de que tengamos noticia: es una teoría formulada en lenguaje matemático que
explica con precisión el comportamiento de la materia toda, incluida la energía. Nunca, en sus
cerca de un siglo de existencia, desde cuando fuera formulada con principios matemáticos
coherentes, ha podido establecerse una sola falla o visualizarse una sola grieta. Para decirlo de
otra manera: sus predicciones se han cumplido, por absurdas y descabelladas que parezcan al
sentido común.
¿Dónde, pues, está la diferencia entre un comportamiento u otro, clásico versus cuántico? Un
buen número de físicos responderá: en el proceso de medida, dependiendo de lo que el
observador quiera determinar. La preparación de las condiciones experimentales, incluido el
equipo de registro, y es de advertir que quien hace el experimento lo debe tener en cuenta, es
un aspecto muy importante, si no fundamental. Hagamos una pausa para preguntarnos: ¿en
últimas, quién es el observador? ¡Un aparato de medida! Pe o… uidado: ese apa ato fue
diseñado por un ser consciente. ¿Entonces?
Empezaremos por una pregunta aparentemente más inofensiva o sencilla: ¿qué es el
comportamiento? Aunque no tengamos una respuesta absoluta, creemos saber cuándo
alguien se comporta ie o uá do ese alguie se o po ta al. Pe o… ¿ al o espe to a
qué, o bien para beneficio de quién? Los peros serán muchos. O mejor: a cada respuesta le
surgirán varias preguntas.
Dejémonos de divagar y vayamos al grano: cuando nos propusimos escribir Quantum Sapiens
quisimos unir dos aspectos que aparentemente están separados. Qué nos hace humanos, es
una pregunta que muchos han tratado de resolver, con mayor o menor éxito. Definitivamente
no es el sapiens, pues esa especie es de más reciente aparición.
Al autor del primer volumen que aparecerá con este título (estamos culminando un segundo y
los otros vienen en camino) se le ocurrió que el quantum podría aportar algo a la respuesta.
Para quienes aceptamos la teoría de la evolución, y solo creencias de tipo religioso o en todo
caso dogmático que niegan la evidencia científica se atreven a decir lo contrario, todo en el
universo ha sido un proceso evolutivo, al menos desde que ocurrió el big bang y un poco antes
(el universo inflacionario). Argumentaremos, sin emplear las matemáticas como lenguaje, que
ese proceso evolutivo ha estado regulado, en gran medida, por los quanta. Para ello será
conveniente remontarnos a los orígenes mismos de la mecánica cuántica y, aunque sea
parcialmente, los de la misma mecánica clásica.
Animado por Leopold Infeld y con la intención expresa de apoyar a este financieramente,
Einstein aceptó el reto de escribir un libro divulgativo con el título La evolución de la física (The
Evolution of Physics: The Growth of Ideas From Early Concepts to Relativity and Quanta,
Cambridge University Press, 1938). Sobra advertir al lector que el libro fue todo un éxito
editorial. Muerto Einstein, Infeld escribió un prólogo con las ligeras actualizaciones que
consideró necesarias (1960). El espíritu con el que fue escrito ese texto en gran medida sirvió
de inspiración a la primera parte de este primer tomo. Su autor intenta retomar lo que
considera una interesante comparación hecha en el primer párrafo del primer capítulo,
primera sección, THE GREAT MYSTERY STORY (EL GRAN MISTERIO, en la edición de Salvat,
1986), entre una novela de misterio y la construcción de la ciencia:
«E la i agi a ió e iste la histo ia de iste io pe fe ta. … “i segui os la t a a uidadosa e te,
llegamos a la solución (del iste io po osot os is os. …»
Pero, señalan los autores, cosa muy diferente ocurre con los misterios en el libro de la
naturaleza. Y recalcan en el tercer párrafo:
«El gran misterio (no subrayado en la versión original) permanece aún sin explicación. Ni siquiera
podemos estar seguros de que tenga una solución final. La lectura (del gran libro de la naturaleza) nos
ha hecho progresar mucho; nos ha enseñado los rudimentos del lenguaje de la naturaleza; nos ha
capacitado para interpretar muchas claves y ha sido una fuente de gozo y satisfacción en el avance a
menudo doloroso de la ciencia. A pesar del gran número de volúmenes leídos e interpretados, tenemos
conciencia de estar lejos de haber alcanzado una solución completa, si en realidad existe.»
Ese párrafo resulta ser hoy más riguroso que nunca. Al gran misterio le han sucedido los
misterios de la física cuántica. Einstein denominó a sus consecuencias Spooky actions at a
distance (SAD o acciones fantasmagóricas a distancia), las que rechazó por absurdas. El
calificativo deja entrever que el padre de la relatividad, al igual que la mayoría de los físicos, no
creía en la percepción extrasensorial (PES). En ocasiones hacen acerca de su religiosidad
extrapolaciones o citas indebidas. El Viejo (el responsable de todo esto, si así se pudiera
llamar) probablemente no está por fuera del universo mismo. Es de anotar que, en la teoría de
relatividad, el espacio y el tiempo surgen de la materia y la energía mismas. Este criterio será
muy importante cuando nos refiramos a la posible causa, si la hay, de las acciones
fantasmagóricas.
De haber hecho su revisión unos pocos años más tarde, Infeld hubiera podido modificar
profundamente la cuarta parte del texto, la que se refiere a los quanta, agregando a ella en
particular, no ya la predicción, sino la comprobación, de esas extrañas acciones instantáneas a
distancia conocidas como entrelazamiento. Formado en la disciplina científica más exitosa del
siglo XX, el autor de los dos primeros tomos (coautor en los siguientes) sobre el Quantum
sapiens reconoce su profunda ignorancia e incapacidad para poder entender esos misterios a
cabalidad. Parecería que el gran misterio cuántico escapara a nuestra comprensión, sería
demasiado complejo. ¡Lo es!
Dejemos de lado las matemáticas, pues ellas son, en últimas, relativamente simples:
pertenecen a las ciencias formales. Estas, aceptando la definición trivial de Wikipedia, son
conjuntos sistemáticos de conocimientos racionales y coherentes, por lo que su objeto de
estudio no es el mundo, ni la realidad físico-natural, sino formas vacías de contenido. El
método propio de las ciencias formales es el método deductivo. Al igual que los otros campos
establecidos de la física, la cuántica echa mano de los avances matemáticos para aplicarlos al
estudio de la realidad.
¿Y qué es, entonces, la realidad? Por aparentemente simple que sea la pregunta para un
filósofo, en física cuántica no hay pleno acuerdo. Tampoco lo hay en la interpretación de
algunos de sus postulados, aunque de su validez no cabe la menor duda. Por esa razón de
fuerza mayor ellos se enuncian rigurosamente en un lenguaje matemático.
El presente texto y el (los) que le sigue(n), una divulgación de la evolución de la ciencia
durante el último siglo en lo que se refiere a El universo cuántico, a sus aplicaciones más
diversas, incluidas las luces que nos da sobre el origen del universo y sobre su destino, y una
reflexión sobre sus implicaciones para la sociedad en que vivimos y sobre la educación del
futuro, evolución de la especie, de nuestro cerebro y del entorno socio-cultural, es hasta cierto
punto una historia de misterio y suspenso no solo del universo y sus partes, también de la
humanidad en menor grado, regulada por los quanta.
Por más que hayamos avanzado en la comprensión del origen del universo y de su
composición, los dos aspectos continúan siendo un misterio: no sabemos a ciencia cierta qué
hubo antes de la gran explosión, si hubo algo, y no vemos más que el 4 % de ese universo que
pretendemos conocer. Pero también desconocemos los intríngulis del origen de la vida, mucho
más los de la mente y la conciencia, así que ignoramos lo esencial en la conformación de
sociedades humanas y en su próxima evolución, antes de su extinción definitiva, sea ésta
causada por un cataclismo cósmico o porque los deterioros infligidos al entorno dejen de
hacerlo viable para la exigente o compleja forma de vida que hemos desarrollado.
A la vez que debemos aceptar nuestro profundo desconocimiento en esos aspectos vitales
sobre las 3 preguntas fundamentales, quiénes somos, de dónde venimos y para dónde vamos,
hemos logrado proezas extraordinarias que bien podrían recrearse en una nueva serie sobre el
ascenso del hombre. (Bronowski, 1973.*) Debido en parte a esas proezas pero sobre todo al
estímulo, desde los empresarios del consumismo y los impulsores (que no creadores) de la
realidad virtual, de un absurdo sentimiento de omnipotencia, de soberbia desmedida que en
nada se compadece o compagina con nuestro humilde origen, tendremos que referirnos
también al descenso del sapiens. No pretendemos hacer una historia de la humanidad en una
*
Jacob Bronowski fue uno de los primeros científicos (fue matemático pero también poeta) que
cambiaron de campo tras los horrores causados por las explosiones nucleares al final de la segunda
guerra mundial (hubo varios) y que a la vez se preocupó por divulgar la ciencia utilizando el nuevo
recurso de la TV. Su serie en la BBC (The ascent of man) fue pionera en ese tipo de programas.
dirección o en la otra. Nuestras pretensiones son mucho más modestas y se centran en unos
temas específicos que por otra parte están llenos de controversias.
Conformado por una sociedad enorme de neuronas, comparable a la población estelar de las
galaxias, cada una de las cuales se encuentra en una intrincada conexión con muchas otras, en
ocasiones con cientos de miles, nuestro cerebro apenas empieza a explorarse a fondo en el
presente siglo; de la sociedad que integramos los humanos, a pesar de ser una asociación de
individuos varios órdenes de magnitud menor que el de las neuronas que forman nuestro
cerebro, en términos cuantitativos o cuantificables conocemos mucho menos: predecir su
comportamiento y evolución es todavía más complejo.
Se dice en algunos textos que la mecánica cuántica es el encuentro de la física con la
conciencia, y así lo han creído algunos de sus más destacados exponentes; es en cierto sentido
la lucha entre el inexorable determinismo o predestinación y el libre albedrío, lo que nos hace
humanos, racionales y, por qué no, espirituales. Esa misma contradicción dialéctica se
presenta con rigor entre la física clásica, determinista, y su contraparte cuántica, probabilista.
Algunos han creído ver algo de espiritualidad y de conciencia en las partículas elementales, en
el electrón y el fotón, por ejemplo. No tomaremos partido, por ahora, a favor o en contra de
esa hipótesis. Lo que es innegable es que, examinando los resultados experimentales, uno se
inclinaría a creer que ellas, las partículas elementales y las substancias simples o compuestas
conformadas por las primeras, tienen una cierta capacidad de decisión. La ciencia, por otro
lado, nos permite prever el destino del universo, de nuestro planeta, hasta de nosotros
mismos, sin que podamos hacer nada por evitarlo. Pero nos abre a la vez un abanico de
posibilidades, como ocurre con el indeterminismo cuántico.
El desarrollo de la humanidad es una historia de cooperación y conspiración, mucho más que
una simple novela de ficción, o si se quiere, un relato de suspenso que pareciera no estar
sacado de la historia real de esa humanidad, de sus individuos y de su cultura: la realidad
desborda a la imaginación. Más escuetamente, vivimos una época caracterizada por los
efectos de la ciencia y de la tecnología sobre la sociedad, pero esa sociedad se comporta cada
vez menos en términos predecibles estadísticamente, vale decir, siguiendo menos los
lineamientos que se esperan de la ciencia predictiva. ¿Qué es entonces lo que nos hace
sapiens? ¿Lo somos realmente? ¿O podremos llegar a serlo?
En las ciencias físicas se dice lo que va a ocurrir desde el comienzo (es el poder de
predictibilidad, característica de la física); fue eso lo que convirtió a la mecánica (debería
llamarse dinámica, por razones que quedarán claras en el apéndice) en la reina de las ciencias
durante la era moderna; surgió después el electromagnetismo, teoría más acertadamente
llamada electrodinámica entre los físicos. Algunos creyeron ingenuamente que era el fin de la
física como contribución al conocimiento científico fundamental. Solo quedarían pequeños
ajustes. Aunque supuestamente en principio podría calcularse todo, la falta de información y
de herramientas adecuadas para hacer los cálculos (computadores con suficiente memoria y
adecuada velocidad) impediría lograrlo. Vino entonces la física estadística, comúnmente
llamada por los físicos mecánica estadística, el soporte racional supuestamente válido del
empirismo que caracteriza la termodinámica. Esa imagen del poder predictivo de las ciencias
físicas llegó a su fin justo a fines de 1900, con la aparición del quantum. El siguiente paso fue el
diseño de la mecánica cuántica; aunque más poderosa en su poder predictivo, ella resultó ser
una teoría probabilista, más exactamente probabilística; pero en principio debería gobernar
todos los aspectos del comportamiento de la materia y de la energía.
Surge así una pregunta ingenua: si estamos hechos de materia y energía, ¿no debería lo
cuántico incidir en nuestro comportamiento, como evidentemente incide en el
comportamiento de todas y cada una de las partículas elementales, de los electrones y de los
fotones, de los átomos, moléculas, agregados de moléculas y, en principio, todo lo demás
hecho de materia y energía, incluidos los nuevos bosones de higgs y los aun indetectables
gravitones? Ningún físico dudaría, en principio, del comportamiento cuántico de los virus, al
menos en su estado inerte, un estado que en realidad no puede ser del todo inactivo hasta
donde podemos imaginarlo desde la nueva física. Un terreno aun en desarrollo, al que
tendremos que regresara forzosamente en uno(s) de los tomos que seguirán a este, es el de la
biología cuántica, o para decirlo con rigor, fenómenos cuánticos en sistemas vivos.
Desde un comienzo la física cuántica influyó en el desarrollo primero de la química y luego de
la biología. De la misma manera que se pudo hablar de la química cuántica con posterioridad al
desarrollo de la mecánica ondulatoria, en particular para explicar los enlaces químicos y las
reacciones que tienen o pueden tener lugar a partir de ellos, hoy se habla de la biología
cuántica para explicar la eficiencia de ciertos procesos fotosintéticos y otros efectos
característicos de sistemas vivos. Aumentó así el poder predictivo de las ciencias naturales.
¿Qué ha ocurrido en las otras ciencias fácticas, incluidas las sociales, humanas, políticas, en
general antrópicas? No es el lugar apropiado para intentar una adecuada clasificación de las
ciencias, pero es importante tener en cuenta que en todas ellas influyó el espíritu de la
mecánica clásica o si se quiere del mecanicismo.
Es tiempo de que la nueva física impregne también otros campos científicos, en particular si se
tienen en cuenta los principios que la diferencian radicalmente del mecanicismo determinista,
un mecanicismo que se queda corto para examinar procesos tan dinámicos como los sociales.
En efecto, la idea del quantum en la física ha generado otros conceptos que podrían ser de
amplio beneficio para todas las ciencias, sin caer en extrapolaciones peligrosas. Uno de ellos es
el principio de incerteza, a menudo mal interpretado. En rigor la mecánica newtoniana excluye
el libre albedrío. Sin que se pretenda afirmar que haya una relación directa entre la incerteza y
la posibilidad de decidir, es satisfactorio comprobar que en el mundo cuántico no todo está
decidido de antemano. Eso se ratifica también a nivel biológico. Algo similar puede decirse del
principio de superposición, otro de los principios fundamentales de la nueva física, traducido a
entrelazamiento cuando se refiere a dos o más partículas. Ellos, superposición y
entrelazamiento, abrieron la posibilidad de la computación cuántica, en general el
procesamiento cuántico de la información. Gracias al poder predictivo limitado de la nueva
ciencia, retomando la idea de Einstein de la novela de misterio extendida al mundo cuántico,
podemos usar ese poder de decisión y de procesamiento de la i fo a ió a uest o fa o … o
en nuestra contra, dependiendo el resultado del manejo que se le dé al nuevo conocimiento;
ello está en nuestras manos, depende de nosotros mismos, de la sabiduría con que se emplee
la información y el conocimiento.
En este último caso, lo de sapiens no ha aplicado del todo, particularmente si se analizan
recientes acontecimientos en el escenario político local y global: la breve historia de la
humanidad en el cosmos llegará dolorosamente a su final mucho antes de lo que la evolución
natural del universo, con él el de nuestro sistema solar y nuestra nave espacial llamada Tierra,
lo pueden permitir. Pero queda una gran esperanza: a lo mejor logremos disponer de mejor
manera de sus recursos para que el final no sea lamentable y no tengamos de qué
a epe ti os… au ue a o este os pa a ha e lo. Co o os lo e ue da Willia Ospi a e
reciente ensayo (Parar en seco, P‘HGE, Bogotá, : La go tie po se e ó ue el fi del
mundo sería un solo evento catastrófico, una suerte de espectáculo cósmico como los que
evoca Rafael Argullol en su admirable libro El fin del mundo como obra de arte. Lo que estamos
empezando a ver más bien podría designarse como el gran malestar.
Quantum sapiens podría traducirse como Sabedor cuántico. El término es sugestivo porque
entre los uitoto, etnia indígena del Sur de Colombia (Amazonia colombiana, específicamente) y
algunas otras regiones (en menor extensión del Norte de Brasil y Perú) sabedor es más que
conocedor. Buinaima es un vocablo para designar al sabedor más profundo entre ellos y, en
opinión de Fernando Urbina Rangel, se extiende también al educador que cuida de la gente,
una acepción particularmente atractiva para nuestros propósitos. (Giraldo, 2006.)
La frase que sirvió de entrada a esta breve presentación fue tomada literalmente de "Physics
and Reality" (1936), en Ideas and Opinions, de la traducción al inglés realizada por Sonja
Bargmann (New York, Crown Publishers, 1982), p.292. Usualmente se traduce y es citada en
forma ligeramente diferente: Lo ás i o p e si le del u i e so es ue sea o p e si le ,
o e esta ot a fo a, ás sutil ás fiel: El ete o iste io del u do adi a e su
i teligi ilidad . Co t asta esta afi a ió o u a f ase at i uida a u o de los físi os ás
brillantes y a la vez controvertibles del presente, Stephen Hawking, distinguido entre 1980 y
o la fa osa áted a lu asia a ue oste ta a e ida Isaa Ne to : No sé ué se á la
ealidad, ás o e i te esa.
Quizá en su momento (1936), poco después de haber sido publicado el famoso texto de
Ei stei , Podolsk ‘ose ue die a luga a la éle e pa adoja EP‘ , la f ase de
Einstein tendría sentido. En nuestra opinión, si hubiera vivido para verlo, podría reconocer que
su citada frase ya no es del todo cierta: el universo ya no es comprehensible, al menos en el
sentido exigido por la localidad einsteniana. Ei stei ol ió a e ui o a se… a a e ta , po
paradójico que resulte, por descubrir la verdad allí donde creyó que tenía que haber un grave
error.
En primer lugar, hoy ya no podría llamarse paradoja: el texto o artículo citado por las iniciales
de los apellidos de sus autores, EPR, se refiere a un experimento pensado; de acuerdo con lo
inverosímil de sus predicciones, no verificadas cuando se publicó, lo que pretendían demostrar
con ello sus autores era la incompletez (¿incompletitud?) de la mecánica cuántica y lo absurdo
de algunas de sus conclusiones. Esto ocurrió casi medio siglo antes de que se diera la
contundente verificación experimental del fenómeno del entrelazamiento cuántico, el más
misterioso de toda la física conocida hasta el presente. (Aspect et al., 1982.) En segundo lugar,
lo que ellos supusieron equivocado resultó ser lo correcto: la localidad en ese experimento
cuántico no se presenta, como lo demostró John Stewart Bell (1966). La Segunda Revolución
Cuántica nos ha llevado a comprobar las más extravagantes predicciones e implicaciones de la
teoría que lleva ese nombre y por ende sus posibles aplicaciones. «El gran misterio permanece
aún sin explicación», y a lo mejor tenga la misma suerte que el gato de Schrödinger: vivo y
muerto a la vez, mientras la caja permanezca cerrada, como establece el principio de
superposición, el más extraño de todos los principios de la física, mucho más que el principio
de incertidumbre. (Véanse capítulos 5º y 6º). O para decirlo en las palabras de Pascual Jordan:
La o se a ió o solo pe tu a lo ue se ide, ella lo p odu e… osot os is os
p odu i os los esultados de la edida. Ja e, .)
A continuación presentamos brevemente el plan de la obra, en particular del primero y el
segundo tomo. Los otros volúmenes de lo que seguramente sea una pentalogía, se encuentran
en preparación. Un término relacionado con el anterior es el pentivium, camino cruzado de 5
vías en el conocimiento al que volveremos posteriormente, en particular en los volúmenes 4 y
5.
El primero tomo es una introducción a lo que empezó como una transformación en la forma de
hacer ciencia, dentro de la más básica de todas, la física, iniciando con un vistazo a vuelo de
pájaro de la evolución de las ideas. Sin pretender una exposición histórica, haremos énfasis en
los personajes que más contribuyeron al desarrollo de lo que se denominó genéricamente
Mecánica Cuántica, en realidad la Primera Revolución Cuántica, particularmente en sus
conceptos, principios e interpretaciones. Nos ocuparemos también de las fantasmagóricas
acciones a distancia y de aquellos misteriosos principios que las predicen, de los efectos del
tunelamiento cuántico y otras rarezas, como las causadas por los efectos del espín, una
intrínseca propiedad cuántica ausente en el mundo clásico, de los condensados cuánticos que
Bose y Einstein predijeron hace casi un siglo y de algunos líquidos cuánticos.
En el segundo empezaremos por las aplicaciones de lo que sin duda alguna ya domina el 50 %
de la economía mundial o la afecta de alguna manera, la industria optoelectrónica y la
nanotecnología. Haremos luego un recuento de lo que, en parte gracias a esa tecnología y en
gran medida también a los modelos teóricos surgidos desde sus principios y postulados, nos ha
permitido avanzar en el conocimiento del universo. Resumiremos lo que nos dice el exitoso
modelo estándar de la física de partículas elementales, algunos modelos cosmológicos
recientes y un poco de lo que nos proponen con los hipotéticos agujeros de gusano, de
imposible verificación, al menos con la tecnología del momento, mencionando de paso las
teorías de supercuerdas.
Ya la física no puede pretender explicarnos lo que ocurre en el universo, simplemente se limita
a predecir el efecto de sus códigos secretos. Pero lo hace con una precisión tal que es como
haber encontrado la llave maestra que abre todas las puertas de los tesoros escondidos en su
vientre. El Homo Quanticus sabe cómo hacerlo, aunque no lo entienda. El Homo Sapiens
debería hacerlo para el bien, no para su propia destrucción, y en eso consiste la sabiduría; esa
es la moraleja a extraer de estas modestas notas ampliadas en el tercer tomo, que no
pretenden explicar, solo exponer, algunos secretos del Universo Cuántico y Complejo. Ese
tercer tomo recoge las ideas centrales de lo que podríamos llamar complejidad y biología
cuánticas. Nos atrevemos a afirmar desde ya que la inteligencia natural (no la artificial) es
inherente a todo sistema vivo, lo que exige más de una justificación. En un proceso evolutivo
del que desconocemos más que unos cuantos eslabones, se llegó de la inteligencia así
entendida a un sistema neuronal más complejo, al cerebro, a los procesos mentales y a la
conciencia. Pero la verdadera conciencia es algo más que la conciencia individual, es la
conciencia colectiva, y la construcción de una conciencia colectiva en la especie humana es un
proceso todavía en gestación, si es que llega a un final feliz antes de que sea demasiado tarde.
El Quantum Sapiens (en ocasiones lo denotaremos por sus iniciales, QS) podría ser el mediador
y es lo que intentamos establecer finalmente. Ese nuevo Sapiens estaría en construcción, es
apenas un proyecto utópico en ciernes pero materializable, al menos eso creemos: más que
entender a cabalidad los misterios del universo, la sabiduría consiste en actuar cabalmente, en
utilizar apropiadamente el conocimiento acumulado. Por eso y por otras razones tendremos
que referirnos en alguno de los tomos venideros al eterno asunto de la educación,
particularmente a la educación en el siglo XXI, tarea que acometeremos en el quinto volumen.
Así, pues, en el tercer tomo, escrito a 6 manos y todavía en preparación, en el cuarto y en el
quinto, si la vida nos alcanza, nos ocuparemos más a fondo de algunas de las implicaciones de
esa física que, aunque se completó en su formulación básica matemática hace casi un siglo y
dio lugar a una revolución tecnológica que transformó el mundo, está produciendo en la
primera parte del siglo XXI una revolución científico-técnica sin parangón, la segunda
revolución cuántica, de enormes repercusiones en la evolución cultural de nuestra especie y
seguramente en su cerebro de primate superior. Quizá esa segunda revolución sea la que dé
lugar en el mundo al verdadero sapiens. En Colombia, si quisiéramos sacar provecho de esa
revolución, tal vez sirviera para la construcción de la verdadera Gran Colombia, la que perdió el
rumbo hace casi 2 siglos y ha estado sumida en la violencia, el mayor cáncer hace un tiempo,
en la corrupción, el mayor cáncer del momento, en la injusticia, la inequidad y la pobreza
producto de todo lo anterior. También a esos temas, los que interesan a la Colombia del
postconflicto, tendremos que volver en el futuro.
Nos hemos referido al sapiens y a la sabiduría, al conocimiento y a la información sin definir un
término que lleva implícito, la inteligencia. No vamos a definirla ahora mismo, pero avancemos
que el universo se guía por ella. El primer atisbo de inteligencia es precisamente la
información. Ella es más fundamental que la materia y la energía. De no haber evolucionado el
universo primordial, un caldo de partículas cuánticas que todavía no acabamos de entender,
en la forma en que lo hizo, no habrían surgido del interior de las estrellas mayores los
elementos necesarios para la vida: carbono, nitrógeno, hierro, fósforo, y otros pesados,
después de que surgieron el hidrógeno, el oxígeno y el nitrógeno, gases también
indispensables para la vida que conocemos hoy. Sin la vida primordial, llámense procariotas o
eucariotas, tampoco estaríamos aquí. Pero nuestra historia se remonta más allá. Somos
resultado de un proceso evolutivo que hemos rastreado hacia atrás en el tiempo por cerca de
14,000 millones de años. La información clásicamente concebida por Claude E. Shannon hace
menos de 80 años tuvo un origen cuántico, es la tesis que nos atreveríamos a plantear: son los
qubits. Es en ese orden de ideas que se puede concebir el remoto origen de esa soberbia
especie que llamamos sapiens y que hoy amenaza con extinguir la vida en el planeta que
habitamos. Tenemos pues un origen tan humilde o grandioso como queramos imaginarlo: los
quanta. Con la idea del quantum sapiens asistiríamos a nuestro propio descubrimiento.
Esperamos no asistir a la extinción anticipada de la nave espacial llamada tierra, nuestro lugar
en el cosmos, al menos por ahora.
Al autor del primer tomo le pareció interesante terminar esta ya larga advertencia al lector con
una frase de Héctor Raga, a la que sigue el mensaje de un pod fascinante:
«La materia a nuestro alrededor es formidablemente diversa. Desde la tenue luz hasta el rígido
diamante o desde los metales hasta el agua y las moléculas que nos forman, la variedad es formidable.
Uno de los méritos de la ciencia del siglo XX fue comprender que toda esta diversidad que evidencia la
materia es expresión de su estructura cuántica subyacente. La humanidad dispone de una teoría que
desafía abiertamente nuestro sentido común pero miles de experimentos y éxitos son garantía de que
es una teoría correcta. La física cuántica nació tras el fracaso de la física de Newton y el
electromagnetismo, en trance de explicar las intimidades de la materia. Nuevos conceptos, resultados
experimentales y matemáticas comenzaron a ajustarse y en varias décadas los físicos construyeron una
teoría capaz de abordar la realidad a la menor de las escalas, que nos brinda explicaciones de los
fenómenos observados, y que es exitosa a la ho a de a ti ipa fe ó e os ha e p edi io es. … A
pesar de que nuestra intuición no puede vislumbrar el extraño mundo cuántico, los éxitos de la cuántica
so ta o tu de tes ue se i po e o o u a des ip ió álida del i o u do. … Teo ías p ofu das
suscitan preguntas profundas. La física cuántica es sin duda uno de los logros más elaborados de la
humanidad.» (Vea y escuche el post completo en http://halley.uis.edu.co/aire/?p=1506.)
Paradoja sintética: La teoría más incierta resultó ser la más cierta de todas.
A MODO DE PROLEGÓMENO
Un largo trecho
«El hombre es el primer animal que ha creado su propio medio.
Pero —irónicamente— es el primer animal que de esa manera se
está destruyendo a sí mismo.» Ernesto Sábato, físico …. sapiens
*
Eugenio Andrade es profesor pensionado de nuestra Alma Máter; Carlos Eduardo Maldonado es
profesor e investigador de la Universidad del Rosario. Los dos han escrito destacados artículos y libros
e sus te as de i estiga ió ot os ue les so e a os… U a ota de uartillas presentando a
mis famosos cuates, compadres y cómplices cuánticos).
comportamientos son clásicos, a escalas diminutas, en donde se observan frecuentemente
comportamientos cuánticos. No es necesario llegar a la región atómica para que eso ocurra.
Nos hemos referido a lo nano en más de una ocasión en las secciones anteriores y lo haremos
repetidamente a lo largo de este y el próximo tomo. ¡Tan importante lo consideramos!
Recuérdese que fue, en cierto sentido, el comienzo de la aventura, la exploración del universo
a diversas escalas, el origen de lo que nos proponemos con el quantum sapiens. Es de destacar
que Einstein dedicó el primero de sus revolucionarios artículos de aquel milagroso año 1905 a
esclarecer el movimiento de nano-objetos o partículas microscópicas extremadamente
pequeñas. Está próximo a publicarse un texto divulgativo en el que se hablará desde diferentes
enfoques acerca de lmo que en nuestra opinión puede llamarse Nano-revolución, de sus
promesas, riesgos y amenazas. (Giraldo, 2017.) ¿Por qué consideramos ese tema como de
trascendental importancia? En la segunda parte, dedicada a las aplicaciones de la mecánica
cuántica, haremos una breve sinopsis del mismo. Por ahora, baste con destacar lo esencial del
asunto, empezando por señalar que la nanotecnología es la más importante de las llamadas
tecnologías convergentes, a las que se presta atención en el texto arriba citado.
El término bien podría referirse a convergencia del conocimiento, pero en la visión simplista de
quienes lo utilizan, se limita a la convergencia de varias tecnologías, impactadas todas ellas por
la nanotecnología o tecnología a escala nanométrica, vale decir, por las aplicaciones de la
mecánica cuántica. En el sistema M.K.S.A. (metro-kilogramo-segundo-amperio) que
usualmente se emplea en nuestro medio, a la unidad de medida, el metro, se le acompaña
como bien se sabe de múltiplos y submúltiplos. Para expresar la magnitud de las diversas
unidades e suele emplear la denominada notación científica. El kilómetro, 1000 metros, se
expresa así: 1 km = 103 m. La milésima parte del metro, el milímetro, se escribe: 1 mm = 10 -3
m. Así, pues, el nanómetro, nm, equivalente a una milésima de milésima de milésima de
metro, se denota así: 1 nm = 10-9 m.
Para ilustrar en tamaño lo que eso significa, demos unos ejemplos. El radio del átomo de
hidrógeno, H, es aproximadamente igual a medio angstrom, más rigurosamente, ångström o Å.
1 Å = 10-10 m, así que el radio de un átomo de H será de 0.5 Å o 0.05 nm. Los átomos caen
ligeramente por debajo de la escala nanométrica. Por el contrario, el grosor de un cabello es
de unos cientos de nm.
Un nanómetro es ciertamente una unidad de longitud muy importante en una de las escalas
que nos interesan, la escala atómica y la molecular. A esa escala y un poco más arriba los
efectos cuánticos son de fundamental importancia. En la inferior, la subatómica, también de
fundamental interés en el tema que nos ocupa, tendremos que introducir otras unidades; una
de ellas, el fermi o femtómetro, es la más destacada en el terreno de los fenómenos nucleares.
A todos ellos, lo nano y lo nuclear, volveremos en la segunda parte.
Desde el comienzo del CPTPT, Andrade y Maldonado han contribuido con sendas conferencias
al desarrollo del mismo. Por esta y muchas otras razones, surgió la idea de escribir un ensayo a
seis manos que incluyera lo cuántico, lo complejo (incluido lo social) y lo biológico
(doblemente complejo), ambiciosa tarea todavía inconclusa que esperamos iniciar, de ninguna
manera completar, en el tercer tomo.
Con el título se quiere sugerir que, si bien este primer texto y el curso que le acompaña es una
introducción light a la cuántica, en modo alguno vulgarizadora (eso es lo mínimo que
esperamos), no se ha adoptado en él un enfoque convencional del tema central, la QT; lo de
sapiens, aunque secundario en cuanto a la profundidad que a él se dedica dentro de los
primeros 2 tomos, por falta de espacio-tiempo, sigue siendo lo fundamental, pero desde otra
perspectiva: tiene que ver de nuevo con el humanismo y la humanización, o si se prefiere, con
ese proceso evolutivo de 13,750 millones de años que nos ha llevado a estar donde nos
encontramos. Con el subtítulo (1ª y 2ª revolución cuántica, para el primero y tercer tomo
respectivamente) se están anticipando las conclusiones. Una de ellas, quizá la más importante,
es ésta: La segunda ola, la mayor revolución o verdadera Era de la Información está por venir e
involucra a los quanta. En otras palabras, aunque la información siempre ha estado presente,
desde antes de la gran explosión, hasta ahora se tiene la oportunidad de utilizarla en forma
más refinada, gracias en gran medida a la comúnmente denominada mecánica cuántica y a sus
aplicaciones, sobre todo futuras. Eso introducirá profundos cambios en la especie humana, en
su comportamiento y en su futuro desarrollo o evolución. ¿Puede nuestra especie, sobre todo
su dirigencia política y social, seguir ignorando olímpicamente esa parte fundamental de la
ciencia mientras que por otro lado la tecnología toda depende cada vez más de aquella? A
responder esa pregunta, o mejor, a ratificar que lo cuántico invade todas las esferas del
universo y por ende del ser humano, quieren contribuir estos textos. ¡Y un poco más!
¿Qué hay en el interior de las células? Cualquiera diría que átomos y moléculas, una respuesta
incompleta. Los llamados organelos u orgánulos generalmente son de tamaño nanométrico.
Los microtúbulos que conforma su citoplasma son en realidad nanotubos. Las propiedades que
determinan, no ya su estructura, más bien su funcionalidad, son cuánticas. Ellos, los
microtúbulos, son esenciales en los mecanismos de transporte dentro de la célula, lo que
ciertamente ocurre a nivel atómico y molecular, a nivel iónico si se quiere. Por otra parte, el
transporte de información de una a otra neurona en las células especializadas que reciben ese
nombre y que conforman el cerebro, por primitivo que sea, de los organismos pluricelulares,
se da gracias a procesos electroquímicos, vale decir cuánticos, en las dendritas y conexiones
sinápticas. De nuevo aparecen efectos cuánticos en regiones nanométricas. No ha sido bien
recibida por la ortodoxia de la física la propuesta de Roger Penrose y otros del papel de los
microtúbulos en el origen de la conciencia. Pero sus argumentos no pueden descartarse
simplemente desconociéndolos. A ese tema volveremos en el tercer tomo. El hecho concreto
es que en el nanomundo o universo nanométrico los efectos cuánticos generalmente son muy
importantes, si no decisivos.
Hasta aquí va la verdadera introducción; lo que sigue es una ampliación o motivación más
profunda para reflexionar sobre las nuevas perspectivas de la humanidad, las nuevas
expectativas para Colombia) desde un punto de partida cuántico. Puede dejarse de lado en una
primera lectura, a juicio del lector.
Prolegómenos
Es posible que en una próxima edición, seguramente indispensable si la idea original sobre el
quantum sapiens en 3 o más tomos sobrevive, la actual distribución de este primer volumen se
modifique. Entonces los prolegómenos extendidos podrían ser, por conveniencia, una primera
parte. Por ahora, se intenta con ellos exponer ampliamente algunas de las motivaciones
adicionales (quedarán muchas pendientes) que nos llevaron a escribir las diversas secciones en
que estaría dividido el ensayo en su totalidad: incursionar en el tema sugerido por el adjetivo
sapiens desde el punto de vista evolutivo, para relacionarlo con el tema principal, los cuantos,
sus aplicaciones e implicaciones, y orientar al lector para que saque sus propias conclusiones,
con un mejor aprovechamiento del contenido. Podría decirse que el apéndice, una breve
introducción a la física clásica, forma parte de la sección introductoria. Si se ha puesto al final
del primer tomo en esta primera versión, es porque se abriga la esperanza de que, más allá del
lector inquieto, el material interese también, aunque sea medianamente, a algunos de los
iniciados en el tema de la física, al menos a los estudiantes de la disciplina, ciencia básica por
excelencia, a los de otras ciencias y de las ingenierías, en cuyo caso no amerita que se
incorpore dentro de la parte central del texto. En otras palabras, aunque la orientación que se
le quiere dar a estas notas tiene un componente humanístico considerable, los asuntos
tratados en el primer tomo no se han podido desligar demasiado del enfoque convencional. El
epílogo será apenas un abrebocas para los que vendrán.
Anticipemos, pues, que el tema de la evolución biológica y otros relacionados, el origen de la
mente y de la conciencia, una nueva revolución cognitiva alimentada por la inteligencia
artificial, por ejemplo, y algunos más que nos interesan, no se cubrirán a satisfacción por
ahora. Observemos, de paso, que a pesar de los avances, los logros hacia el entendimiento de
lo que somos son todavía incipientes. Más que sapiens sapiens, somos en realidad sapiens
incipiens.* O como proponen Margulis y Sagan (1997), insapiens insipiens.
Filosofía Natural y Filosofía de la Naturaleza
Aunque estén relacionadas, las dos denominaciones no se refieren a lo mismo. En rigor, habrá
que definir los dos términos, filosofía y naturaleza, definiciones que han cambiado con el
correr de los milenios, particularmente la del segundo término. Lo natural es el complemento
de lo que es cultural o cultivado, en rigor su fundamento. No son suficientes las nociones o los
conceptos intuitivos; habrá que refinar estos a partir de la reflexión. Para acercarnos a una
definición que se acomode a nuestras pretensiones, en principio modestas, habrá que tener en
cuenta las ciencias, no solamente la física, también la química, la biología y, por supuesto, la
astronomía. Una galaxia es naturaleza. Postulamos que el universo en su totalidad también lo
es. Puede haber mucho más incluido en la totalidad.
Si filosofía es reflexión o pensar sobre la totalidad, en rigor habrá que detenerse a pensar qué
es totalidad. ¿Se incluye en la totalidad lo que no es real? Habría que definir primero la
realidad. A renglón seguido habría que aclarar que no se trata de un pensar cualquiera, sino de
un pensar metódico y sistemático.
Los Principia Mathematica en primera instancia se refieren a una trilogía o tratado de 3 libros
escrito por Bertrand Russell y Alfred North Whitehead. A ellos tendremos que volver en el
futuro. Cuando se habla de los Principia Mathematica escritos por Isaac Newton, se evoca de
inmediato Philosophiae Naturalis. Estos son los principios de la mecánica. Es la primera
elaboración consistente de la cosmología. Los principios matemáticos de la electricidad y el
magnetismo vinieron mucho después, con James Clerk Maxwell.
Si se quiere superar el espíritu con que fueron escritos los tratados sobre mecánica, sobre
electromagnetismo y otros más, igualmente especializados, no basta con eso¸habrá que hacer
*
A aclarar estas denominaciones latinas ha contribuido el prologuista, mi maestro y cómplice Carlos
Eduardo Vasco, quien de paso me ha animado a mantener en alto el espíritu de buinaima.
referencia a la Filosofía de la Naturaleza. Por brevedad, digamos que es un pensar metódico y
sistemático sobre el universo en su conjunto, incluido el hombre en su naturaleza. Es pues
diferente a elaborar una teoría sobre la naturaleza en alguna de sus formas.
Si por razones prácticas conviniéramos en que la totalidad es lo natural más lo cultural, el
conocimiento en todas sus formas es parte de la cultura. Para no extendernos demasiado en
estas consideraciones que retomaremos en uno de los volúmenes posteriores, por analogía
con el trívium y el quadrivium de la antigüedad y de la edad media proponemos un pentivium o
camino cruzado de cinco vías. Recordemos que el trívium era el conjunto de tres vías de
conocimiento y argumentación, a saber Gramática, Retórica y Lógica. El quadrivium, por su
parte, se entendía como el camino cruzado de 4 vías de conocimiento y agrupaba las ciencias
relacionadas con los números y el espacio: Aritmética, Geometría, Astronomía y Música. En su
conjunto formaban lo que se denominó Artes Liberales.
Sugerimos una agrupación más completa e integradora. El Pentivium que agruparía a las cinco
formas de conocimiento y que daría lugar en su conjunto al conocimiento integrado estaría
conformado por el arte, la ciencia, la tecnología, la filosofía y el conocimiento ancestral o, si se
prefiere, el conocimiento acumulado. Este será tema que retomemos en otro de los
volúmenes. Vamos de inmediato a lo que más nos interesa en esta primera parte.
Cuerpo negro, cuantización y evolución como conceptos
Confiamos que dejaremos claro antes del epílogo de este primer tomo el significado de
algunos términos que se utilizarán en esta prolongada introducción a las distintas partes que
conforman QS I. Precisar la terminología, en especial sobre lo que tiene que ver con los
Quanta, lo que se hará en particular en la primera parte, no significa que hayamos entendido.
Antes bien, si el lector desprevenido (el no físico) no siente vértigo al terminar esa primera
parte, es porque no ha entendido las implicaciones de los principios cuánticos, esbozados en
ella sin el formalismo matemático que se requiere. No cabe duda que los físicos, los buenos
estudiantes de la disciplina y con ellos muchos otros profesionales que necesitan del
formalismo, el cual suele enunciarse al estilo de los postulados matemáticos, lo entenderán.
Quizá ni unos ni otros hayan comprendido el mensaje; los autores confiesan que todavía no lo
comprenden del todo. La segunda parte de este primer tomo servirá solamente para referirse,
sin mayor profundidad, a algunas aplicaciones que podrían denominarse clásicas; es una
especie de motivación, para que el lector convencional siga adelante; las verdaderas
aplicaciones, con el comportamiento cuántico como característica esencial, están por venir. La
tercera y cuarta parte nos acercarían a la revolución (¿evolución?) que estamos viviendo. Allí el
vértigo puede producir náuseas… o convertirse en pesadillas. Comencemos.
Pregunta hipotética de un lector bien informado, sugerida por el título: ¿Qué tiene que ver el
quantum con la evolución de la especie humana?
Respuesta parcial de este autor: Mucho, al menos tanto como lo ha sido para la evolución del
universo.
Desde aquel ya lejano 14 de diciembre de 1900, cuando Max Planck (1858-1974) acuñó
oficialmente el término, o lo rescató del latín clásico, QUANTA se ha convertido en sinónimo
de paquetes. En esencia, Planck se refería a paquetes de energía. En otras palabras, la energía
parece discreta; tuvo que suponerlo de esa manera o imaginarla así para poder deducir o
reproducir una fórmula o receta descubierta por él (para el lector curioso, se transcribe en la
figura 2.2), tratando de darle fundamento a la forma en que la materia, es decir, los objetos o
los cuerpos todos, radian o emiten y absorben energía electromagnética cuando están en
equilibrio termodinámico. Es sano advertir que los cuerpos vivos jamás están en equilibrio
térmico. En su momento, finales de 1900, lo que tuvo que suponer Planck sonaba a exabrupto;
era aparentemente una descabellada idea. Conviene tener en cuenta que en el círculo cerrado
de los físicos alemanes, al que pertenecía Planck, no se aceptaba todavía la hipótesis atómica
más que como una idea auxiliar sin fundamento científico; ortodoxo, como sus maestros
(Helmholtz y Kirchhoff, entre otras celebridades), su tesis doctoral versó Sobre el segundo
principio de la termodinámica; fue inicialmente profesor en la Universidad de Kiel y sucedió
luego a Kirchhoff en la Universidad Federico Wilhelm, hoy Humboldt, en Berlín,
probablemente por incidencia de Helmholtz. Trabajaba a la sazón en el problema de la
Radiación del cuerpo negro.
El cuerpo negro, como se denomina en física al emisor-absorbente ideal, es el prototipo de
objeto material (macroscópico) ideal, como lo fue masa puntual para la Mecánica. Un cuerpo u
objeto cualquiera debe absorber la misma cantidad de energía que emite, si está en equilibrio
termodinámico, es decir, si no se calienta o enfría, si se quiere que se mantenga a la misma
temperatura de su entorno.
Sin proponérselo, Planck terminó asestando un duro golpe a la ortodoxia del momento, mucho
más fuerte que el propiciado al llamado oscurantismo de la Iglesia Medieval por el clérigo
Nicolás Copérnico. También por la época en que Charles Darwin, medio siglo antes que Planck,
acuñó el término selección natural para las variaciones en las especies, aquel tuvo que romper
el paradigma de su tiempo. Hoy la palabra preferida es evolución (teoría de la evolución) y será
la que utilicemos. Es notable que en el primer tomo de El origen de las especies, el responsable
mayor de esa teoría no emplee el término evolución una sola vez, y es bien sabido también
que Planck en su primera conferencia ante la Sociedad Prusiana de Física, en octubre, no
utilizó la constante h que lo hizo famoso; abrigaba la ilusión de que su desesperada hipótesis
de la cuantización de la energía fuera provisional; al fin y al cabo, el valor de la constante, por
ende el valor de los paquetitos, era algo inconmensurablemente diminuto. Para Darwin, las
variaciones serían extremadamente lentas. Ni Planck ni Darwin imaginaron lo que vendría
después.
La Mecánica Cuántica, como se denominó a la teoría de la física que surgió un cuarto de siglo
después de que fuera lanzada la desesperada hipótesis, no tiene que ver solamente con
diminutos paquetes de energía sino también con otros aspectos. Son fundamentalmente 3
características de la materia toda en su integridad e integralidad, observables en la
microescala: discreticidad, ondulatoriedad y coherencia, las que marcan la pauta del
comportamiento cuántico. Las dos primeras son antagónicas en la lógica clásica, mientras que
la tercera se refiere a una situación que raramente se presenta en el macrocosmos, pero que
da lugar a resultados sorprendentes.
Para empezar, la discreticidad es sinónimo de discontinuidad, mientras que la ondulatoriedad
lo es de continuidad. A las partículas que creíamos elementales, como el protón y el neutrón, y
a las que lo siguen siendo, como el electrón y el fotón, les denominamos genéricamente
corpúsculos, nombre sugerido por Joseph J. Thomson (1856-1940), lo mismo que a átomos,
moléculas y otros objetos diminutos. El término es, pues, ambiguo, pero invariablemente hace
referencia a elementos discretos en el sentido matemático. No se puede hablar de medio
electrón ni de medio fotón. Aunque no es posible disponer de medio átomo, es claro que ese
objeto dejó de ser indivisible, pero sus partes o componentes son discretas. Cada una de esas
componentes discretas es idéntica para todos los casos: un electrón es indistinguible de todos
sus congéneres y así sucesivamente, hasta constituir por ejemplo los átomos de una sustancia,
todos idénticos entre ellos. Por el contrario, una onda sonora en el aire o en un medio material
cualquiera se supone continua, y el sonido lo es para todos los efectos prácticos. Una onda se
modifica o evoluciona en el tiempo y en el espacio. Si se examina más en detalle, la
propagación de la onda sonora en el aire no es más que resultado de la interacción entre los
corpúsculos atómicos o moleculares que componen el medio, el cual obviamente no es un
compuesto sino una mezcla de diferentes gases. Algo muy diferente ocurre con las llamadas
ondas de luz, la radiación electromagnética, como se subrayará a lo largo del texto. O con las
ondas de materia, en donde el concepto mismo de onda pierde su materialidad. Los
corpúsculos de materia pierden su realidad mientras no observemos o colapsemos la onda que
los describe, como veremos.
Preferimos asimilar el término coherencia al de cooperación, aunque no necesariamente
redundan en lo mismo. De cooperación se tratará en algunas ocasiones, particularmente
cuando de especies vivas hablemos, mas veremos que es un fenómeno universal. En otras
ocasiones, estableceremos simplemente una correlación, como suele hacerse
estadísticamente. Este último término, correlación, merece un examen más cuidadoso, lo que
haremos en tomos posteriores.
Así como hay 3 características de la fenomenología cuántica, hay también 3 pilares de la que es
versión dominante en su formulación teórica. Esa versión se suele denominar interpretación de
Copenhague, y sus pilares básicos son: un ente matemático denominado función de onda, la
que tiene a su vez una interpretación probabilística y dos principios básicos a saber, el
principio de incertidumbre o incerteza y el principio de superposición; los dos están
emparentados con un tercer principio, el de complementariedad.
A los principios volveremos en el capítulo quinto. Retornemos al darwinismo, al que
volveremos a fondo en el tercer tomo. Tal como ocurriría con el término quantum aplicado a lo
pequeño, a la postre tampoco la palabra evolución quedó reservada para las grandes especies.
Es de aclarar que en la obra de Darwin el término grande se refiere a población abundante;
incidentalmente, Darwin estudió solo objetos macroscópicos, como lo hizo Planck. ¿Qué son
objetos macroscópicos? Son los que tienen dimensiones apreciables, como para poderlos ver o
examinar a simple vista. Durante el siglo XX, la cuantización y la evolución se manifestaron más
claramente a escala microscópica. Cuando se pudo indagar con instrumentos más poderosos, a
un nivel cada más profundo, se encontró que en las formas más elementales de la vida se da la
evolución o variación de la hoy denominada herencia genética. De la misma manera se
descubrió, utilizando las más modernas técnicas y los recientes observatorios y telescopios
espaciales, que en el interior de las estrellas, al interior de las galaxias y en las profundidades
del espacio tiempo, a la vez que priman fenómenos cuánticos se producen transformaciones
descomunales: el universo no solamente se expande, sino que lo hace cada vez más
vertiginosamente. ¿Será que todo en el universo evoluciona, incluso lo que creíamos absoluto?
Es posible, nadie lo sabe, que las llamadas constantes fundamentales hayan tenido esa
característica evolutiva desde lo que pudiera llamarse, por simplicidad o por ignorancia, el
comienzo de la aventura. ¿Podemos hablar con propiedad de un darwinismo universal? ¿Es
real el darwinismo cuántico? Dejaremos al lector que saque sus propias conclusiones. Pero
queremos anticipar que los denominados efectos cuánticos se manifiestan a todas las escalas y
en el universo entero. La evolución se da al cruzar la barrera de lo cuántico a lo clásico, de lo
microscópico a lo macroscópico, de la reversibilidad a su contrario, la irreversible flecha del
tiempo que opera desde los agregados moleculares hasta las desmesuras cósmicas.
Hemos sido producto de una evolución biológica de miles de millones de años. Nuestros
ancestros más cercanos son los denominados primates. El homo habilis y el homo erectus
(probablemente antes que ellos el homo naledis) precedieron al homo sapiens en dos o más
millones de años. El neanderthal, que convivió con la especie humana por más de doscientos
mil años, se extinguió hace cerca de treinta mil; se arguye que una de las razones pudo ser el
poco desarrollo de su sociabilidad. A juzgar por los daños irreversibles que seguimos
produciendo en el medio ambiente y el relativamente poco desarrollo de sentimientos de
solidaridad y sentido de cooperación en la especie humana, podría anticiparse que nuestra
extinción también se acelera. ¿Será que SAPIENS es la expresión correcta para referirse al
gran depredador que conocemos y con el cual, querámoslo o no, tenemos que identificarnos
cada uno de los siete mil y más millones de ejemplares que compartimos el planeta Tierra?
Regresemos a la cuantificación. Sería absurdo hacer alusión siquiera a una fracción de hombre.
O se es o no se es. En ese sentido, la pregunta ¿cuántos somos?, se responde con un número
entero positivo, generalmente plural: 2, 3, 10 o un número natural cualquiera, incluido el 1.
Pero esos 2, con mucha más razón los 3 o 10, etc., ya no son idénticos, a diferencia de lo que
ocurre con las partículas elementales. El concepto de objetos idénticos, inicialmente
matemático, se vuelve realidad en ese mundo de partículas, pero se disuelve a medida que los
objetos se vuelven más complejos, tema al que también volveremos en la tercera parte.
El vacío nos extiende el dominio al cero, jamás a los negativos (aunque enseguida diremos lo
contrario), mucho menos a los fraccionarios (pero hay efectos cuánticos fraccionarios) o a los
i a io ales… o a los i agi a ios, que los hay, no necesariamente los seres ideales. Ya veremos
que del vacío cuántico sí pueden surgir todo tipo de partículas. Con energías negativas
surgieron las antipartículas. Así lo hizo Dirac, abriéndole espacio (y tiempo) a la antimateria.
Pero, ¿qué es el vacío? Antes de intentar una respuesta a esta última pregunta, vale la pena
hacerse otra que en cierto modo es la antítesis de la anterior: ¿Qué es el Universo?
Provisionalmente dejémoslo con mayúscula para darle una mayor connotación y diferenciarlo
del uso genérico que haremos del término. A la comprensión de ese Universo no pretendemos
aportar mucho, más bien poco o casi nada. Sobre él se ha reflexionado desde tiempos
inmemoriales. Alguna interpretación de la teoría cuántica nos habla de multiversos. Esto no
será asunto que nos incumba, por ahora; antes de abordar el universo cuántico, vale la pena
recordar aquí lo que afirmara una de las más interesantes escuelas presocráticas, la epicúrea.
Según Demócrito, solo los átomos y el vacío son reales . En esa concepción, los átomos son
indivisibles, por ende están cuantificados. La realidad está compuesta por dos causas (o
elementos): το ο (lo que es), representado por los átomos homogéneos e indivisibles, y το
ηο (lo que no es), representado por el vacío, es decir, aquello que no es átomo, el elemento
que permite la pluralidad de partículas diferenciadas y el espacio en el cual se mueven. Los
átomos se distinguen por su forma, tamaño, orden y posición. Gracias a la forma que tiene
cada átomo, estos pueden ensamblarse —aunque nunca fusionarse: siempre subsiste una
cantidad mínima de vacío entre ellos— y formar cuerpos que volverán a separarse, quedando
los átomos libres de nuevo hasta que se junten con otros.
Leucipo, Demócrito y sus discípulos sostuvieron que la luz y los átomos están estrechamente
conectados. Para ellos la luz sería un flujo de partículas extremadamente diminutas. Veintitrés
siglos después Einstein agregaría que esas partículas, granos de energía, se mueven siempre a
la misma velocidad. ¡No todo es relativo! Pero la idea original de los primeros atomistas
sobrevive: esas diminutas partículas o quanta, son emitidas o absorbidas por los átomos o los
compuestos a que estos dan lugar: otros quanta, en el sentido postmoderno del término. Solo
los quanta y el vacío son reales. (Con una condición: para hacerlos reales, en el sentido clásico
del término, se requiere de un observador.)
Y si volvemos al concepto ideal de partículas idénticas, debemos reparar en el hecho de que, si
bien un electrón, para ilustrar el caso más sencillo, es idéntico a otro, dos fotones de diferente
color ya no lo son: sus energías son diferentes. En cambio los fotones de un haz coherente,
como lo es el denominado rayo LASER, o haz de luz producido por emisión estimulada de
radiación, que es lo que significa la sigla en inglés (light amplification by stimulated emmision
of radiation) en principio son todos idénticos, no solo en su frecuencia (energía) sino también
en su cantidad de movimiento. El electrón, como ejemplo de partícula material, y el fotón,
prototipo de energía pura, difieren en otras características, una de ellas, la más importante
desde el punto de vista cuántico, es que el primero es un fermión, mientras que el segundo es
un bosón. Los fermiones obedecen un principio fundamental que los hace diferentes, el
principio de exclusión. El significado de todos estos términos se aclarará a su debido tiempo.
Más allá de la dialéctica
En principio es posible referirse a una internalidad, de un lado, y a una externalidad, del otro.
Eso es solo en principio. La cinta de Möbius es un ejemplo en contra de esta idea clásica. Por
cierto, el símbolo de Buinaima vino de esa topología matemática, aplicada primero al trívium
(un runa vikingo), después al pentivium (nuestro árbol del conocimiento, como le llamaremos).
También en principio nos podemos referir al aquí y al ahora; el problema es que el espacio
(aquí) y el tiempo (ahora) son relativos. Asumimos que ellos, espacio y tiempo, tal como los
concebimos, son continuos. Ingenuamente supusimos que eran absolutos. Desde muy antiguo
se supuso también que eso que podríamos llamar universo, el conjunto de la materia en el
espacio-tiempo, era continuo. Esa suposición fue puesta en tela de juicio más de una vez hasta
que se llegó a la época moderna y se pudo intentar ir más lejos que simplemente suponerlo.
Nació así la ciencia moderna. En esa ciencia moderna, tal y como fue evolucionando a lo largo
de unos pocos siglos, surgieron la nueva astronomía (la antigua estaba fuertemente
emparentada con la astrología), la física (la que empezó con Aristóteles no estaba del todo
desligada de la metafísica), la química (la que poco a poco se fue separando de la alquimia), la
biología (aunque todavía no estamos seguros dónde empieza la vida, la biología sintética es ya
un hecho) y tal vez otras que con el tiempo podrían volverse básicas (hablamos, por ejemplo,
de las neurociencias, y abrigamos la esperanza de que pronto ellas nos resuelvan algunos de
los misterios relacionados con la mente y la conciencia); en matemáticas se logró un desarrollo
como nunca antes había ocurrido. Finalmente se encontró que tampoco ellas son
rigurosamente ciencias exactas, aunque no hayan perdido su carácter formal. Se tiene ahora
una imagen mejor del universo, tal como lo conciben los cosmólogos modernos, y de sus
constituyentes, como lo imaginan (imaginamos sería mucha pretensión) los científicos.
Resumamos.
Antes de que pudiera zanjarse la discusión sobre el problema de si la materia es continua o
discontinua, se desarrolló la mecánica, a finales del siglo XVII. Los 2 siglos siguientes vieron el
desarrollo de la electricidad y el magnetismo, o el electromagnetismo, como se le denominó
más tarde, o la electrodinámica (ED), como preferimos denominarla hoy. A finales del siglo XIX
quedó claro que también la luz, energía radiante, forma parte de la materia. Pero se tenía
entendido que había partículas o corpúsculos, por un lado, y ondas por el otro. Las ondas
materiales, por ejemplo el sonido, las ondas en las cuerdas o en el agua, etcétera, requerían de
un medio para avanzar. La luz, una onda muy singular, podría viajar en el vacío, pero ese vacío
estaría lleno de un éter, un no-vacío, una sustancia con propiedades muy extrañas que
permearía todo y podría servir como sistema de referencia absoluto. Por lo demás, durante el
siglo XIX se desarrolló la termodinámica y la mecánica estadística, dos versiones en contravía
de una misma teoría que a la postre produce los mismos resultados; del continuum
termodinámico que imagina el calor como una sustancia, se llega al discontinuo mundo de
granos de materia (supuestamente los átomos) que, al moverse o agitarse, dan lugar a ciertos
grados de libertad que explicarían el calor específico de gases, líquidos y sólidos, en estos
últimos sin mucho éxito.
A fines del siglo XIX la tarea de los físicos ya habría concluido. ¡Falsa ilusión!, como veremos. El
primero en percatarse de que la idea de un continuum conducía a grandes dificultades, al
menos de momento insalvables, fue Planck. Luego Einstein echó por tierra la idea de un éter
luminífero e introdujo por primera vez el concepto de dualidad onda-corpúsculo para la luz.
Introdujo también una nueva concepción del espacio-tiempo y de la gravitación, modificando
de paso las leyes de la mecánica newtoniana, o mejor, la concepción mecanicista del universo.
Buscó desesperadamente una teoría en términos de campos que fuera unificada, que
permitiera unificar los fenómenos a un nivel fundamental y cosmológico. Esto último no lo
logró, pero al menos trasladó a la luz, al electromagnetismo, el papel de mensajero de las
interacciones y por ende vehículo apropiado para la propagación de la información, de las
señales no solo luminosas, también las microondas y los rayos X y otras ondas que deberían
ser a la vez partículas o granos de luz, en el espectro visible, o granos de energía en el caso más
general.
Por el lado de la química, la hipótesis atómica había ganado credibilidad, pero seguía siendo
una hipótesis sin fundamento para físicos tan destacados como Mach y Ostwald, algo
totalmente inverificable, como el supuesto éter. Lo cierto es que esa hipótesis había servido
para entender muchas reacciones químicas, construir la Tabla Periódica de los Elementos y
desarrollar nuevos procesos industriales. De la espectroscopia, tan útil en la exploración de la
materia, no se entendían sus fundamentos: ¿por qué los espectros de los elementos y de los
compuestos, tanto de absorción como de emisión, vienen constituidos por líneas discretas?
Para entenderlo, fue necesario introducir el concepto de dualidad onda-corpúsculo, primero
para la luz, un hecho aceptado inicialmente por Bohr, también para el electrón, una atrevida
propuesta de un noble, estudiante de doctorado, el príncipe Louis Víctor de Broglie (1892-
1987).
Surgieron entonces mejores microscopios, los electrónicos y los atómicos, y nuevos
telescopios, en todo el espectro, incluida la región de las microondas. Así como el telescopio
aportó observaciones valiosísimas para la astronomía y el desarrollo de la mecánica, en la
biología los nuevos microscopios facilitaron el surgimiento de teorías y modelos que poco a
poco se fueron perfeccionando. De la misma manera que el primero sirvió para construir los
modelos iniciales sobre el sistema planetario y el universo mismo, el microscopio óptico dio
lugar a una de las teorías más exitosas de la humanidad: la teoría de la evolución, primero de
las especies, después de todo lo demás, con ayuda de más modernos microscopios y otros
instrumentos, como el llamado STM (por sus siglas en inglés, scanning tunneling microscope) o
microscopio de efecto túnel, en realidad una punta tan fina que usualmente termina en un
átomo individual capaz de interactuar con otro átomo que pertenece a la superficie explorada
con la punta. De la física de la materia sólida se pasó a la ciencia de superficies.
La universalidad de los quanta y la evolución cultural
Aunque su título sugiere todo lo contrario, este primer tomo es más un libro sobre los
QUANTA que sobre el HOMO. El subtítulo es más específico. Más exactamente, nos
referiremos a los cuantos (quanta, ahora sustantivados) y a sus implicaciones para el hombre.
El conjunto es entonces solo parcialmente un ensayo sobre la evolución de la ciencia, en sus
fundamentos y conceptos, particularmente en la física, tema que extenderemos en el segundo
tomo a las aplicaciones muy recientes y otras que vienen en camino de su teoría más precisa;
la evolución se trasladará en el tercer tomo al cambio cultural, a la transformación de las ideas
en otros terrenos científicos y a los cambios globales de una evolución o revolución cultural sin
precedentes. Partimos de la convicción de que la física es la ciencia básica por excelencia. Esta
no es una posición de físico prepotente: es el reconocimiento de que el universo es el ente
físico por antonomasia. Por eso se puede afirmar que el rango de acción de las ciencias físicas,
en plural para evitar malos entendidos, es el universo entero, desde las aun inexploradas
regiones internas de las partículas llamadas elementales (lo escribimos de esta manera para
curarnos en salud) hasta lo que vagamente se denomina los confines del universo. Si esto es
así, no es de extrañar que algunos consideren a la química un capítulo de la física, al menos en
ciertos aspectos básicos ligados a la mecánica cuántica. Hoy se cree que la biología tampoco
escapará a ese proceso de cuantización de la ciencia. Especificaremos más adelante qué se
quiere significar con este término. No está por demás aclarar que la ciencia es un constructo
cultural. A diferencia de otros constructos, su validación es de carácter universal, vale decir,
refrendada por pares que pertenecen a diversas culturas desde el punto de vista
antropológico. Así pues, a menos que se especifique de otra manera, cuando se hable de
evolución cultural, se hace referencia a la evolución de las ideas y de los conceptos científicos.
Al razonar sobre la estructura y constitución del universo y sobre su posible evolución,
estamos utilizando una función del cerebro que algunos difícilmente aceptarán sea apenas un
resultado de la evolución biológica: nos referimos a la conciencia. Llamamos conciencia a un
estado mental que permite a cada uno de nosotros identificarnos como individuos. Y si es un
estado mental, un estado dinámico funcional del cerebro, ¿podemos hablar por separado de la
mente? Se requiere de un cerebro para tener mente y conciencia. No podría ser de otra
manera. En palabras de Eric Kandel, premio Nobel 2000 en fisiología y uno de los más
prestigiosos neuro-científicos del momento, entender la base biológica de la conciencia y los
procesos cerebrales por los cuales sentimos, actuamos, aprendemos y recordamos es el último
reto de las ciencias biológicas. (Kandel, 2013.) En la presente década y las próximas, los
avances en esa dirección son de los más promisorios en el terreno científico.
Cuando se habla del sapiens, se evoca de inmediato a un ser inteligente. Las tecnologías de la
información y la comunicación, a las que abreviaremos por la sigla t.i.c. (en minúscula, ya
argumentaremos por qué), han dependido fundamentalmente de un concepto de inteligencia
que no está asociado al ser humano, ni siquiera a algún ser vivo. Por eso se le denomina, y tal
vez sea el término más adecuado, inteligencia artificial, IA. Es menos claro lo que se entiende
por vida artificial. Lo que sí resulta claro para todos es lo que Lamarck, Darwin y Wallace
descubrieron hace ya cerca de dos siglos: la evolución de las especies. El título que el segundo
escogió para su obra clásica hace alusión a algo más fundamental, el origen de las especies.
Por supuesto, se refería a las especies vivas. Pero: ¿Qué es la vida? Schrödinger, casi un siglo
más tarde, daría precisamente ese título a una obra que en su momento causó gran
conmoción, resultado de sus conferencias en el Trinity College (en Dublín, 1943) sobre la
relación entre física y biología, en particular física cuántica y genética. La respuesta de
Schrödinger no es concluyente. La nuestra tampoco pretende serlo, a pesar de que ha habido
grandes avances desde entonces en la búsqueda de una respuesta convincente. Ahora se
habla, cada vez con mayor desparpajo, de biología cuántica; hay ya una segunda edición de un
texto que sirvió de acicate para una iniciación en el tema, Quantum Evolution (McFaden,
2016).
Efectivamente, hemos avanzado mucho en poco más de medio siglo. Para empezar, en 1949
Claude Shannon introdujo un nuevo ente físico cuantificable: la información. Cuatro décadas
más tarde fuimos advertidos por John Archibald Wheeler de que la información es más
fundamental que la materia y la energía: it from bit. Hoy hablamos con entera convicción del
procesamiento cuántico de la información. Este es en esencia el contenido de la segunda
revolución cuántica. ¿Existe alguna relación entre la información biológica o genética
contenida en el ADN y la información traducida a bits y qubits? Quisiéramos poder contribuir a
dilucidar este asunto, aunque es preciso advertir al lector que quizá no lo logremos.
Empecemos por el comienzo de la ciencia moderna. En la visión clásica newtoniana,
comúnmente confundida con el mecanicismo, el universo tendría forma esférica y nosotros
ocuparíamos un lugar central, solo hasta cierto punto. Aristarco de Samos fue el primer gran
visionario que develó ese telón antropocéntrico. Posteriormente lo hizo Copérnico, y con él
surgieron las primeras ideas que abrieron camino a la física propiamente dicha. Vinieron
después Galileo, Kepler y muchos más gigantes, como los anteriores, que abrieron el camino a
un «genio entre genios», Isaac Newton. Hubo que esperar dos siglos más para que pudiera
resolverse la gran inquietud que no dejó en paz a Newton: la acción a distancia. Newton, a
pesar de sus profundas convicciones religiosas, logró forjar un esquema de pensamiento
dentro del cual todo en el universo está sometido a unas mismas leyes. Dar el paso siguiente le
correspondió a Darwin y otros, en la biología. Y Maxwell, por la misma época, lo dio desde la
física, con tremendas repercusiones en las demás ciencias y tecnologías, apenas emergentes.
Maxwell encontró su demonio. Aunque no lo llamó así, Darwin también tiene el suyo, o los
suyos, como nos lo explica Eugenio Andrade en Los demonios de Darwin (2003.) Quizá
podamos referirnos metafóricamente también a los demonios cuánticos. El IGUS (Information
gathering using system) desempeñaría ahora ese papel.
La línea evolutiva de pensamiento que claramente distinguió a los presocráticos materialistas
de otras escuelas idealistas, incluida la platónica post-socrática, se vio interrumpida por más
de un milenio. Para que surgiera la ciencia moderna fue necesario inventar instrumentos que
dilucidaran en el terreno experimental la discusión sobre la continuidad o no de la materia.
Esto ocurriría más claramente en el siglo XIX. En las ciencias sociales, correspondió a Marx y
Engels descubrir la capacidad de la dialéctica para explicar los saltos en la historia que llevaron
a diferentes esquemas de producción. No abordaremos este tema, a pesar de su interés, para
no desviarnos del propósito fundamental de estas notas, mas es indispensable advertir al
lector de su importancia y trascendencia.
Ingresamos al siglo XX haciendo un examen de lo que quedaría por descubrir. En física, se
decía, nada. Salvo dos nubarrones a los que volveremos antes de la tormenta, la física estaría
concluida. En matemáticas, se pensó, faltaría poner un orden lógico. No es este el espacio para
referirnos a lo que resultó del examen de los fundamentos o Principia Mathematica. Kurt
Gödel se encargaría de bajarle el perfil a las pretensiones de la matemática de ser una ciencia
exacta. En física, la situación resultó ser doblemente pobre. Del examen de sus fundamentos
surgieron las dos nuevas teorías a las que hemos abreviado QT y GT. Reducirlas a una sola es
una tarea pendiente.
En este orden de ideas, después de una recapitulación que no pretende ser el recuento
histórico sobre lo que pensamos hoy, veamos qué nos llevó al asunto del que tratará este
ensayo en varios tomos. La historia resumida del desarrollo de las ideas previas en física forma
parte de la evolución cultural a que hemos hecho referencia y se posterga como una
introducción a la primera parte.
Motivaciones intrínsecas y extrínsecas
Dadme las condiciones iniciales y yo os di é ha ia dó de a la e olu ió . (Autor imaginario.)
Afirmaciones como esta, con distinta factura, fueron la cumbre del mecanicismo. Arquímedes
fue uno de los grandes pioneros de una tierra estacionaria; de ahí la frase que le ha sido
atribuida con respecto a las palancas. Pero el universo evoluciona, siguiendo unas leyes
supuestamente muy precisas. En palabras de Henri Poincaré, a finales del siglo XIX, parecía
claro que:
«Si conociéramos exactamente las leyes de la naturaleza y la situación del universo en el momento
inicial, podríamos predecir exactamente la situación de ese universo en un momento subsiguiente.»
Esas leyes no son más que las leyes del movimiento de Newton, complementadas con las
ecuaciones de Maxwell, o las que correspondan después de hacer las correcciones adecuadas
en el régimen relativista.
Mas lo anterior no es del todo cierto. Tampoco lo fue el paradigma newtoniano, ni siquiera con
las correcciones introducidas por Einstein. Desafortunadamente las condiciones iniciales bien
pueden ser una entre 101000 o más posibilidades; y el punto de llegada depende fuertemente
del modelo que se utilice. Afortunada o desafortunadamente, el punto de partida del
mecanicismo es incorrecto: la evolución no está determinada de antemano. ¡Es posible
también que exista el libre albedrío!
Se sabe que una muy pequeña desviación en las condiciones iniciales puede dar lugar a
enormes variaciones en la evolución del sistema. Esa observación fue el comienzo de la teoría
del caos, de las ciencias de la complejidad y de los sistemas complejos, en la primera de las
cuales Poincaré es el indiscutible pionero. Prosigue Poincaré:
«Pero aun si fuera el caso de que las leyes naturales no guardaran ningún secreto para nosotros, solo
podríamos conocer la situación inicial aproximadamente. Si eso nos permite predecir la situación
subsiguiente con la misma aproximación, eso es todo lo que requerimos, y diríamos que el fenómeno ha
sido predicho, que es gobernado por las leyes. Pero no siempre es así; puede ocurrir que pequeñas
diferencias en las condiciones iniciales produzcan variaciones muy grandes en los fenómenos finales. Un
pequeño error en las primeras producirá un enorme error en los últimos. La predicción se vuelve
imposible, y obtenemos el fenómeno fortuito.»
También se sabe que un estado evoluciona hacia cualquiera de los estados posibles, aunque
haya unas evoluciones más favorecidas que otras. Esto es consecuencia de la mecánica que
sustituyó al mecanicismo, la Mecánica Cuántica, una teoría fundamentada en el principio de
indeterminación, comúnmente denominado de incertidumbre, y en la cuantización o
discretización de las cantidades físicas medibles u observables. A propósito, fue Poincaré el
primero en demostrar matemáticamente la equivalencia entre la cuantización de la energía y
el valor finito de la energía de la radiación de cuerpo negro.
Se sabe además que ignoramos la composición y organización exacta del sistema, es decir, su
preparación, y la información que de él disponemos es incompleta. A modo de ejemplo, hoy
sabemos que el 95 % del universo está constituido por energía obscura y materia obscura. De
la primera, solo tenemos vagas ideas sobre su posible composición. Puede afirmarse que sobre
el cerebro, la mente y la conciencia sabemos mucho menos. ¿Cuál es, entonces, el poder
predictivo de la ciencia? ¿Hasta dónde podemos confiar en ella? Aunque incompleta, es lo
mejor de que disponemos para una descripción e interpretación del entorno, del conjunto o
del universo y de su evolución. Veremos que deben tenerse en cuenta otras limitaciones al
conocimiento, además de las anteriores.
La epistemología, o la más general, gnoseología, estudia el origen del conocimiento y su
validación o negación. A partir del enfoque propuesto por Thomas Kuhn, durante un tiempo se
supuso que pasamos de uno a otro paradigma, en esencia modelos aproximados sobre la
realidad. Se suele hablar también de teorías, o modelos más refinados. Pero evidentemente
una teoría sucede a otra que no pudo dar cuenta de fenómenos observados posteriormente o
que se escaparon a la observación, o más sencillo: se hicieron predicciones equivocadas y hubo
que desechar la teoría. Fueron algunos físicos, no todos, quienes supusieron que algún día
habría de encontrarse la teoría del todo, la ecuación del universo, o en el lenguaje de sus
predecesores, místicos o alquimistas, la piedra filosofal. Esta idea ha sido una quimera, buena
y útil en la medida en que impulse la investigación científica, pero solo ha servido para
encontrar al final una medida o estimativo de nuestra ignorancia. Reconociendo sus
limitaciones, la ciencia y sus métodos ha sido lo mejor que hemos podido concebir para
describir e interpretar el universo, de paso predecir su comportamiento futuro. Las
matemáticas han sido la mejor herramienta.
A pesar de lo escrito en el párrafo anterior, es bueno examinar lo que entienden por una teoría
final quienes impulsan este concepto. Nos dice Weinberg (1992):
«The dream of a final theory did not start in the twentieth century… We do ot eall k o u h a out
what the pre-Socratic were taught, but later accounts and the few fragments that survive suggest that
the milessian were already searching for an explanation of all natural phenomena in terms of
fundamental constituents of matter».* (Weinberg, 1992.)
Así entendida, como un principio regulador u orientador, es alentador pensar en una teoría
final, si es que se puede llamar de esa manera. Quizá algo cercano a esa imagen nos ayude a
entender quiénes somos, de dónde venimos y para dónde vamos.
Desde su aparición, después de un largo y prolongado proceso evolutivo, cada uno de los
representantes del homo sapiens ha desarrollado una conciencia individual que lo hace único
en su especie. Hoy sabemos que otras especies tienen también conciencia. En la denominada
Interpretación de Copenhague de la Mecánica Cuántica se pone de relieve el papel de un
observador consciente en el proceso de medida. En la literatura reciente es fácil encontrar
varios ensayos con un título más o menos común, Conciencia cuántica, o Física cuántica de la
conciencia. En general, el título es controversial y su contenido suele serlo mucho más. No es al
esclarecimiento o profundización de esa polémica a lo que queremos aportar con el presente
texto. El adjetivo quantum aplicado al sapiens sustantivado en este escrito, se refiere a dos
aspectos separados: al rol de la nueva física, la cuántica, en el surgimiento de tecnologías que
requieren de ella para su desarrollo, y al papel que pudo haber desempeñado y puede seguir
desempeñando la fenomenología cuántica a nivel fundamental, en procesos elementales que
son de trascendental importancia para la vida misma, aunque no necesariamente para su
aparición; debieron serlo, eso sí, para su preservación y evolución, no solo la biológica sino
también la cultural, en la que pondremos el énfasis de nuestro aporte.
La evolución cultural es lo que ahora está en juego para el Sapiens. Asistimos a un gran
momento histórico en el que la revolución científico-técnica está transformando, para bien y
para mal, nuestro planeta y nuestras vidas, nuestras formas de pensar y de actuar, nuestras
relaciones familiares y sociales, nuestras posibilidades, potencialidades y capacidades. La
contribución de lo que denominaremos física cuántica y sus aplicaciones a esa transformación
es descomunal, por decir lo menos. También el universo se transforma, aunque
aparentemente de manera más lenta, a escala cósmica cada vez a mayor celeridad, y con ello
tiene que ver igualmente la fenomenología cuántica; ese último aspecto, el quantum y la
evolución del universo, lo tocaremos solo tangencialmente en este primer tomo. Es más,
queremos subrayar desde ya que la fenomenología clásica, a cuya explicación pretendió dar
respuesta el mecanicismo clásico o paradigma newtoniano, tiene también como fundamento
el quantum, en el sentido original de Planck o en el más refinado de Einstein, como
aclararemos después.
En ese contexto hay que hablar en general de la evolución de la ciencia y en particular de la
evolución de la física, del paso de la física mecanicista no relativista a la clásica relativista, a la
cuántica y a la cuántica relativista. Se sigue buscando con gran expectativa una formulación
cuántica de la gravedad. ¿Será posible una teoría del todo? En nuestra opinión, es solo la
pedantería de algunos físicos la que lleva a imaginar que estamos próximos a conocer todo lo
que hay que conocer. Los límites del conocimiento mismo se agrandan cada vez más y hacen
más visible nuestra ignorancia.
*
El sueño de u a teo ía fi al o e pezó e el siglo XX… Realmente no sabemos mucho acerca de lo que
estuvieron predicando los presocráticos, pero hallazgos posteriores y fragmentos que les sobrevivieron
sugieren que los milesios ya estaban en la búsqueda de una explicación de todos los fenómenos
naturales en términos de los constituyentes fundamentales de la materia.
No hay una clara línea divisoria entre los dos mundos, el cuántico y el clásico, por más que
pretendamos conocer las leyes que rigen el comportamiento en los extremos. Es en ese
sentido que retomaremos un término cada vez más en boga, Darwinismo cuántico, para
referirnos al paso de lo puramente cuántico a lo clásico, particularmente en sistemas
complejos, en especial los más complejos de todos, los sistemas vivos. Creemos que es posible
comunicar estos aspectos en un lenguaje comprensible para una audiencia o un lector que no
tiene formación en física más allá de la que se proporciona en la enseñanza media.
Como una motivación adicional para escribir estas páginas, se ha tenido en cuenta que las
tecnologías todas dependen cada vez más, en diversas formas, de las aplicaciones de la Teoría
Cuántica, sin lugar a dudas la teoría más amplia y profunda, la teoría física más exacta,
cualitativa y cuantitativamente, hasta donde el Principio de Indeterminación lo permite.
Además sus implicaciones, para lo que podríamos denominar el propósito trascendental de la
física, como interpretación del Universo y de sus partes, son dignas de tenerse en cuenta por
cualquier ser racional. Esos dos aspectos, aplicaciones e implicaciones, en otras palabras,
contribuir a examinar el impacto de la cuántica o del quantum sobre el homo sapiens en su
vida diaria y a su reflexión en la búsqueda de caminos alternativos para su devenir histórico, es
lo que intentaremos con este y futuros ensayos. Es demasiado ambicioso el propósito que
motiva nuestra incursión en la nueva física, por lo que no es para desmayar si la tarea, como es
altamente probable, queda inconclusa. Autores y lectores podremos quedar tranquilos si el
cometido se logra parcialmente.
En efecto: así como para reconocer el papel y el significado de la conciencia no se requiere de
mayores conocimientos de biología, para imaginar la trascendencia que tendrán en el futuro
de la humanidad las tecnologías convergentes, emergentes y disruptivas no será necesario
saber mucho de mecánica cuántica. De hecho, todavía no es claro el papel de la biología en la
conciencia, mucho menos el del quantum; y si quisiéramos resaltar en primer término la
información dentro de las tecnologías emergentes, para la mayoría de los lectores no solo es
extraño asociar información con física cuántica sino que es desconocida, ignorada por casi
todos a nivel general, salvo por los especialistas, una posible relación entre esta última teoría y
las tecnologías mencionadas.*
Pareciera pues que, en contravía de lo prometido, de un lado sometiéramos al lector al
desconcierto de lo desconocido y del otro estuviéramos utilizando un lenguaje demasiado
abstracto para el lector no especializado. Para tranquilidad de este último, si bien nos
referiremos a menudo a aspectos generales y en ocasiones vagos, nuestras pretensiones de
suministrar un bagaje conceptual cuántico son mucho más modestas, por lo que emplearemos
la mayor parte de este primer volumen a ilustrar al menos los conceptos cuánticos (y en el
apéndice los clásicos) en boga, dándole un sentido más tutorial y auto-contenido a estas
páginas y las que le seguirán.
En síntesis, repitámoslo de nuevo en otra forma, en este primer tomo intentaremos acercar al
lector a la fenomenología cuántica partiendo de los conceptos clásicos, contrastándolos con
*
No hay total acuerdo sobre lo que se entiende por tecnologías emergentes o convergentes, la
denominación misma es ambigua. De ellas no puede excluirse la nanotecnología, importante en todas
las demás. Por simplicidad, mencionaremos las 4 básicas, a saber: N-B-I-C, en su orden nano, bio, info y
cogno, incluyendo en esta última las que tienen que ver con la cognición, en primer término para el caso
la inteligencia artificial, sin descartar la(s) otra(s).
los nuevos conceptos cuánticos y sin recurrir al formalismo matemático. Esto nos permitirá
abonarle el terreno para que entienda, del segundo tomo, al menos los cimientos de las
nuevas tecnologías que en ella se fundamentan sin caer en la trampa del esoterismo. Este está
más alejado de los conceptos cuánticos de lo que están los clásicos que les precedieron,
aunque es necesario advertir que hemos de divorciarnos de los segundos, los clásicos, si
queremos acercarnos a los primeros, los cuánticos. En cuanto a la pseudociencia, puede
calificarse de oportunismo, mediocridad o negligencia apelar a los primeros simplemente
porque no son aprehensibles en una concepción clásica del mundo, invocándolos para explicar
lo que por ahora resulta inexplicable. En cuanto al contenido del tercero y cuarto tomos, no
queremos comprometernos demasiado por ahora, dejando a los autores que me acompañan
en esta aventura un espacio para sus propias contribuciones, que son muchas.
Justificando un doble calificativo
El título mismo de este ensayo podría parecer extraño, aunque el calificativo sapiens, por sí
solo, no generará ninguna dificultad, dado que todos pertenecemos a la misma especie desde
que los humanos se separaron de los demás homínidos, hace más de 50 mil años;
probablemente puede hablarse de 150 mil. El adjetivo neutro quantum, a pesar de las
suspicacias y hasta temores o tal vez intimidaciones que pueda generar, se ha entendido en
primera instancia como cuantificación en números discretos de cantidades elementales. Por
supuesto es mucho más que eso: se refiere ni más ni menos que a la teoría física más extraña y
contraintuitiva que haya podido producirse, comparable quizá en complejidad a la teoría
general de relatividad, aunque esta es más compleja desde el punto de vista matemático. En
realidad es de esperar que la primera sea más ininteligible, si nos atenemos al vaticinio de uno
de los quantólogos más reconocidos del siglo pasado, Richard Feynman quien afirmara
categóricame te: adie e tie de la e á i a uá ti a . Es por esa razón principalmente, y
por muchas otras que esbozaremos más adelante, por las que vale la pena aclarar para el
lector profano lo que debe entenderse como cuántico, en especial para deslindarlo de la
charlatanería cuántica, cada día más abundante.
Vale la pena intentar una somera justificación del título escogido, como preámbulo al
planteamiento central. Ello nos llevará a explicar mejor las motivaciones que nos impulsaron a
emprender esta labor que pretende ser pedagógica. Después de examinar algunas opciones,
nos hemos decido por el de Quantum Sapiens teniendo en cuenta varias consideraciones,
algunas de las cuales se enumeran y comentan a continuación. La primera está relacionada con
el idioma. Aunque sería demasiado aspirar a que este modesto escrito fuera vertido a varios
idiomas, no es descartable que vea la luz también en inglés. La mayoría de ensayos traducidos
a otros idiomas han corrido con mala suerte cuando se busca que el título refleje en el nuevo
idioma lo que se pretendía en el lenguaje original. Al intentar hacerlo en un latín moderno, no
se considera necesario el cambio del título principal en la posible traducción y eso preservaría
la idea original del ensayo en su totalidad. La mayoría de los lectores sabrá que los textos
científicos clásicos europeos prácticamente hasta finales del siglo XVIII fueron escritos en latín,
y no sobra recordarlo aunque sea con el título. Del subtítulo de los siguientes tomos en
español, segunda revolución cuántica o algo más, nos ocuparemos a su debido tiempo.
La segunda revolución cuántica tiene que ver con la inclusión en la física desde hace más de un
siglo y el significado que desde entonces se da al término quantum, con su rápida extensión a
otras ramas de la ciencia y a sus aplicaciones, más recientemente al campo de la información,
más amplio que el de la informática. Cuando nos refiramos a la información, empezaremos por
examinar su papel a nivel biológico; y cuando mencionemos las aplicaciones o tecnologías que
se derivan de los nuevos conceptos cuánticos, no dejaremos de lado las que se refieren a las
ciencias de la salud y de la vida, sin dejar de examinar por supuesto las llamadas t.i.c.
Pero hay más. Las tergiversaciones que se han hecho de la teoría, extrapolándola a otros
campos del conocimiento o peor aún, al terreno de la pseudociencia, son abrumadoras. Se
habla con el mayor desparpajo de medicina cuántica, y a fe que de lo único que puede
hablarse con rigor es de la nanotecnología aplicada a la medicina, la nanomedicina, en la cual
los efectos cuánticos son abundantes. No por eso puede hablarse de medicina cuántica como
si fuera una nueva ciencia de la salud.
La física cuántica es prototipo de la complejización de la ciencia. En la primera mitad del siglo
XX surgieron nuevas teorías derivadas de las matemáticas aplicadas, particularmente a las
otras ciencias. Se habló así de la teoría de sistemas, de la cibernética y de la teoría de la
información, a la que ya hemos hecho referencia. Cuando hoy se hace alusión a sistemas, se
está casi siempre hablando de sistemas complejos, así que hablar de ciencias de la complejidad
es en esencia trasladarse a ese terreno. El problema de 3 cuerpos, nombre con el que se
conoce la interacción y el consecuente movimiento de 3 objetos, por ejemplo el sistema sol-
tierra-luna bajo los efectos de la gravedad clásica, es un problema complejo. En mecánica
cuántica, el problema de 2 objetos, 2 electrones por ejemplo, es complejo; lo inmediato que
resulta de la interacción de 2 objetos cuánticos es el fenómeno del entrelazamiento. A esos
temas habremos de referirnos, particularmente a este último, del que depende precisamente
la segunda revolución cuántica.
La tercera consideración que se tuvo en cuenta tiene que ver con el sentido de sapiens, como
es fácil imaginar. Sin entrar en discusiones mayores sobre el significado del término, no
parecería aplicarse en rigor muy a menudo. Aceptemos que la especie ha tenido un proceso
evolutivo mayor comparado con sus rivales que le permitió asegurar su primacía. Esto le llevó
a poblar densamente el planeta que lo aloja y a afectarlo mucho más que todas las otras
especies juntas. Para afrontar los retos del momento, cuando todas las especies, incluida la
humana o en el mediano plazo precisamente esta, se encuentran en peligro de extinción, el
recurso del conocimiento acumulado es invaluable, pero mucho más, el uso que de él se haga.
Usarlo apropiadamente para los asuntos que más nos incumben es precisamente la sabiduría,
como la concibieron por ejemplo Bertrand Russell y Sidney Hook. Ella es la que justifica hoy el
calificativo de sapiens, término que no tiene mucho que ver con el de erudito, al que a
menudo denominan sabio en los medios.
No se exagera al decir que la cuántica o el quantum entendido cabalmente es la máxima
expresión del conocimiento acumulado en las ciencias, si se quisiera sintetizar éste en una sola
palabra. Aunque aprehenderlo a fondo está quizá reservado a los expertos, debe haber un
bagaje mínimo en el aprendizaje cultural de cada persona que incorpore la fenomenología y
los conceptos cuánticos. Infortunadamente cuando más se requiere de una formación básica
en ciencias básicas acorde con los paradigmas del momento, se mitifica esa ciencia al punto de
hacer creer al grueso de la población estudiantil universitaria y a los sectores cultos que ni
siquiera podrá aprehender los conceptos elementales del comportamiento cuántico. Pero el
impacto que han causado los contraintuitivos conceptos de la física cuántica son tales, que los
más inquietos y receptivos buscan llenar el vacío con el sensacionalismo característico que
ofrece una literatura no científica, siendo fácil presa de charlatanes de todo tipo. Si en algo
podemos contribuir a llenar ese vacío, habremos satisfecho la pretensión principal. Quizá se
logre, de paso, propiciar espacios para trabajos interdisciplinarios y para la construcción de lo
que se ha denominado una tercera cultura.
Hay todavía más. Ensayos como el Homo Deus, al que nos referiremos más adelante, nos
obligan a profundizar en aspectos que no son tenidos en cuenta en ese tipo de estudios.
(Harari, 2017.) Volvamos a la frase de Sagan sobre la mezcla peligrosa de ignorancia y poder.
¿Pueden hoy asemejarse a dioses unos seres poderosos, arrogantes e ignorantes de lo que a la
postre provoca lo que les confiere su poder? O peor y más cruel. Si el poder del dinero, la
política y los medios, conducentes a la corrupción sin límites, no tienen ya control, en gran
medida por la ignorancia práctica de quienes soportan y padecen ese poder, ¿cuál es el
sentido de la democracia, o de una libertad que tiene como fundamento la trivialidad? Esto
nos lleva a examinar unas máximas que, como propone Gardner, bien vale la pena redefinir:
belleza, verdad, bondad como inspiradoras de la acción. Este tema amerita reflexiones de
nuestra parte que consignaremos en otros espacios. (Giraldo, 2017b.)
…
Síntesis de la evolución biológico-cultural
A riesgo de repetir lo que la mayoría de los lectores ya sabe, la historia que conocemos,
incluida la prehistoria y lo que le antecedió, comenzó hace aproximadamente 13,750 millones
de años, cuando surgió la materia-energía, el espacio-tiempo y por ende la información. Poco
más de 9 mil millones de años después surgió el planeta Tierra que nos albergaría al cabo de
4,5 mil millones más. Rigurosamente hablando, podríamos afirmar que debemos contarnos
entre los más recientes pasajeros, esa es la palabra, de lo que en realidad es una nave espacial
poblada por las especies vivas conocidas en nuestro sistema solar. Si fuéramos conscientes de
lo que esto significa, tendríamos con ella un mayor cuidado.
Vale la pena detenernos un poco más en el proceso evolutivo del género Homo, que partió de
África hace apenas 2,5 millones de años. En Eurasia dejamos nuestras huellas preliminares por
espacio de 2 millones más, hasta cuando el fuego nos permitió iniciar transformaciones más
fuertes en el entorno y en nosotros mismos. Más recientemente, también en África, surgió el
mal llamado sapiens. Carlos Eduardo Vasco sugiere denominarlo insipiens; el alumno (uno de
los autores) interpretó mal al maestro y se le ocurrió que podría utilizarse el término incipiens
(que apenas comienza), y recordó que Margulis y Sagan, en su clásico texto Microcosmos nos
califican de Homo insapiens insipiens (sin sabiduría y sin sabor). Esta equivocación nos ha
llevado a proponer que se trata de un incipiens insipiens et insapiens. ¡Lo lamentamos mucho!
Para no alargar más una historia bien conocida, recordemos que hace apenas 70 mil años
utilizamos el lenguaje figurado, hace 15 mil colonizamos América, hace apenas 5 mil que
recurrimos a la escritura para acumular información y conocimiento, y que la ciencia moderna
no tiene más de 4 siglos de desarrollo. A pesar de todo, en las últimas 2 décadas hemos
avanzado más que en todos los siglos y milenios anteriores. ¿Será cierto que en unas pocas
décadas más tendremos al superhombre? Es dudoso que lo logremos antes de que
terminemos nuestra desaforada carrera, en la práctica emprendida para aniquilar de paso la
mayor parte de especies vivas sobre la tierra. Léase: crónica de una muerte anunciada. Vale la
pena reflexionar sobre las lecciones que dejan las recientes elecciones (2016) en Estados
Unidos.
Evolución de la física: ¿fin de la historia?
Quizá sepa el lector que Francis Fukuyama escribió un polémico texto titulado El fin de la
historia y el último hombre. (Fukuyama, 1991.) Un breve artículo que lo precedió es: ¿Fin de la
historia? La tesis de Fukuyama de que con la caída del socialismo terminarían las guerras,
gracias a la democracia perfecta encarnada por los Estados Unidos, hoy nadie se atrevería a
sostenerla.
Como un reto para los físicos, Einstein y sus colaboradores de la década de los 30 sostendrían
lo contrario con respecto a la física. Aunque el argumento de Einstein y sus colaboradores,
Podolsky y Rosen, aparentemente proponía una paradoja, en realidad era una crítica a la
mecánica cuántica en forma de pregunta: ¿Puede considerarse completa (la) descripción
mecanocuántica de la realidad física? (Can Quantum-Mechanical Description of Physical
Reality Be Considered Complete?). (Einstein et al., 1935.)
La respuesta de Bohr a la crítica se produjo muy pronto, en un artículo con el mismo título.
(Bohr, 1935.) No obstante, su réplica fue insuficiente; como veremos, el teorema de Bell y la
posterior comprobación de que su desigualdad se cumple, pone a salvo la mecánica cuántica,
mas como teoría no local. Al asunto volveremos antes de terminar la primera parte.
La prepotencia con que algunos científicos y filósofos se expresan, para no mencionar puntos
de vista arrogantes de otros mortales, contrasta con el punto de vista más modesto de
connotados pensadores y divulgadores. Dice John Gribbin, astrofísico y gran difusor del
conocimiento científico acumulado a quien volveremos, en torno al misterio cuántico (2015):
«Si abrimos los brazos todo lo que podemos y consideramos que toda la historia del universo es de la
punta de un dedo a la otra punta, toda la historia de la civilización humana se eliminaría en un momento
si se pasa una lima por una uña. Así de insignificantes somos en el tiempo, y somos igual de
insignificantes en el espacio.» http://www.eduardpunset.es/charlascon_detalle.php?id=6
Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos, o en forma
más general, son detectados por nuestros aparatos de medida. Concordaremos en afirmar
entonces que la observación a que nos referimos en física no es solamente la que podemos
realizar con el sentido de la vista o con otro cualquiera. En otro tiempo percibiríamos u
observaríamos los objetos materiales y quizá dudaríamos en reconocer que la luz es un objeto
material. ¿Es la gravedad un objeto material? Pocos se atreverían a responder positivamente,
pero las ondas gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una
pregunta más sutil se refiere a lo que hoy se denomina información. No estamos hablando de
lo que venden los periódicos o lo que escuchamos en la radio o vemos en la televisión.
Exploramos a nuestro alrededor para informarnos de lo que está pasando, eso es indudable,
pero la información misma es algo más etéreo. Sin embargo, después de Claude Shannon
debemos reconocer que la información es algo con contenido físico.
Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos
del zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio
para hacer la distinción entre mito y religión, pero sí lo es para deslindar terrenos entre esos
dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos ciencia.
Ha habido, y es seguro que se siguen presentando a pesar de los espectaculares avances,
periodos de la historia en los que la ciencia que se dice practicar no difiere mucho de la
pseudociencia. No está lejana la época en que solía hablarse del fluido calórico o del fluido
vital, fluidos que hoy claramente están descartados en la ciencia convencional. Polémicas
acerca de los organismos genéticamente modificados, p.e., envuelven mucho de subjetividad.
*
Cuando se calcula rigurosamente la energía de un oscilador armónico o cuando se habla de campos
cuánticos, hay que referirse a un concepto nuevo denominado energía de punto cero. La expresión y el
concepto ha dado lugar a relatos esotéricos de todo tipo. Los efectos de esa energía de punto cero son
observables; como ejemplo, se suele citar el Efecto Casimir, consistente en la atracción que dos placas
metálicas muy finas sienten a temperatura muy baja (cercana al cero absoluto). En forma general se
puede hablar de fluctuaciones del vacío. A este concepto volveremos después, en las aplicaciones.
La ciencia clásica es determinista: esta característica es básica. Por el contrario, la nueva
ciencia, la que cae dentro de la comúnmente denominada mecánica cuántica no lo es. Se dice
que esta es una teoría probabilística. ¡Lo es!
También por razones prácticas nos limitaremos a la evolución de los conceptos, más que a los
aspectos históricos; un buen punto de referencia lo constituye el desarrollo de las ideas en la
Grecia Antigua. Nuestro propósito no es seguir aquí el tradicional enfoque histórico. Tampoco
nos interesa hacer un ensayo de corte epistemológico, igualmente abundante en la literatura.
Siendo nuestro interés prioritario el grandioso proceso de pensamiento que culminó con lo
que hemos dado en denominar la segunda revolución cuántica, sin duda alguna el más grande
descubrimiento científico a nivel conceptual, pondremos el énfasis en la imagen atomista que
se desarrolló desde los epicúreos, con una enorme discontinuidad o vacío temporal de casi dos
milenios, favorecido por la autoridad intelectual de Aristóteles y, en la Edad Media, por la
imposición teológica y teleológica de la Iglesia Católica. El enfoque de Weinberg (2016) es un
valioso complemento.
Empezamos por referirnos a un punto de vista más o menos común a todos los autores
mencionados. Al margen de sus creencias religiosas, para el avance de los conceptos científicos
era necesario desproveerse de la explicación del mundo a partir de las causas sobrenaturales.
Ese fue uno de los grandes méritos de Copérnico, Kepler, Galileo y Newton, para citar unos
pocos ejemplos. Uno de los mecanicistas más destacados fue Laplace, quien en su magna obra
Exposition du système du monde afirma (1796):
«Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se
podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la
naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente
vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de
los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el
futuro, así como el pasado, estarían frente a sus ojos.»
Refiriéndose a ella le pregunta Napoleón: «Me cuentan que ha escrito usted este gran libro
sobre el sistema del universo sin haber mencionado ni una sola vez a su creador», y Laplace
contestó: «Sire, nunca he necesitado esa hipótesis». Ante la insistencia del Emperador replica:
«Aunque esa hipótesis pueda explicar todo, no permite predecir nada». Ese intelecto al que se
refiere Laplace ha de convertirse después en lo que se llamará el demonio de Maxwell. Por
analogía, uno de los autores (Andrade) lo ha extendido a los demonios de Darwin. (2003.)
A pesar de los indiscutibles avances de las ciencias en los últimos tiempos, la mayoría de la
gente, incluso en ambientes cultos y hasta en entornos académicos, sigue buscando la
explicación de los fenómenos de todo tipo en fuerzas sobrenaturales. Cabe esperar entonces
que así ocurriera desde los albores de la humanidad, o más precisamente de las civilizaciones,
con algunas excepciones. Al contrario de lo que debería suceder, la física cuántica ha dado pie
para que muchos retomen y refuercen esa tendencia tan humana. Vale la pena examinar el
desarrollo de las ideas pre-científicas que abrieron espacios para la ciencia misma y las que
posteriormente se abrieron paso, desde los inicios de la ciencia moderna. El temario de este
capítulo se ha dividido así en dos partes, correspondiendo la primera a lo que se reconoce
como Edad Antigua.
Podría argumentarse que la hipótesis atómica fue la más clara renuncia a la explicación mítica
o religiosa que perduró por decenas de miles de años y que todavía sobrevive en ciertos
círculos intelectuales. Eso no es del todo cierto: el atomismo como doctrina se practicó en las
escuelas místicas de la India antes que en la Grecia pre-socrática. Pero la hipótesis de unos
átomos o corpúsculos eternos e inmutables que son los ladrillos básicos de la materia sí puede
chocar contra algunas creencias religiosas, por ejemplo, el llamado dogma de la
transubstanciación. Aunque no es totalmente claro, muchos pasajes oscuros del aun
misterioso Juicio a Galileo apuntan a que fue su aceptación implícita de aquella hipótesis
milenaria lo que desencadenó la obstinada persecución al genio, más que su defensa del punto
de vista copernicano. (Hernández, 2009.)
La propuesta atomista de Demócrito y Leucipo estuvo precedida de la idea de que todo en el
universo provendría de una única substancia. Se pasó así del agua al aire, al fuego y a la tierra
misma; después de los presocráticos, Platón planteó que todo era espíritu, mientras que su
discípulo Aristóteles volvió a los 4 elementos, anticipados por Empédocles.
Sin proponérselo, el estagirita cerró por mucho tiempo la exploración del universo al margen
de las creencias. Para él, el movimiento de los objetos era natural, moviéndose ellos hacia
arriba o hacia abajo dependiendo de si predominaba aire y fuego o agua y tierra. Finalmente,
con el método teórico-experimental inaugurado por la física, iniciado por Galileo hace ya 4
siglos, se abrió el camino no solo a una mejor comprensión de la naturaleza sino también a un
uso más racional del conocimiento y a su construcción, objetiva hasta cierto punto. Qué
entendemos por un uso racional del conocimiento será tema de interés para estas reflexiones,
asunto al que volveremos en la tercera parte. El sapiens a menudo ha sido insapiens, o más
bien stultisimus.
Pero esos métodos que ahora encontramos más racionales tardarían milenios en ensayarse y
tener éxito; no tendrían a la postre mayor acogida, salvo entre los académicos, de no ser por
su impacto en mejorar las condiciones de vida de la especie, en particular por las tecnologías a
que dieron lugar, y por el poder que confirieron a los grupos privilegiados. Muchas técnicas
fueron inventadas empíricamente a partir de la observación cuidadosa de la naturaleza, sin
que se desligaran de las creencias mitológicas. En un comienzo se pensó que para el cabal
funcionamiento de algunas de ellas habría que seguir ciertos rituales, guiados por la casta
sacerdotal. Se preservó así durante mucho tiempo el enfoque teísta (poli o mono) con que se
iniciaron. Ahora predomina el aspecto monetarista. Sin lugar a dudas, la acumulación de
capital depende hoy más que nunca de los avances científicos y tecnológicos.
Para terminar esta sección introductoria al primer capítulo, se recomienda pasar revista a dos
series de conferencias de Feynman que fueron impresas posteriormente en forma de libros:
The meaning of it all (1963) y The character of physical law (1964). En muchos lectores esas
ideas críticas ayudarán a desbrozar el arduo camino por recorrer. Caminante, no hay camino,
se hace camino al andar.
1.2 Los primeros hitos
La más remota manifestación de un interés sistemático por la explicación (pseudo)científica
tiene sus orígenes en las antiguas civilizaciones que se formaron en las riveras del Eufrates y
del Nilo durante el quinto y el tercer milenio antes de nuestra era. Para entonces habían
corrido varios milenios, 30 o más, de desarrollo artístico, un desarrollo que se dio
simultáneamente en varios lugares del planeta. Uno de los ejemplos más antiguos y
admirables lo constituyen las esculturas halladas en la caverna de Vogelherd. El interés,
generalmente pragmático, no estuvo separado de la influencia mítica. Eran los albores de la
civilización. Puede afirmarse que, si bien ocurrió en distintos momentos, no hubo una sino
varias cunas de la civilización humana. Sin pretensiones de ser exhaustivos, nos limitamos a
reconocer que la más antigua de estas civilizaciones pre-científicas es la que se conoce con el
nombre de sumeria. Formando poblaciones a lo largo del Tigris y del Eufrates, se convirtieron
en los primeros agricultores y surgieron los primeros especialistas, ingenieros de riego. Algo
similar ocurrió en Egipto, con la variante de las inundaciones periódicas del rio Nilo,
generadoras a su vez de un desarrollo especial de la astronomía. Es notable el desarrollo, en
cierta medida prematuro, de la medicina egipcia. Para entonces había surgido la escritura, no
se sabe si independientemente en las 2 regiones. En China se habría presentado un fenómeno
similar, con sus variantes, algo que ocurrió después en América.
El reconocimiento a la importancia de los expertos en los destinos de los países es notorio por
primera vez en el Imperio Asirio. Nos di e Ja es ‘itte : Pa a sa e dó de uá do apa e e
como grupo profesional, debemos abandonar Nínive en el apogeo del Imperio Asirio y volver al
primer instante en el que entran juntos en la historia, más de dos mil años antes y más al sur,
en el país de Babilonia. Es en la época que los asiriólogos llaman «paleobabilónica», durante
los 400 primeros años del segundo milenio, donde podemos comenzar a seguir el desarrollo de
un campo de estudio y de práctica que los propios mesopotámicos percibieron, según parece,
o o u ifi ado p i ilegiado e ie to se tido . (1991.)
Mucho más atrás en el tiempo, en las oscuras edades primitivas, antes de que hubiera
vestigios de ciencia, ni siquiera de arte, antecesores del sapiens descubrieron y aprendieron de
alguna manera a dominar el fuego. Parece que esto ocurrió durante la época del homo erectus,
hace poco menos de un millón de años. Es innecesario resaltar aquí la importancia de tan
singular descubrimiento; sorprende que haya ocurrido en tiempos tan remotos. La edad de la
piedra que le precedió, se remonta en el tiempo más de dos millones de años. En contraste, la
invención de la rueda tuvo que esperar hasta un periodo cercano, hace poco más de 5 mil
años, después de haber pasado por diversos periodos de manipulación de los metales. Por
extraño que parezca, civilizaciones tan avanzadas como las de los Incas y los Mayas se las
arreglaron sin la rueda, en el segundo caso hasta su misterioso declive, antes de la llegada de
los españoles al continente americano. El misterio puede verse en su verdadera dimensión si
se recuerda que la Maya fue una de las tres civilizaciones en la historia de la humanidad que
descubrieron el cero y la primera en utilizarlo plenamente en sus cálculos astronómicos.
Casi todos los historiadores de la ciencia coinciden en reconocer que el arte, y con él las
técnicas para perfeccionarlo, tuvieron un desarrollo mucho más temprano que el de cualquier
indicio que pudiera denominarse primeros pasos hacia la ciencia. (Jeans, 1948; Russell, 1949.)
Probablemente al arte, como forma de conocimiento, le siguió la filosofía, practicada
inicialmente desde el misticismo religioso, quizá precedido del temor a lo desconocido. La
polémica sobre el origen de la filosofía puede continuar; lo que cabe destacar es que también
en Grecia, al igual que en las culturas orientales, los primeros indicios del pensamiento
filosófico están asociados al mito y en gran medida al arte. Si en la Antigua Grecia logró un
desarrollo mayor que en alguna otra parte del mundo, ello se debió probablemente a la
ausencia de una casta sacerdotal y al enfoque holístico que predominó en su ethos cultural. A
modo de propaganda, lo que se propone la organización denominada Buinaima, como
herencia recogida de lo que se llamó en Colombia Misión de Sabios (Colciencias, 1995), es
generar en este país un nuevo ethos cultural. (Para mayor información, se sugiere visitar la
página corporacionbuinaima.org)
1.3 De Fenicia a Grecia
El origen del pueblo griego es oscuro. Todo indica que fue una mezcla de pueblos venidos de
distintas latitudes. A pesar de la penumbra que rodea la constitución de la civilización griega,
es indudable que recibió una gran influencia de las anteriores, particularmente la asiria y la
egipcia. Es también seguro que sus vecinos fenicios favorecieron su desarrollo. De estos
últimos dice el historiador Estrabón, citado por Jeans, que prestaban especial atención a la
ciencia de los números, la navegación y la astronomía. Agrega Jea s: Difí il e te ha ía
podido llegar a ser la gran potencia comercial de la Antigüedad de no poseer considerable
aptitud numérica, ni haber sido los más grandes navegantes de su tiempo a menos de haber
estudiado la navegación y la astronomía.
Si se reconoce en Tales y en Pitágoras dos de las mayores figuras de esa ciencia antigua, no
deja de ser interesante que los dos tengan reputación de procedencia fenicia, al igual que
Euclides y Zenón. Ahora bien, es indudable que un aspecto favorece al otro. Las escuelas que
fundaron cada uno de estos personajes influyeron notablemente en el desarrollo futuro de la
aritmética, la geometría y hasta las técnicas para medir tiempo y espacio, indispensables para
poder avanzar.
Es i e Fa i gto : El sa e o ga izado de Egipto y de Babilonia ha sido una tradición
manejada de generación en generación por colegios de sacerdotes. Pero el movimiento
científico que empezó en el siglo VI (antes de nuestra Era) entre los griegos era un movimiento
e te a e te segla . E todo caso, el saber acumulado en aquellas cunas de la civilización, por
ende en Fenicia, tenía un carácter pragmático. Lo nuevo de los griegos fue entender o
reflexionar sobre las causas u orígenes de lo observado.
1.4 El milagro jónico
«En el siglo VI antes de Cristo, en Jonia, se desarrolló un nuevo concepto, una de las grandes
ideas de la especie humana. El universo se puede conocer, afirmaban los antiguos jonios,
porque presenta un orden interno: hay regularidades en la naturaleza que permiten revelar
sus secretos». (Sagan, 1985; p.175.) A ese orden y las leyes que le determinan le llamaron
cosmos. Fue el descubrimiento del cosmos, en ese sentido, lo que les llevó a sentar los
fundamentos de lo que hoy denominamos ciencia.
Así, pues, la naturaleza se comporta de manera regulada y eso es maravilloso; lo más
sorprendente es descubrir que la regulación procede de la naturaleza misma. Afirma Isaac
Asimov, otro gran divulgador de la ciencia: «En la teoría de Tales y de sus discípulos no había
divinidades que se inmiscuyeran en los designios del universo. El universo obraba
exclusivamente de acuerdo con su propia naturaleza». (2001.)
Ese descubrimiento fue el detonante del amor por la sabiduría, que es la filosofía. ¿Y qué es
sabiduría? Para ellos era la persecución de la verdad, la belleza y la bondad, las 3 atracciones
que Einstein y Russell compartieron. Escribe este último: «Tres pasiones, simples, pero
abrumadoramente intensas, han gobernado mi vida: el ansia de amor, la búsqueda del
conocimiento y una insoportable piedad por los sufrimientos de la humanidad». (Para qué he
vivido, Autobiografía, 1967.) En la introducción a su texto arriba citado define la sabiduría
como «la concepción justa de los fines de la vida».
Volvamos a aquel maravilloso periodo de la historia. Se interroga Sagan acerca del porqué del
milagro jónico, sin dar una respuesta satisfactoria. Hay otra pregunta más difícil de responder:
¿qué impidió que ese apogeo continuara? La escuela griega que sucedió a la presocrática fue
maravillosa, pero declinó muy pronto. Esos periodos de ascenso y descenso que se sucedieron
desde la antigüedad clásica ocurrieron después, en distintos lugares, en ocasiones con largos
interregnos. También sucedió en América, en particular con la civilización Maya.
Probablemente la razón se encuentre en que las ciencias, también la filosofía, dependen de la
observación, sea esta empírica o más elaborada, pero la sistematización del conocimiento
científico, a diferencia del pensamiento filosófico, no puede hacerse al margen de la
experiencia. Si no se perfecciona el instrumento de observación, no se tiene un fundamento
mejorado para la racionalización. Hubo que esperar al invento del telescopio primero y del
microscopio después para lograr un avance formidable.
La Ciencia griega ha sido objeto de estudio minucioso desde comienzos del siglo pasado. Uno
de los primeros clásicos es el de Farrington (1944). Suya es esta frase que continúa vigente:
The science of the earliest Greek period resembles ours; for naive and undeveloped as it was, it
regarded man as a product of natural evolution, it regarded his power of speech and thought as a
product of his life in society, and it regarded his science as part of his technique, of the control of his
natural environment. These bold ideas made their first appearance among the Ionian Greeks shortly
after 600 B.C., and were developed in the course of a couple of centuries with a comprehensiveness of
view and an organic cohesion of design which still astonish us today. The emergence of this mode of
thought and its supersession by the more sophisticated but less scientific outlook of the age of Socrates,
Plato, and Aristotle are the special subject of our enquiry.*
Mencionemos apenas, para terminar esta descripción general, los nombres de algunas de las
más descollantes figuras del saber de aquella brillante época: Tales y Anaximandro, los dos de
Mileto, Anaxímenes e Hipócrates, y por encima de todos en matemáticas, Pitágoras de Samos.
Aristarco, también de Samos, fue prematuramente heliocentrista, ideas tan adelantadas a su
tiempo como lo fueron los conceptos de los atomistas, Demócrito de Abdera y Leucipo de
Mileto. Vendría después la época de Alejandría, con la figura descollante de Eratóstenes,
quien seguramente fue el primero en determinar el radio de la tierra.
1.5 Preconceptos y conceptos
Supondremos por simplicidad que el lector tiene muchos preconceptos clásicos y que en
menor cantidad ha adquirido algunos conceptos cuánticos. Los preconceptos pueden ser
equivocados, pero generalmente ayudan; la construcción de los conceptos es un proceso que
prácticamente no culmina; más arduo y complejo todavía es el cambio conceptual de lo
clásico a lo cuántico.
Gracias a la tecnología desarrollada durante los últimos dos siglos, los preconceptos clásicos
de la población promedio se han enriquecido. Las nuevas tecnologías, las de las últimas dos o
tres décadas, han provisto a ese promedio de algunas nociones y términos clásicos y cuánticos
que antes no existían. Expresiones como industria optoelectrónica, dispositivos diversos que
hacen uso de diversos semiconductores y del láser, técnicas espectroscópicas como los rayos
X y la resonancia magnética nuclear (RMN), la más reciente variación de esta, IRMf (imagen
por resonancia magnética funcional), tan útil para la exploración del cerebro en actividad,
*
La ciencia del más temprano periodo griego recuerda el nuestro; a pesar de lo ingenuo y
subdesarrollado que fue, asumió al hombre como un producto de la evolución natural, asumió su
capacidad discursiva y de pensamiento como resultado de su vida en sociedad y asumió a su ciencia
como parte de su técnica, del control de su entorno natural. Estas ideas sobresalientes hicieron su
primera aparición entre los griegos jónicos aproximadamente hacia el 600 A.C., y se desarrollaron en el
curso de un par de siglos desde un consistente punto de vista y una cohesión interna de su diseño que
todavía nos deja atónitos hoy. La emergencia de este modo de pensamiento y su sucesión por la más
sofisticada pero menos científica mirada de la era de Sócrates, Platón y Aristóteles son tema especial de
investigación y búsqueda todavía.
otras igualmente recientes como la TAC (tomografía axial computarizada) o las más modernas,
como PET (por su descripción en inglés, positron emmision tomography) y muchas más, o
instrumentos tan sofisticados como microscopios electrónicos o atómicos se emplean a
menudo, cada vez en ambientes más diversos. Eso no significa que los más, ni siquiera en
medios culturales privilegiados, sepan muy bien lo que hay detrás de estos términos, pero
usan a diario discos compactos, MP5, iPODs, tablets, versátiles computadores portátiles,
teléfonos celulares cada vez más sofisticados en su interior y otros adminículos de alta gama
que incorporan modernísimas t.i.c., las cuales serían impensables sin el dominio logrado y el
conocimiento adquirido sobre fenómenos a nivel submicroscópico, algunos de ellos
rigurosamente cuánticos. Ello le ha permitido a la población, más allá del confort, tener al
menos una vaga idea del uso (y el abuso) de un lenguaje que hasta hace unas pocas décadas
era visto como altamente especializado.
Las nuevas generaciones tienen ventajas (y desventajas) adicionales. Por algo se les denomina
Generación App, y empiezan cada vez a distanciarse más de los inmigrantes digitales; ni qué
decir de los padres o maestros (para el caso es similar) que no se han acercado a ese nuevo
mundo. Volviendo a los conceptos y preconceptos, esas nuevas generaciones corren el riesgo
de asimilar los términos sin haber pasado por el lenguaje; en otras palabras, pensamiento y
lenguaje, como diría Vigotsky, no han ido de la mano. Gran dificultad tendrá una persona
fuera de los campos científico y tecnológico, incluso cuando se ha formado en alguna de las
técnicas, distinguir entre fenómenos clásicos y otros que no caen en ese rango.
Si se examina con cuidado, menos impacto tienen en la vida diaria actual otros términos que
fueron de gran importancia hace algunas décadas y que de todas maneras lo siguen siendo:
esiste ia e á i a elé t i a , alea ilidad, esilie ia… á ui a de vapor, energía
trifásica, transformador, tubos o válvulas de vacío (diodo y triodo). El transistor y el diodo
semiconductor pertenecen a nuestra generación; el autor nació con ellos, pero conoció bien
los anteriores. Puede afirmarse que el bachiller de hoy no distingue claramente entre campo
eléctrico y magnético, mucho menos se preocupa por entender cómo se transmiten, propagan
y reciben ondas de radio, de televisión, etc. y mucho menos los problemas que atañen a su
transmisión. ¡Su mundo virtual le ha llevado a comunicarse en la nube sin polo a tierra!
De todos modos, alguna noción se adquiere, desde la formación media y con la experiencia
sensible, sobre espacio y tiempo, masa y carga, movimiento y energía, posición, velocidad o
rapidez, aceleraciones, interacciones o fuerzas, vibraciones u oscilaciones y ondas, etcétera.
En este capítulo no se remediarán falencias que pueden deberse al sistema educativo o al
medio cultural o ambas cosas. Pero se introducirán o reforzarán algunas nociones o conceptos
útiles para ingresar al mundo de la nueva física. Puede ser útil para algunos lectores apelar al
apéndice, en donde se habla de algunos conceptos clásicos, para que los compare con los
nuevos, cuánticos, de los cuales también diremos algo. Estado, paquete de ondas, colapso de
la función de onda, superposición, observable, operador, espín, espacio de Hilbert, no
localidad, enmarañamiento o entrelazamiento y muchos más que vendrán más adelante, son
conceptos y entidades más complejos; se definirán en términos simplificados a su debido
tiempo, sin complicaciones ni pretensiones mayores, procurando en todo caso ser precisos.
Aunque creamos saber qué se entiende por aparato de medida, realidad objetiva y otros
términos aparentemente comunes, incluido observador consciente, veremos que en el
dominio cuántico hay que redefinirlos. No sobra insistir en que la teoría cuántica,
probablemente más que cualquier otro campo de la ciencia, es contraintuitiva. Se requiere en
gran medida de la filosofía, así sea para revaluarla, si se quiere aprehender, o al menos
comparar, la nueva realidad cuántica, con la supuestamente más material, la clásica. Los
resultados cuánticos, los más precisos hasta ahora sin lugar a dudas, son inesperados, como lo
son las conclusiones que de ellos se derivan. De sus aplicaciones hablaremos en la segunda
parte.
Hay una premisa fundamental, común a los dos campos, el clásico y el cuántico, que puede
servir como punto de partida: el resultado de una medición es siempre un número o un
conjunto de números reales. Ello es consecuencia del carácter cuantitativo de una ciencia
teórico-experimental: eso es la física; se ocupa de predecir el valor de cantidades que se
pueden medir o determinar, directa o indirectamente o, a partir de observaciones y
mediciones cuidadosas, establecer reglas cuantitativas, formular leyes en un lenguaje
matemático, lo más generales que sea posible, sobre los fenómenos físicos... los de la realidad
sensorial (así los sensores sean sofisticados instrumentos), para decirlo de alguna manera. Se
hace necesario entonces introducir un lenguaje que nos permita precisar de la mejor manera
lo que se quiere medir o determinar. Por ejemplo, cuando nos referimos al todo hay que hacer
distinciones como éstas, para no caer en contradicciones: el Universo Causal es el trozo de
universo al que tenemos acceso a través de observaciones; no se puede hablar de
separabilidad, en el sentido exigido por Einstein, en los sistemas cuánticos correlacionados
(véanse la segunda y la tercera parte). A propósito de Universo, surge la siguiente pregunta
todavía sin respuesta: cuando se trata de hacer observaciones sobre el U i e so o o u
todo, ¿quién es el observador? Discutamos el penúltimo asunto, el de la separabilidad o no.
En la tradición griega y en la metódica ciencia iniciada con Francis Bacon y Galileo Galilei se ha
supuesto que para entender el comportamiento de un objeto compuesto, éste se puede
dividir en partes y analizar por separado cada una de ellas. Está implícita la hipótesis de que
cada una de las partes tiene realidad física en sí misma. Nadie la habría puesto en duda, de no
ser por las implicaciones de la nueva física. La exigencia explícita de respetar esa realidad está
contenida en una famosa publicación de Einstein, Podolsky y Rosen de 1935, conocida
usualmente como paradoja EPR. Pues bien, el problema se trasladó de la filosofía a la física
experimental con las también famosas Desigualdades de Bell: todos los experimentos
realizados desde 1982 (Aspect, 1982) muestran el carácter observable y medible de las
correlaciones cuánticas, capaces de tomar valores más grandes que los límites exigidos por
una descripción realista separable de tipo clásico; aquellos han confirmado los valores
predichos cuánticamente, valores clásicamente prohibidos.
Una cantidad física es objeto de predicción y por ende, aunque sea solo en principio, de
medición, cuando es observable. Una vez que se conoce su valor, un conjunto de números
reales, puede decirse en qué estado se encuentra (o se encontraba, porque puede ocurrir que
inmediatamente después de la observación o medición haya cambiado de estado).
Precisaremos el concepto de estado en el capítulo 4. Los instrumentos con ayuda de los cuales
se observa son extensión de los sentidos. Es el cerebro, en últimas, quien interpreta. Solía
suponerse que de eso puede encargarse a la teoría, pero no es así.
Hay un aspecto delicado que no puede evadirse: el aparato de medida (ente clásico) influye en
el resultado que se obtenga, independientemente de qué tan preciso sea aquel, o mejor, la
influencia es más fuerte en la medida en que se le exija al aparato una mayor precisión,
particularmente a escala atómica o subatómica. Ésta es una parte esencial del principio de
indeterminación, al cual ya nos hemos referido y volveremos (Caps. 4 y 5), enunciado por
Werner Heisenberg en 1927. Pero, como también se afirmó arriba, no lo es todo: hoy se
podrían hacer observaciones libres de toda interacción, lo que nos llevó a reformular ese
famoso principio.
Uno de los conceptos básicos de la física clásica (de la ED, en particular) es el de campo. Esa
fue la gran generalización que inútilmente buscó Einstein. Es extraño que, a pesar de haber
puesto la piedra fundamental de la materialización del campo con los granos de luz o
partículas del campo electromagnético, no haya sido el primero en postular el gravitón. Este
formaría parte, al igual que el fotón y otros bosones, de las denominadas partículas
mediadoras. También son conceptos fundamentales, por supuesto, corpúsculo y onda. La
fuerza no es lo mismo en el sentido aristotélico que en el newtoniano. En la nueva física, el
concepto de interacción es más rico que el de fuerza y está mediada por bosones. Veremos
que el de entrelazamiento se vuelve un concepto fundamental, desprovisto del de interacción.
Antes de ir a los de la nueva física, vale la pena examinar algunas nociones de la clásica.
1.6 Evolución de la física
El libro de Einstein e Infeld con ese título (1938), de carácter no histórico, sigue teniendo
validez en lo fundamental, a pesar de los años transcurridos desde la actualización hecha por
Infeld (1961). La razón es muy simple: desde entonces, no han surgido teorías verdaderamente
nuevas en la física que nos hagan cambiar de paradigma. Estas últimas son la QT y la GT. Un
buen complemento, más histórico que el anterior, quizá menos conceptual y menos profundo
pero más amplio y más actual, aunque centrado en la astronomía, lo constituye To explain the
world: the discovery of the modern science. (Weinberg, 2016.) La ventaja al hacer un recorrido
por la historia radica principalmente en poder examinar otros puntos de vista que en su
momento no fueron exitosos. En ocasiones las ideas reviven y, una vez corregidas o ampliadas,
tienen éxito. Así ocurrió con la teoría corpuscular de la luz debida a Newton y con el concepto
de constante cosmológica introducido por Einstein. Aunque el enfoque ondulatorio de la luz
era correcto en principio, tuvo durante mucho tiempo un grave lastre: las ondas se
propagarían en un medio sutil, el éter. Además, no era claro qué era lo que se propagaba. Fue
necesario esperar a que se disiparan las dos nubes a que hacía referencia Kelvin en 1900, a las
que volveremos más adelante. Una de ellas tenía que ver precisamente con la existencia o no
del éter. La otra, aparentemente más sencilla, tenía que ver con el problema de la
equipartición de la energía. Su solución puso de manifiesto otros nubarrones en el firmamento
clásico, a los que también volveremos.
En esta y la siguiente sección resumiremos algunas de las ideas que llevaron a una mejor
descripción de la naturaleza a partir de una nueva concepción de la materia, la energía y el
espacio-tiempo. Aunque no hemos seguido más que parcialmente la línea de los autores
anteriores, la idea central se mantiene la misma: la ciencia no se inventa, se descubre; en
palabras de Einstein, la construcción del conocimiento científico es una tarea detectivesca. Y
para ello se requiere tanto del razonamiento como de la experimentación… del olfato; en
ocasiones las pistas son falsas… a e udo las o jetu as so equivocadas; las buenas pistas se
constituyen después en avances que nos llevan por el buen camino; los avances facilitan el
diseño de nuevos experimentos y la elaboración de novedosos planteamientos, luminosas
conjeturas y pistas adicionales. Todo esto sumado hace que el avance de la ciencia, por ende
de la tecnología, sea cada vez más vertiginoso, a la vez que apasionante.
La física hoy es tan apasionante como lo fue con Galileo, Newton y sus predecesores o quizá
más. La astronomía, la contemplación de la desmesura cósmica, fue en aquella época su mayor
aliciente y para la sociedad lo fue el poder predecir la ocurrencia de algunos fenómenos
naturales de interés para la comunidad. Cuando se pudo mirar a lo que se juzgaba
infinitamente pequeño se tuvo un nuevo espacio para construir modelos y diseñar artefactos
que llevarían simultáneamente a una mejor comprensión de la naturaleza y a mejorar, en
principio, las condiciones de vida de la especie. Nos estamos refiriendo al mundo
microscópico, del que surgiría más recientemente el universo nanoscópico.
En la segunda parte trataremos el tema de la nanotecnología. Esta, convergencia de varias
ciencias en la escala nanométrica, no podría haberse desarrollado sin los descubrimientos que
condujeron a la física cuántica. Tampoco habría podido surgir la física de las altas energías,
emparentada con la cosmología.
Reparando en la acepción develar que tiene el verbo descubrir, es como si numerosos velos
cubrieran el entendimiento de la naturaleza, la comprensión de sus fenómenos y la
interrelación entre ellos. Las primeras capas, verdaderos caparazones, son difíciles de separar,
pero también lo son las más profundas. La capacidad de la ciencia, en particular de la física,
para abordar esa tarea develadora, es lo que destacamos a grandes rasgos en esta sección.
Contrástese el significado de este término con el de revelar, palabra mágica a la que apelan las
religiones.
Antes hemos presentado sucintamente los orígenes de la ciencia antigua sin detenernos en su
desarrollo. Ahora nos corresponde examinar este último desde que se puede hablar de ciencia
moderna, sin profundizar en los conceptos. A estos nos hemos referido en los apéndices,
dejando de lado la historia. Primero fue el problema de la adecuada descripción del
movimiento, un asunto que está emparentado con la geometría. No bastaba con observar los
astros, planetas o estrellas. El examen de su comportamiento condujo al descubrimiento de la
capacidad predictiva de la ciencia y de su simplicidad.
Después vino el asunto de determinar las causas del cambio de movimiento. Surgió así la
posibilidad de predecir, con la precisión de los mecanismos de relojería, el movimiento de los
planetas y de los objetos que se mueven en la superficie terrestre. Se encontró que las causas
pueden estar en esos mismos cuerpos. Si las causas están en ellos, debe haber un principio de
reciprocidad. Tal vez no fue demasiado complicado para una mente inquieta e imaginativa
como la de Newton adivinar esa reciprocidad en el llamado Principio de Acción y Reacción,
conocido generalmente como su tercera ley. La relatividad del movimiento condujo a Galileo a
enunciar el Principio de Inercia, también llamado primera ley del movimiento de Newton. Fue
mucho más complicado el enunciado de la segunda ley, la ecuación de movimiento por
antonomasia.
Galileo había estudiado el problema de la caída de los cuerpos bajo el efecto de la gravedad.
Hay indicios de que en el siglo IX un monje escocés, Duns Scotus, sugirió que la fuerza de
gravedad que hace que los cuerpos caigan decrece con la distancia a la superficie de la tierra,
mas no hizo referencia alguna al movimiento de los planetas.
Fue el cura y astrónomo Ismael Bulliardus quien expuso por primera vez (1645) la hipótesis de
que los planetas eran atraídos por el sol con una fuerza inversamente proporcional al
cuadrado de la distancia y defendió el movimiento elíptico de aquellos a partir de las
observaciones de Kepler, en contra de la suposición de Galileo y Copérnico. La tercera ley de
Kepler, que expresa la proporcionalidad entre el cuadrado del periodo y el cubo del radio
medio de la trayectoria, en particular para el caso del movimiento circular, más fácil de
examinar, lleva a la proporcionalidad con el inverso del cuadrado de la distancia, en este caso
el radio de la trayectoria. En efecto, ya era claro para Huygens (1659), aunque probablemente
Newton lo encontró por un razonamiento independiente, que existía una aceleración asociada
al cambio en la dirección del movimiento: se trata de la aceleración centrípeta, proporcional al
cuadrado de la rapidez (magnitud de la velocidad) e inversamente proporcional al radio, en
general el radio de curvatura, constante para el movimiento circular, variable para el
movimiento elíptico. (Véase apéndice I.) Pero la rapidez en el movimiento circular no es más
que el perímetro de la circunferencia dividido por el periodo. Así, pues,
v2/R = (2ΠR/T)2/R = 4Π2R/T2.
Si se recuerda que el lado izquierdo es la aceleración, proporcional a la fuerza gravitacional, y
se tiene en cuenta la tercera ley de Kepler, que nos dice que el cuadrado del periodo es
proporcional al cubo del radio para este caso, es evidente que la fuerza gravitacional será
proporcional al inverso del cuadrado de la distancia. Hemos pasado por alto la dificultad en
reconocer que la fuerza es la causa del cambio de velocidad en un sentido general, es decir,
de la aceleración. En 1665, el primer año de la peste, Newton empezó a pensar en estos
problemas, a la vez que inventaba como herramienta para resolverlos el cálculo diferencial e
integral.
Newton fue más allá y enunció la ley de atracción entre cuerpos masivos o de gravitación
universal en la forma en que hoy la conocemos:
Fg = GMm/R2,
expresión en la cual m es la masa gravitacional del objeto atraído (acelerado) y M la del objeto
que ejerce la fuerza. La situación puede describirse a la inversa, pues entre dos cuerpos
masivos hay una interacción o acción recíproca, por ende una reacción en cada uno de ellos,
de acuerdo con la tercera ley. Pero esas acciones so pe tu a io es… las pe tu a io es se
propagan o avanzan, poco a poco o muy rápidamente; no lo hacen instantáneamente. Newton
tuvo que admitir, a su pesar, la acción a distancia, una limitación del esquema mecanicista que
no podría resolverse sino dos siglos más tarde, en forma parcial.
Fue Henry Cavendish quien comprobó, mediante un experimento realizado con gran precisión,
reportado en 1798, la proporcionalidad entre la fuerza de atracción gravitacional y la masa o
cantidad de materia del cuerpo. Para entonces, la ley de Coulomb, que expresa una relación
similar (ley del inverso al cuadrado) para la interacción entre cargas eléctricas, ya había sido
enunciada. Probablemente Cavendish mismo tuvo mucho que ver con ella, aunque nunca
reclamó paternidad en este ni en otros de sus experimentos eléctricos.
1.7 Las dos grandes teorías deterministas y sus limitaciones
Newton y Maxwell tienen el privilegio de haber sintetizado las 2 grandes teorías de la física
clásica que seguirán siendo el fundamento de las aplicaciones macroscópicas, el primero de la
mecánica (debería denominarse dinámica), el segundo de la electrodinámica (ED), usualmente
llamada electromagnetismo. Einstein intentó unificar las dos teorías; ese intento continúa
vigente. El gran mérito de Einstein fue descubrir que el campo gravitatorio es una alteración de
la curvatura del espacio-tiempo, debido a la presencia de grandes masas. Otro resultado de su
teoría es la equivalencia entre la masa inercial y la masa gravitacional, o Principio de
Equivalencia, el cual en términos sencillos afirma: un sistema inmerso en un campo
gravitatorio es puntualmente indistinguible de un sistema de referencia no inercial acelerado.
Para el lector que no ha seguido un curso de nivel terciario (o universitario, si se prefiere),
hemos hecho un recuento pedagógico en el apéndice.
Los grandes avances conceptuales que superaron a la mecánica de Newton vinieron
precisamente de la investigación de los fenómenos eléctricos y magnéticos en el siglo
siguiente, particularmente en la segunda parte. Nos dicen Einstein e infeld:
«Durante la segunda mitad del siglo XIX, se introdujeron en la física ideas nuevas y revolucionarias, que
abrieron el camino a un nuevo punto de vista filosófico, distinto del anterior mecanicista. Los resultados
de los t a ajos de Fa ada , Ma ell He tz o duje o al desa ollo de la físi a ode a… a u a ue a
imagen de la realidad».
Figura 1.1a. Campo gravitacional debido a la Tierra. Se ilustran las denominadas líneas de campo, pero
solamente para la región exterior. En el interior no es tan sencillo hacerlo siguiendo el mismo esquema.
Figura 1.1b. Experimento pensado de Newton. Desde lo alto de una montaña (irreal) se lanzan bolas de
cañón cada vez con mayor velocidad (suministrándoles más impulso inicial). Finalmente la bola dará la
vuelta a la tierra, describiendo una trayectoria circular. Eso es lo que hace un satélite artificial (círculo
interno, para un caso extremo, o el externo para una situación real).
La segunda, la de la derecha, reproduce un diagrama de Newton con el que ilustra lo que
ocurriría a una bala de cañón que se lance con rapidez cada vez mayor en dirección horizontal
desde lo alto de una montaña, si no se tiene en cuenta la atmósfera terrestre. Es evidente que
la masa del proyectil es completamente insignificante comparada con la de la tierra, por lo que
el movimiento de esta última no se considera. Ese experimento pensado lleva a la conclusión
de que en algún momento la bala de cañón describirá una trayectoria circular, con la
característica de que la dirección de la velocidad es perpendicular al campo gravitatorio. Ese es
en esencia el comportamiento de los satélites artificiales modernos, como ilustra el círculo
externo, lo mismo que ocurre con la luna, satélite natural de la tierra.
Para la trayectoria circular, caso de la luna y los satélites artificiales, se mantiene la rapidez,
por ende la energía cinética o de movimiento del objeto que gira. En general el movimiento es
elíptico para una tierra que pueda suponerse estática, y se va a conservar lo que se denomina
energía mecánica, suma de la energía cinética y de la energía potencial, siendo esta negativa y
disminuyendo su magnitud con el inverso de la distancia. (Véase el apéndice I.)
La representación del campo de fuerza tiene la ventaja de que no hace alusión al objeto sobre
el que actúa la gravedad terrestre. Aparentemente esta era la única ventaja. Pero gracias a
Maxwell, a Einstein y a sus predecesores el campo se volvió algo real. En la nueva física, está
constituido por partículas, denominadas bosones intermediarios. Para el caso del campo
electromagnético, los bosones son los fotones. Cuando se publicaron estas notas por primera
vez (virtualmente, el 15/02/2016), justo se acababan de detectar las ondas gravitacionales. Es
decir, estamos ad portas (¡aún falta mucho!) de detectar gravitones. Pero vamos por partes.
El movimiento del electrón en el átomo de hidrógeno, si se analiza clásicamente, sería similar
al de la luna o el satélite alrededor de la tierra o el de los planetas alrededor del sol. Hay, no
obstante, una diferencia esencial: siendo el electrón una partícula cargada, al girar de acuerdo
con las leyes clásicas produciría una onda electromagnética, es decir, radiaría energía, por lo
cual caería irremediablemente al núcleo atómico si se aplicaran las mismas leyes clásicas de la
dinámica y de la ED. Afortunadamente no es así, y fue ese el verdadero comienzo de la teoría
cuántica, QT, gracias a Niels Bohr.
Supongamos que no es el electrón el que va a moverse en trayectoria circular sino un conjunto
de electrones, como ocurriría al establecerse una diferencia de potencial a lo largo de un
alambre de cobre de forma circular; el resultado es una corriente eléctrica, que para el caso se
denomina corriente estacionaria. Este fue un famoso experimento realizado públicamente por
el danés Christian Ørsted en 1820, con enormes repercusiones desde el punto de vista
conceptual. La más importante conclusión: al igual que los imanes, una corriente eléctrica
produce campos magnéticos.
Cualquiera podría imaginar que con esta observación ya quedaron completos los fundamentos
del electromagnetismo: las cargas eléctricas producen campos eléctricos y las corrientes
eléctricas crean campos magnéticos. Los fenómenos no son así de simples, en particular
porque el movimiento de las cargas es variable. Eso quiere decir que los campos producidos no
serán estacionarios (estáticos), como por simplicidad hemos supuesto para el campo
gravitatorio.
Como lo señalan Einstein e Infeld, las observaciones y generalizaciones de Faraday, Maxwell y
Hertz y, una década antes que este último descubriera las ondas hertzianas, el experimento de
‘o la d, die o luga a u a ue a isió de la físi a, o duje o a u a ue a i age de la
ealidad . En resumen, con su ley de inducción electromagnética, Faraday estaba dando
cuenta de un gran descubrimiento: que un campo magnético variable en el tiempo, sin
importar el origen de esa variación, produce un campo eléctrico, por tanto es capaz de
generar corrientes eléctricas en conductores; Maxwell, intuyendo una reciprocidad en el
comportamiento, descubrió la ley de inducción magnetoeléctrica, a saber, que un campo
eléctrico variable produce un campo magnético, y Hertz unificó estos dos descubrimientos,
que teóricamente habían llevado a Maxwell a predecir la existencia de ondas
electromagnéticas, produciendo ondas de radio en el laboratorio. La generalización de los
resultados y la inclusión de las ondas de luz dentro del espectro electromagnético estaban a la
vuelta de la esquina.
Pero el experimento de Rowland tenía mucho más de fondo. Recuérdese que el experimento
consistió en hacer girar en trayectoria circular una esfera cargada, comprobándose que
producía un campo magnético, similar al de la corriente circular de Ørsted. Ese experimento,
trasladado a nivel atómico, una vez iniciado el siglo XX, llevaría a la conclusión de que las leyes
del electromagnetismo resumidas por Maxwell en sus 4 ecuaciones, tenían pies de barro.
En síntesis, a pesar de lo grandiosas, las dos grandes teorías de la física moderna, la dinámica
de Newton y la ED de Maxwell deberían modificarse. La primera modificación, que por cierto
afectó solo a la primera, provino de los resultados negativos del experimento de Michelson y
Morley (1887) y condujo en primera instancia a la teoría de relatividad especial. La segunda, a
la QT. Einstein, trabajando en solitario, con ayuda de algunos matemáticos prominentes,
produjo posteriormente la GT. Las dos teorías son tan precisas como complejas. Se entiende
conceptualmente más fácil la segunda que la primera, pero la matemática de esta última es
más complicada, sin que ello signifique que los postulados cuánticos, enunciados
matemáticamente, sean triviales. El gran éxito de la última, la predicción de las ondas
gravitacionales, acaba de verificarse en el laboratorio LIGO (laser interferometer gravitational-
wave observatory), después de un siglo de haber sido formulada la ecuación fundamental.
1.8 Lo que faltaba (y lo que falta) por descubrir
Pero ahí no termina la historia. Ahora resulta que las perturbaciones mismas son también
materiales: esas ondas son corpúsculos, y viceversa. Vista en perspectiva, la sorprendente
hipótesis de Einstein de que la luz está compuesta de corpúsculos vino a ser como la solución
práctica de un problema, y así fue concebido inicialmente. Lo mismo ocurrió con la hipótesis
complementaria, lanzada por de Broglie dos décadas después, de que el electrón es una onda.
Ahora decimos que el comportamiento de uno y otro, en general de cualquier objeto cuántico,
es dual.
Einstein meditó por más de medio siglo qué quería decir aquello de que la energía de la luz
esta a ate ializada e g a os. ¿Qué so los g a os de luz? , se segui ía p egu ta do po o
a tes de su ue te. Y ag ega ía sa ásti a e te: Lle o edita do so re esta cuestión más
de 50 años. Cualquier pillo (refiriéndose a los físicos ortodo os ee te e la espuesta… pe o
se e ui o a .
Aunque él no lo postuló de esa manera, lo que hay en las ondas gravitacionales que se acaban
de descubrir son gravitones. Parece una extensión elemental de su hipótesis sobre las ondas
gravitacionales, las perturbaciones en el espacio-tiempo provocadas por la presencia de la
materia-energía, como podría decir Wheeler. Su verificación experimental será mucho más
compleja que la de los fotones, cuya existencia no dejó lugar a dudas después del experimento
de dispersión de rayos X ideado por Compton que condujo al efecto del mismo nombre. (Para
entender lo que significa dispersión en este contexto, véase el apéndice.)
Las 4 interacciones fundamentales, a saber, la gravitacional y la electromagnética que se han
revelado desde muy antiguo y a las que se agregan las descubiertas en el núcleo, débil y fuerte
sucesivamente, están mediadas por los denominados bosones intermediarios. A estos hay que
agregar otro, postulado hace más de medio siglo y recientemente descubierto, el bosón de
Higgs. Algunos podrán creer que el fin de la historia de los descubrimientos en física está a la
vuelta de la esquina. Si así pensáramos, seríamos tan ingenuos como Maxwell y Lord Kelvin a
fines del siglo antepasado. Esos grandes descubrimientos o verificaciones experimentales a
que nos acabamos de referir, el bosón de Higgs y las Ondas Gravitacionales, no son más que el
preámbulo a nuevos velos que habrá que remover en el avance interminable de la ciencia. A lo
mejor son solo la punta del iceberg. Como sea, la unificación de las interacciones con la que
soñara Einstein se ve todavía lejana.
En esta primera parte del siglo, sin lugar a dudas, los avances más espectaculares se darán en
el procesamiento de la información, seguramente con grandes sorpresas en el procesamiento
de la información cuántica. La tercera parte de este escrito está dedicada a las primeras
exploraciones que se han hecho en este terreno. La primera gran verificación experimental en
esa dirección se dio hace ya más de 3 décadas, con el experimento de Alain Aspect (1982),
rigurosamente antes con el de John Clauser (1972). Los dos físicos que acabamos de
mencionar, al igual que Higgs, recibieron el preciado galardón Nobel. Si se es justo, la no
localidad de la teoría cuántica que hoy sigue conmocionando al mundo y produciendo
maravillosos resultados prácticos, fue probada hace ya medio siglo con el descubrimiento del
denominado efecto Aharonov-Bohm (1957). El trabajo de aquellos pioneros y de otros que han
seguido sus huellas no deja lugar a dudas sobre la rareza más descomunal de la teoría
cuántica, o su predicción más fantasmagórica, como dijeran Einstein, Podolsky y Rosen en
lenguaje sarcástico (EPR, 1935).
John Bell de seguro hubiera recibido también la famosa presea, de no haber muerto
prematuramente, por la célebre desigualdad que lleva su nombre (1964). Fue el comienzo de
las correlaciones cuánticas o correlaciones no locales, como se denominan de manera más
general.
Un físico latinoamericano poco conocido como tal, pues dedicó la segunda parte de su vida a la
literatura y a la reflexión filosófica, nos dice:
«Frente a la infinita riqueza del mundo material, los fundadores de la ciencia positiva
seleccionaron los atributos cuantificables: la masa, el peso, la forma geométrica, la posición, la
velocidad. Y llegaron al convencimiento de que "la naturaleza está escrita en caracteres
matemáticos, cuando lo que estaba escrito en caracteres matemáticos no era la naturaleza,
sino... la estructura matemática de la naturaleza. Perogrullada tan ingeniosa como la de
afirmar que el esqueleto de los animales tiene siempre caracteres esqueléticos.» (Sábato,
1951.)
Continúa Sábato: «Esta es una muestra de cómo los cientistas (cientificistas) son capaces de
entregarse a la imaginación más desenfrenada en lugar de atenerse, como pretenden, a los
hechos. Los hechos indican, modestamente, que el movimiento de la esferita cesa, tarde o
temprano. Pero el cientista no se arredra y declara que esta detención se debe a la
desagradable tendencia de la naturaleza a no ser platónica. Pero como la ley matemática
confiere poder, y como el hombre tiende a confundir la verdad con el poder, todos creyeron
que los matemáticos tenían la clave de la realidad. Y los adoraron. Tanto más cuanto menos
los entendieron.»
Ignoramos qué quiso decirnos Sábato con este último párrafo, pero el poder de la tecnociencia
no es platónico. El problema no es ese, sin embargo, la gravedad del asunto se revela
claramente en la frase de Carl Sagan sobre la mezcla peligrosa de ignorancia y poder atrás
citada.
En síntesis, nos faltará mucho por descubrir en el presente siglo y los avances más
espectaculares están por venir. Pero puede afirmarse sin reservas que en el camino hacia la
sabiduría nos resta mucho más por aprender y comprender. Para terminar este ya largo
capítulo, vayamos a los descubrimientos que rigurosamente dieron lugar a la ciencia
contemporánea: no fue la ley de radiación de Planck, con toda su importancia descomunal,
imposible de exagerar. Fue el descubrimiento del electrón, del fotón y del núcleo atómico,
además de todo lo que hay dentro de este último. Sobre el primero y el tercer descubrimiento,
se recomienda The discovery of subatomic particles de Weinberg en su edición revisada (2003);
para una historia más extensa sobre el electrón, véase (Ley Koo, 1997); para el segundo, la
literatura es más abundante; pueden verse, p.e., (Beltrán, 1992; Cetto, 1987).
Las aplicaciones de la física cuántica a la biología, por no decir los efectos cuánticos en
sistemas biológicos, incluidos los sistemas neuronales, seguramente será uno de los capítulos
más interesantes de la ciencia en los próximos años.
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
Para la electrónica del Siglo XX fue tan importante el descubrimiento del electrón hecho por
Joseph J. Thomson (1897), más exactamente el establecimiento de su carácter corpuscular,
como lo fue la verificación experimental 30 años después (1927) del comportamiento como de
onda que a menudo (complementariamente, diríamos hoy) exhiben los electrones, de la que
participó su hijo William George Paget. El primero dio lugar a la electrónica de los tubos de
vacío, predominante en la primera mitad del siglo, el último a la de los semiconductores,
durante la segunda. En el presente siglo la nano-opto-electrónica sigue haciendo de esta
partícula-onda y de su compañero inseparable, el fotón, onda-partícula, los protagonistas
principales. Rigurosamente hablando, el electrón no fue descubierto, se sabía de su presencia
y se le trataba como si fuera un continuum en el fluido eléctrico. Tampoco el fotón, presente
en las ondas luminosas. Leucipo imaginaba que la luz estaba compuesta de partículas
extremadamente diminutas y Newton elaboró una teoría sobre esas partículas, con base en
sesudos experimentos.
Recordábamos en la introducción que 2015 fue declarado Año Internacional de la Luz (IYL, por
las siglas en inglés). Es innecesario resaltar su importancia. Hoy tenemos claro que (haciendo el
papel de pillos a que aludiera Einstein), como lo afirmaron ya los griegos y después lo sostuvo
Newton, ella está compuesta de partículas extremadamente diminutas. El término fotón fue
introducido por Gilbert Lewis en 1926; el concepto moderno sobre esos misteriosos granos de
energía se lo debemos a Einstein; el IYL es un reconocimiento tardío a su aporte, no solo en la
clarificación del concepto, si es que se puede afirmar que lo tenemos claro, sino también a su
otra teoría, no reconocida adecuadamente por el Comité Nobel, la Teoría de Gravitación.
En rigor no podemos afirmar que alguien haya descubierto el fotón: fue Arthur Compton
(1923) quien dio la primera demostración inequívoca sobre su existencia, prevista desde
tiempos inmemoriales. Cuando los griegos de la escuela epicúrea afirmaron que todo está
hecho de átomos y luz, y creyeron que la luz eran partículas extremadamente diminutas,
estaban en lo cierto. La palabra átomo que ellos acuñaron fue reducida por Dalton a los
elementos entonces conocidos. Si nos atenemos a partes irreducibles o indivisibles, las
partículas elementales que hoy conocemos serían los verdaderos átomos a que se referían
Leucipo y sus seguidores. Entonces el electrón y el fotón sí que son constituyentes
fundamentales de la materia estable.
Hasta cierto punto, ocurre lo mismo con el núcleo. Desde hace cerca de un siglo sabemos que
sus ingredientes son protones y neutrones; también hemos aprendido que estos últimos son
inestables, como lo son en una mayor proporción los elementos pesados y los livianos que no
tienen el mismo número de protones y neutrones. Hace ya más de medio siglo que esos
constituyentes del núcleo dejaron de ser partículas elementales. El modelo estándar nos habla
más bien de los quarks, en 6 variedades con sus correspondientes anti-quark, y de los leptones,
cuyo representante estable es precisamente el electrón. El muón y el tauón son formas más
exóticas de leptones, y aparentemente lo son sus correspondientes neutrinos, presentes por
todas partes, aunque no los sintamos, en sus 3 variedades: electrónico, muónico y tauónico.
El descubrimiento del núcleo atómico tuvo más variantes que el del electrón. La radiactividad,
descubierta en 1896 por Antoine Henri Becquerel, sirvió de detonante a una vigorosa
investigación atómica que se plasmó en el modelo de Rutherford, presentado por primera vez
en 1911. Fue el neozelandés E est ‘uthe fo d uie autizó o el o e de adia io es α,
β γ a las emisiones encontradas en el periodo anterior; corresponden ellas a núcleos de helio,
electrones o positrones y radiación electromagnética de una energía mayor que la de los rayos
X, respectivamente, procedentes todas del núcleo atómico. De ahí surgió un vigoroso campo
de investigación denominado física nuclear. Pero el asunto no terminó ahí, por el contrario,
sigue dando lugar a investigaciones fundamentales y aplicadas de todo tipo, incluidas las que
se hacen sobre armas nucleares y las que se realizan hoy en el CERN, las cuales arrojan luz
sobre los ingredientes fundamentales de la materia-energía y los misterios que precedieron a
la gran explosión. Es imposible referirnos a estos asuntos ampliamente en el presente ensayo,
aunque no se pueden soslayar del todo.
Dada su importancia en la evolución de las ideas sobre los constituyentes últimos de la
materia, en esta última sección del capítulo describimos los experimentos que condujeron al
descubrimiento del electrón, del núcleo y del carácter corpuscular de la luz. Del primero y
tercero, con algunos de los antecedentes históricos, incluidos los mal llamados rayos catódicos
y el fenómeno de los fotoelectrones; del segundo más escuetamente: allí inicia la verdadera
historia de las partículas elementales, tema que no podremos cubrir a satisfacción. Esos
descubrimientos dieron lugar a los primeros modelos, hoy totalmente descartados, de un
átomo que dejó de ser indivisible. La explicación del efecto fotoeléctrico y las falencias de los
primeros modelos atómicos darían lugar a uno mucho más realista, a la postre también
equivocado, el cual tiene el mérito de incorporar los saltos cuánticos, tan absurdos o más que
los corpúsculos de las ondas luminosas. Nos referimos al Modelo de Bohr, a pesar de lo
erróneo, tan utilizado en textos básicos sobre el átomo. Por su importancia histórica,
volveremos a él en el segundo capítulo.
1.9.1 El electrón como partícula
A finales del siglo XIX tuvo lugar una gran controversia sobre la naturaleza de las descargas
eléctricas en gases rarificados, en particular sobre las que los experimentalistas dieron en
llamar rayos catódicos. Interesantes en sí mismos, su estudio llevó a Thomson a un problema
más básico: la naturaleza de la electricidad. El resultado fue triplemente gratificante, porque:
1) puso de relieve la divisibilidad del átomo; 2) llevó al descubrimiento de la primera partícula
elemental que se conoce, la única que ha permanecido como tal por más de cien años y la más
liviana de todas, a excepción del neutrino; 3) dilucidó el carácter de la electricidad, finalmente
corpuscular o granular, de acuerdo con los resultados del experimento, al contrario de lo que
supusieron en casi todas las concepciones precedentes, que la imaginaron como un
continuum.1 Aunque en el lenguaje diario se hable del fluido eléctrico, una persona bien
informada sabrá que el transporte de carga en los conductores lo realizan los electrones.
En realidad, la historia de tales rayos se remonta dos siglos atrás. Rigurosamente hablando,
podría rastrearse su origen al de la descarga eléctrica conocida precisamente por ese nombre
desde muy antiguo y sistemáticamente estudiada por primera vez por el norteamericano
Benjamín Franklin. Podría decirse que con los electrones ocurrió al revés que con los fotones o
partículas de luz; con estos últimos, por cerca de dos milenios, desde Demócrito hasta
Newton, se creyó acertadamente (hasta cierto punto) que eran diminutos corpúsculos; a
finales del siglo XIX se creía que los rayos catódicos y los rayos de luz eran ondas; ahora resulta
que los dos haces están compuestos por partículas que bajo ciertas circunstancias se
comportan como ondas. Pero volvamos a la historia del descubrimiento del electrón como
partícula.
En 1709 Francis Hauksbee, conocido por sus observaciones sobre la repulsión eléctrica,
reportó que cuando se extrae aire de una vasija de cristal hasta cuando la presión se reduce a
1/60 la presión del aire normal y se conecta la vasija con una fuente de electricidad de fricción,
aparece una extraña luz en el interior del recipiente. Destellos similares fueron reportados y
asociados al vacío parcial que se produce en la superficie superior de columnas de mercurio en
los barómetros. En 1748 el médico naturalista William Watson describía la luz surgida en un
tubo de 81 centímetros en el que se había p o o ado el a ío, o o u a o de lla a
la ie te . Mi hael Fa ada ha la ta ié e sus otas de tales rayos. Pero al igual que sus
contemporáneos no acertó a comprender la naturaleza de esa luz: era demasiado temprano
para realizar los experimentos que la minuciosa observación (indirecta) de tan diminutas
partículas requería.
El rayo, complejo fenómeno de descargas eléctricas que sirvió de punto de partida, tal como
lo concibieron o imaginaron destacados científicos del siglo XIX, podría ser una forma de
1
Hasta hace medio siglo se creía que la carga se presentaba siempre en múltiplos enteros de la carga del
electrón. Gell-Mann y Nishijima, en un intento por reducir a unas pocas el enorme número de partículas
hadrónicas observadas, propusieron un modelo teórico en el que se supone la existencia de algunas
partículas elementales que exhiben carga fraccionaria, 1/3 o 2/3 de la carga del electrón: éstas son los
quarks, de los cuales se han descubierto seis tipos, o mejor, tres colores en dos diferentes sabores.
radiación producida por las vibraciones del éter, en cuyo caso sería similar en su naturaleza a
las ondas de luz o bien podría ser un haz de partículas diminutas. La naturaleza del rayo que se
asocia con el trueno, una corriente de electricidad, había sido puesta en evidencia en
experimentos realizados en 1752, sugeridos precisamente por el científico y político
norteamericano, quien dedicó muchos de sus esfuerzos a estudiar las intrigantes propiedades
de esas descargas, poniendo en riesgo su vida.
El escenario adecuado para estudios más cuidadosos exigía el desarrollo de tubos de vacío, lo
que se logró por primera vez en Alemania, con los tubos de Geissler. Johan Heinrich Geissler
era un experto soplador de vidrio y encontró la manera de sellar las uniones utilizando
mercurio. Su variante, el tubo de Crookes, permitió la observación más minuciosa de los que
inicialmente se denominaron rayos catódicos. El británico William Crookes e investigadores
alemanes, entre ellos Hertz, quien tuvo el privilegio de producir en su laboratorio las primeras
ondas de radio, inicialmente pensaron que se trataba de ondas electromagnéticas, de ahí la
denominación de rayos; sus colegas franceses y británicos eran de la opinión de que se
trataba de una corriente eléctrica. En 1894 el colaborador de Hertz Philipp Lenard observó
cómo los rayos catódicos traspasaban fácilmente una delgada lámina metálica sin dejar huella
visible, lo que acentuó la creencia de que se trataba de ondas electromagnéticas. Un factor
adicional de confusión lo introdujeron los rayos X, descubiertos por Wilhelm Röntgen al año
siguiente (1895), quien por ese descubrimiento recibiera el primer premio nobel en Física en
1901. Aunque Crookes cambió de opinión después de algunos experimentos en los que
incluso logró hacer que el haz de rayos catódicos moviera una liviana paleta, correspondió a su
compatriota Thomson dirimir la cuestión. Todavía no existían razones para creer que
existieran partículas de tamaño y masa mucho menor que los átomos mismos.
La explicación hoy en día es muy sencilla: cuando una corriente eléctrica fluye a través de un
gas, los electrones que forman parte de la corriente (un enjambre de electrones libres)
golpean contra los electrones de los átomos presentes en el gas (electrones ligados)
aumentando su energía (excitándolos y llevándolos a niveles superiores de energía, diríamos
hoy), la que torna a desprenderse en forma de luz (decaimiento o desexcitación) si las
condiciones son favorables. La experiencia que realizaron Franck y Hertz en 1914 lo confirman.
Este fue uno de los experimentos claves que ayudaron a establecer la teoría atómica
moderna, pues muestra que los átomos absorben y emiten energía en pequeñas porciones o
cuantos de energía, verificándose los postulados de Bohr con electrones como proyectiles que
proveen la energía. Las pantallas fluorescentes y las señales de neón se basan en el mismo
principio; la coloración está determinada por la frecuencia de la luz (fotones) que más
favorablemente emiten los átomos del gas (en realidad, los electrones ligados, al pasar de uno
a otro nivel de energía).
Era necesario eliminar al máximo permitido por la tecnología de la época el gas residual, antes
de poder detectar al responsable del efecto; era indispensable disponer de bombas de aire
eficaces. En 1885 Geissler inventó una que reducía la presión a una diezmilésima de su valor a
nivel del mar. Julius Plücker, catedrático de filosofía natural en la Universidad de Bonn, realizó
las primeras observaciones bajo estas nuevas condiciones. Utilizando la terminología de
Faraday, se denomina ánodo a la placa unida a la fuente de electricidad positiva y cátodo a la
otra. Resumiendo las observaciones, diríase que algo salía del cátodo, viajaba a través del
espacio casi vacío del tubo, golpeaba el cristal y era recogido por fin en el ánodo. Fue Eugen
Goldstein quien bautizó esa extraña sustancia con el nombre de rayos catódicos.
Pero los rayos catódicos no eran rayos, no formaban parte de la luz, un efecto secundario. Ya
el francés Jean Perrin, más reconocido por la verificación que hizo de las predicciones de
Einstein en torno a los átomos en 1908, desde 1895, en su tesis doctoral, había demostrado
que los rayos depositaban carga eléctrica negativa en un colector de carga. Y el alemán Walter
Kaufmann, asumiendo que se trataba de átomos cargados (o ionizados) del gas residual, trató
de establecer la relación e/m, llegando a la conclusión, para su sorpresa, de que era siempre la
misma, independientemente de qué gas residual se utilizara. Para entonces Thomson había
entrado en escena, pero sus primeras determinaciones de la velocidad de las partículas
estaban erradas. El hábil experimentalista Hertz había descartado prematuramente que las
partículas estuvieran cargadas: los campos eléctricos que aplicó para desviarlas no eran
suficientemente intensos, lo que le impidió culminar exitosamente el estudio emprendido en
su laboratorio; téngase presente además que el alemán estaba influenciado por la posición
filosófica de Ernst Mach, su compatriota. Thomson, libre de ese lastre, aunque no muy hábil
con sus manos, de acuerdo con el testimonio de sus auxiliares, sabía cómo planear el siguiente
paso para poder avanzar; y lo hizo acertadamente.
Rigurosamente hablando, nadie ha visto un electrón, a pesar de que desde hace más de un
siglo su existencia está por fuera de toda duda. Con los instrumentos adecuados, hoy en día se
detecta un electrón o un fotón, o mejor, el paso de un electrón o de un fotón. El tubo de rayos
catódicos (TRC), el mismo que daría lugar a las primeras pantallas de televisión (TV),
consistente en un tubo de vidrio sellado de mediano vacío, con 2 placas metálicas (cátodo y
ánodo) que permiten la producción de una descarga eléctrica con un modesto voltaje,
condujo al descubrimiento del electrón como partícula.
Los aspectos centrales del experimento de Thomson, realizado para determinar la relación
entre la masa y la carga de las partículas responsables de los rayos, pueden verse en cualquier
texto de física y se resumen en una ecuación que sirve de paso para aplicar los conceptos de
campo eléctrico y campo magnético, novedosos para quienes no tienen experiencia previa en
cursos de física. No así las dificultades que tuvo que vencer. En abril de 1897 expuso ante la
Royal Institution su opinión de que esas partículas eran mucho más diminutas que los
denominados átomos: nadie en la audiencia estuvo dispuesto a creerle.
Echemos un rápido vistazo a todo el proceso. No se discuten los detalles por brevedad y
porque el TRC por él utilizado, del cual se ilustra un prototipo en la figura 1.2, forma parte de
la anterior generación de televisores domésticos. Sinteticémoslo de esta manera: el electrón
es previamente acelerado a través de una diferencia de potencial V negativa entre cátodo y
ánodo, ganando así una energía cinética ½mv2 = eV. Al entrar con rapidez v en una región
donde existe un campo eléctrico o un campo magnético (vertical u horizontal, según el caso,
aproximadamente uniforme) es desviado de su trayectoria horizontal una pequeña distancia δ
(δe o δb según el caso).
Lo esencial del experimento de Thomson se resume en la expresión que obtuvo para la
relación entre la masa y la carga del electrón, m/e, a partir de las desviaciones
experimentadas por esa partícula indivisible (rigurosamente a-tómica) en campos eléctrico E y
magnético B, desviaciones fácilmente evaluables a partir de la fuerza de Lorentz discutida en
el apéndice, aplicada al electrón en el estricto sentido newtoniano. Simbolizando por ℓ la
longitud de la región de desviación y por L la de la región de proyección (llamada también de
deriva), se encuentra:
m/e = E ℓ L/v2δe
o
m/e = B ℓ L/vδb,
según el caso. La rapidez de los electrones (para desviación con campo eléctrico, la
componente horizontal de velocidad) depende solamente de la energía eléctrica suministrada
a los electrones al acelerarlos en el campo eléctrico existente entre el cátodo y el ánodo,
dependiente a su vez de la diferencia de potencial aplicado entre los dos. Thomson la
encontró experimentalmente tomando la relación entre las dos expresiones anteriores:
v = Eδb/Bδe,
puesto que la rapidez es la misma en ambos casos. Es notable que el orden de magnitud de la
velocidad de los electrones así acelerados es una fracción importante de la velocidad de la luz,
alrededor de 108 m/s. Esto permite no tener en cuenta la atracción que de todos modos
ejercerá el campo gravitacional de la Tierra sobre la diminuta masa de los electrones, del
orden de 10-31 kg: el tiempo que tardan en cruzar la región de desviación es del orden de 10 -9
s, lo cual se traduce en caída gravitacional insignificante, despreciable para los cálculos.
Fuerza de Lorentz:
F = q(E + v×B)
Figura 1.2 Vista esquemática de un tubo de rayos catódicos similar al utilizado por Thomson para
establecer experimentalmente la relación entre la masa y la carga del electrón. En la parte superior se
ilustran los campos eléctrico y magnético como los utilizados por Thomson en su experimento para
desviar los electrones, salvo que en el segundo caso dispuso de dos embobinados adecuadamente
dispuestos para que produjeran un campo magnético uniforme, de acuerdo con el diseño de Helmholtz.
Figura 1.3 Efecto fotoeléctrico. Los fotones incidentes sobre el cátodo desprenden fotoelectrones.
Figura 1.4. a) Energía de amarre de los electrones y energía de los fotones incidentes. b) Variación de la
corriente con el voltaje (des)acelerador, para dos intensidades luminosas diferentes ((Ic)1 ˃ (Ic)2).
Heinrich Rudolf Hertz reformuló, con base en sus resultados, la teoría de las ondas
electromagnéticas. A él le debemos también la observación meticulosa (1887) del hoy
importantísimo fenómeno del efecto fotoeléctrico, una corriente eléctrica debida a los
denominados fotoelectrones, electrones desprendidos por la energía luminosa incidente
sobre una placa metálica que para el caso se denomina fotocátodo. Philipp Lenard, quien
había sido ayudante de Hertz, entre 1899 y 1902 estudió minuciosamente las características
de los fotoelectrones, razón principal para que fuera uno de los primeros físicos distinguidos
con el premio Nobel. Hertz había observado, en su estudio de los rayos catódicos, que bajo
ciertas condiciones se producía una chispa en una superficie metálica colocada en el tubo de
vacío iluminada con luz. Se trataba de la corriente fotoeléctrica. Así, pues, quien produjo en su
laboratorio las ondas EM por primera vez, observó también por primera vez el efecto de los
corpúsculos de luz. Hertz murió a los 36 años de edad (1894); su sobrino Gustav Ludwig
recibió, por su participación en el famoso experimento Franck-Hertz, la distinción Nobel que
con toda seguridad habría recibido también Heinrich de no haber muerto prematuramente.
Tras los resultados de Thomson, Lenard pudo comprobar que esos electrones inicialmente
confundidos con rayos podían producirse favorablemente con luz de alta frecuencia. La
explicación cualitativa del fenómeno era obvia: la luz transmitía energía a los electrones de la
placa, lo que les permitía salir despedidos. Pero un análisis minucioso del fenómeno trajo
muchas sorpresas.
Entre otras peculiaridades del fenómeno, observó que aplicando un contravoltaje adecuado
del emisor al colector, como indica la figura 1.4, se puede impedir la aparición de la corriente
para un valor Vo que no depende de la intensidad de la fuente luminosa sino del color o
frecuencia de la luz utilizada: para ese voltaje todos los fotoelectrones son frenados. Por otro
lado, por más que se aumente el voltaje acelerador, la corriente será la misma (corriente de
saturación) para una intensidad luminosa dada: para ese caso, todos los electrones que se
desprenden llegarán al colector. Esto indica que el número de electrones desprendidos sí
depende de la intensidad, como cabe esperar.
Figura 1.5. Tubo al vacío para producir fotoelectrones. El voltaje se puede invertir mediante un
conmutador para frenar los electrones desprendidos.
El equipo utilizado se esquematiza en la figura 1.5. El galvanómetro G permite detectar la
corriente producida por los electrones desprendidos por el haz de luz de frecuencia elevada. El
conmutador permite aplicar un contravoltaje que inhibe el paso de los fotoelectrones.
Lenard perfeccionó las observaciones de Hertz y llegó a 3 conclusiones importantes que no
tenían explicación clásica:
Figura 1.7. Comparación entre los resultados que cabría esperar de un modelo tipo Thomson y de un
modelo nuclear como el de Rutherford.
La mayor debilidad del modelo de pudín con pasas saltaría a la vista a partir de cuidadosos
experimentos realizados en la Universidad de Manchester por quien fuera inicialmente el
auxiliar de Thomson en el laboratorio de Cavendish (Cambridge). Rutherford, ayudado por sus
auxiliares Hans Geiger y Ernest Marsden, dispuso una serie de experimentos que se realizaron
entre 1908 y 1910. A esto se agregó un modelo teórico implementado por Rutherford entre
1911 y 1913.
El experimento consistió esencialmente en bombardear finas láminas metálicas, finalmente de
oro por su peso atómico y maleabilidad, con partículas alfa (núcleos de helio). Las propiedades
dúctiles del oro permiten la elaboración de láminas muy delgadas que son fácilmente
atravesadas por la radiación (emanación del radio, le llamaron entonces). De ser correcto el
modelo atómico de Thomson, el haz de partículas debería atravesar la lámina sin sufrir
desviaciones significativas a su trayectoria; a lo sumo unos pocos grados. Rutherford y sus
colaboradores observaron que un alto porcentaje de partículas atravesaban la lámina sin sufrir
una desviación apreciable, pero un cierto número de ellas era desviado significativamente, a
veces bajo ángulos de difusión mayores de 90 grados, en raras ocasiones rebotando
frontalmente. (Véase la figura 1.7.) Tales desviaciones no podrían darse si el modelo de
Thomson fuese correcto.
Puesto que la carga positiva debería estar concentrada en una pequeñísima región (a la que
llamó Rutherford núcleo atómico), muy inferior a la de la supuesta esfera en que estaría
distribuida la carga negativa (electrones), teniendo en cuenta la ley de Coulomb de atracción
entre cargas de diferente clase, los electrones deberían girar alrededor de la carga positiva
(núcleo) de manera similar a como hacen los planetas alrededor del sol (órbitas elípticas) o la
luna alrededor de la tierra (órbita circular), para que no fueran atrapados por el núcleo.
Figura 1.8. Representación esquemática de las delgadas láminas metáli as atravesadas por radia ió α e
ilustración de trayectorias típicas en la dispersión por un núcleo de oro.
El modelo, teóricamente establecido, tenía sentido salvo por un pequeño detalle que se
consideró inicialmente irrelevante: a diferencia de la luna, con carga neta nula, los electrones
tienen una carga que sumada iguala a la del núcleo; la existencia de este se reveló
precisamente a partir de los experimentos encomendados a Geiger y Marsden; téngase en
cuenta que el experimento de la gota de aceite que permitió determinar la carga del electrón
fue realizado en 1909 por Robert Millikan y Harvey Fletcher. Una vez conocida la carga del
electrón, era posible estimar la fuerza eléctrica que ejercería el núcleo sobre él; esta debería
ser en muchos órdenes de magnitud (~1040) superior a la fuerza gravitacional: las variaciones
de estos campos al girar no podrían despreciarse, por lo que las ondas electromagnéticas que
se generarían irremediablemente harían colapsar el átomo si se cumplieran las leyes clásicas. A
pesar de lo equivocado del modelo, era un gran avance comparado con el anterior, debido a
Kelvin y a Thomson. De todos modos, la dificultad presente en el modelo de Rutherford
parecía insalvable. El modelo de Bohr, al que volveremos más adelante, postula que la
radiación electromagnética no se da, si los electrones se encuentran en ciertas órbitas
estacionarias, las cuales deberían satisfacer otros postulados que Bohr agregó al anterior.
El modelo de Rutherford estaba mal, a pesar de lo ingenioso. El danés Niels Bohr, ayudado en
gran medida y sobre todo apoyado por Rutherford, propuso algo mejor, a la postre también
equivocado, pero con ingredientes adecuados para generar las nuevas ideas que la
construcción del edificio cuántico requería. Los dos modelos eran, a pesar de todo, mucho más
realistas que el imaginado por Thomson y Kelvin, una especie de jalea con pasas, en donde las
pasas serían los electrones y la jalea contendría la carga positiva indispensable para neutralizar
el átomo; un modelo infantil para un universo que equivocadamente se supone lleno de lo que
en apariencia se deja ver, a pesar de las brillantes especulaciones de los primeros atomistas.
No, el átomo no solamente es divisible, su interior está prácticamente vacío, como previeron
los atomistas, y la materia (bariónica o hadrónica, hemos de corregir desde ya) se concentra
en una pequeñísima región, el núcleo, un núcleo en el que están firmemente ligados otros
constituyentes, los quarks. Las nubes electrónicas son solo eso: insignificantes nubarrones en
el universo nuclear; y sin embargo, de ellos depende el comportamiento de la materia que
observamos en la Tierra, la misma de la que estamos hechos.
Descubiertos los rayos X (1895), el electrón (1897) y el núcleo atómico (1909), el camino
estaba preparado para examinar más a fondo la constitución de la materia. Una de las
primeras aplicaciones de los rayos X fue precisamente la que llevó a su descubrimiento: su
difracción y la consecuente formación de espectros, no ya solamente de un elemento sino
también de un compuesto y en general de un objeto sólido. Espectroscopio de rayos X o
difractómetro de rayos X es el nombre genérico que recibe el aparato y la técnica. El fotón,
propuesto por Einstein como unidad fundamental de energía de radiación, tendría que esperar
para su aceptación hasta que los experimentos montados para refutar a aquel arrojaran los
resultados inesperados por Millikan.
1.9.5 Nubarrones y tormentas
La debilidad ya señalada del modelo de Rutherford venía a agregarse a la lista de problemas
que se habían empezado a manifestar, no solo con la radiación del cuerpo negro: el panorama
de la física clásica tendía a obscurecerse. En efecto, si se mira en perspectiva, a finales del siglo
XIX las dificultades que enfrentaba la concepción clásica mecanicista de los fenómenos
naturales eran grandes. A pesar de las fuertes evidencias en contra, algunos de los más
destacados físicos del momento creían que eran superables. Es famosa una conferencia de
Kelvin en la Royal Institution, pronunciada en abril de 1900, tal vez más destacable por su
ingenuo título que por su contenido: Nineteenth Century clouds over the dynamical theory of
heat and ligh. Afirmaba:
«La belleza y claridad de la teoría dinámica (se refiere a la ED) que concibe el calor y la luz
como modos de movimiento se ve obscurecida por dos nubes. La primera surgió con el
carácter ondulatorio de la luz, ya resuelto por Fresnel y Young, y tiene que ver con la
pregunta: ¿Cómo podría moverse la tierra a través de un sólido elástico, como debe ser
esencialmente el éter luminífero? La segunda es la doctrina de Maxwell-Boltzmann sobre la
equipartición de la energía.» No viene al caso detenerse en los intentos de Kelvin por subsanar
estas dificultades, puesto que ello no es posible dentro de los esquemas de la física clásica
conocida hasta entonces. Einstein resolvió en 1905 la primera dificultad con su nueva
concepción del espacio-tiempo y los dos postulados que sirvieron de base a la teoría de la
relatividad especial. Para la segunda el camino fue más arduo, pero la solución empezó a
vislumbrarse con la hipótesis de cuantización de la energía propuesta por Planck.
Lo que queremos concluir de esta sección, es que no solamente empañaban el panorama las
dos nubes a que se refería Kelvin. Una fuerte tormenta se avecinaba y habría de derribar toda
la concepción clásica del mundo, empezando por su fundamentación determinista. Podría
afirmarse que las primeras ideas se parecían más a paliativos, remiendos que intentaban
preservar las ideas centrales de las teorías ya establecidas.
1.10 Espectros de absorción, de emisión y en el continuo
Nos hemos referido ya a algunos modelos que explican la materia en torno a la existencia de
los átomos y a los modelos atómicos mismos. Los griegos presocráticos habían intuido que
existe una estrecha relación entre esos átomos y la luz. Era necesario entender que esa luz, la
luz visible a que ellos podían referirse, no es más que parte del denominado espectro
electromagnético, parcialmente mencionado en el apéndice II. Yendo todavía más lejos, era
indispensable entender que en últimas observamos esos constituyentes de la materia por la
emisión de luz de todo tipo, en todo el rango de frecuencias, particularmente en la que más
emiten.
Todavía incompleto, el modelo estándar de las partículas elementales, o de la física de las altas
energías, como se denomina hoy, nos habla de la estructura básica de esos ingredientes,
materia y energía, y de la forma en que interaccionan o se entrelazan, mucho de ello
contenido en la información. El perfeccionamiento del modelo, como de seguro tendrá que
hacerse, no afectará a la Teoría. Una de las búsquedas incesantes es la Teoría Unificada de las
interacciones. Ella no necesita comprometerse con el número de partículas elementales de un
tipo o de otro, ni siquiera con sus propiedades específicas, tampoco con el tipo de
interacciones posibles. La QT nos habla de características tan generales del comportamiento
de la materia-energía (y de la información que con ella podemos procesar), que no hace
diferencia entre las distintas áreas en que pueda dividirse la física (quisiera decir la ciencia, si
esta afirmación no diera lugar a malas interpretaciones) y la ingeniería de hoy o del futuro.
Resumiendo los dos párrafos anteriores, para que no haya malos entendidos, QT está en la
base de las ciencias naturales, física, química, biología y cosmología, y de sus aplicaciones
todas, no solamente las de carácter tecnológico. Ella se encuentra en los fundamentos mismos
de los procesos que tienen lugar en cada una de esas disciplinas y en otras; la teoría de juegos,
por ejemplo, de indudable valor para la economía (y la biología), tiene su versión cuántica. Es
la teoría científica más exacta y completa que haya podido concebirse hasta el presente. Sus
postulados son completamente generales, por eso se expresan en últimas en un lenguaje
matemático.
Antes de seguir adelante, es necesario aclarar que esta sección puede ser un poco
especulativa. Si todo está hecho de los mismos ingredientes, materia, energía e información,
ingredientes que a nivel básico tiene un comportamiento cuántico, se espera que finalmente
ese comportamiento y la dinámica que genera sea el responsable de: a) el de la materia-
energía organizada en la escala macroscópica que percibimos con nuestros sentidos y
describimos con nuestras facultades mentales; b) el de la materia-radiación (de todo tipo) a
escala cósmica, la que corresponde al Universo y a su evolución; c) el de los organismos vivos
en toda su complejidad, incluido el ser humano, y en su aún más compleja interacción. En
otros términos, la QT debería podernos explicar el origen de las partículas elementales con sus
interacciones y del universo en su conjunto (el Big Bang o Gran Explosión y el Universo
Inflacionario), del bit y el it o del procesamiento de la información, incluida la genética, de la
vida y de la inteligencia; debería explicarnos el funcionamiento de todo, incluidos los sistemas
neuronales y los procesos vivos y mentales, la información en su máxima expresión que
conocemos, la conciencia humana. Si esa conciencia es el fundamento de la cognición o de la
inteligibilidad (la comprehensibilidad a que se refería Einstein), la cuántica debería llevarnos a
encontrar respuestas a las preguntas fundamentales, el cómo, el por qué y el para qué
estamos aquí, muy a pesar del escepticismo de Einstein.
Desafortunadamente el paso de uno a otro nivel no es así de simple. Para empezar, la otra
gran teoría, relatividad general, Teoría de Gravitación o simplemente GT (por sus siglas en
inglés), no encaja del todo dentro del esquema de la primera, QT, a pesar de los avances
formidables de los últimos años. Esa conclusión no solo es sorprendente sino también
contradictoria, sobre todo si se tiene en cuenta que muchos de los fenómenos que se dan a
nivel macroscópico, como la superconductividad y el magnetismo, o a escala cósmica, como
los agujeros negros y la gran explosión, entre otros, son manifestaciones de las propiedades
cuánticas de la materia. En los laboratorios del CERN se pretende recrear los instantes iniciales
del universo (esta vez sin mayúsculas). Pues bien, lo ocurrido durante la gran explosión y en la
etapa denominada inflacionaria no podría entenderse sin recurrir a la fenomenología cuántica;
tampoco el comportamiento de los agujeros negros, menos aún el de los hipotéticos agujeros
de gusano. Las denominadas Fuerzas de van der Waals son el pegamento a nivel biológico que
da estabilidad a los sistemas vivos. Su origen es rigurosamente cuántico. Hay otros efectos
cuánticos triviales en la escala biológica que son de origen cuántico, tema al que volveremos
en la tercera parte.
Más complejo, seguramente, es el paso de los procesos atómicos y moleculares, digamos que
de la bioquímica, a los microscópicos que se originan en los organismos vivos, incluyendo los
virus. Nadie hoy suficientemente bien informado recurrirá a expresiones de antaño como flujo
vital: ese no existe. La fotosíntesis es vital para el fenómeno de la vida, y ese fenómeno es en
esencia cuántico. ¿Qué decir de los procesos que surgen en sistemas neuronales, por ejemplo
los procesos mentales? Por complicados que sean, abrigamos la esperanza de entenderlos
cada vez mejor desde un punto de vista científico, biológico si se quiere, al fin y al cabo desde
una ciencia que cada vez se aleja más del mecanicismo clásico. La electroquímica está en el
fundamento de las conexiones sinápticas, pero los fluidos eléctricos hoy los concebimos en
forma muy diferente a la concepción mecanicista que se tenía hace 2 siglos. Los microtúbulos y
los neurofilamentos son demasiado pequeños para entender su funcionamiento, no hablemos
de su estructura, a la luz de los modelos convencionales. Las anteriores afirmaciones no
implican que el comportamiento en uno y otro caso sea cuántico como un todo. Aclararemos
lo que se quiere decir con comportamiento cuántico en el cuarto capítulo; baste por ahora con
decir que un estado cuántico puro difícilmente se mantendrá en sistemas no ligados,
terminología que precisaremos también más adelante.
Algunos especulan que en los procesos mentales hay fenomenología cuántica. Nótese que
hemos utilizado el sustantivo procesos y el adjetivo mentales. Escribe Antonio Damasio al
comienzo de su libro Y el cerebro creó al hombre (una extraña traducción del título del original
en inglés, Self comes to mind : Po as osas e uest a iología so ta t i iales e apa ie ia
o o este p odu to ue o o e os o el o e de o ie ia… Y, si e argo, pocas
cosas de nuestro ser son tan extraordinarias y singulares, fundamentales y, en apariencia,
iste iosas o o la o ie ia. … “i o ie ia o ha o o i ie to de uest a e iste ia i
ta po o o o i ie to de ue e ista algo ás. Más adelante comenta, respecto al intento de
ela io a la e te o s ie te o p opiedades de la ate ia hasta aho a o des itas: dado
que a la mente consciente la rodea un halo misterioso, y como la física cuántica no ha dejado
de ser un misterio, quizá los dos misterios se hallen interrelacionados. A tenor del incompleto
conocimiento que tenemos tanto de la biología como de la física, nos deberíamos mostrar
p ude tes a tes de p o ede a des a ta e pli a io es alte ati as. Está po fue a del i te és
de este ensayo pedagógico ahondar en esas discusiones, pero queremos agregar que, aunque
se puede coincidir con Damasio, tiene sobradas razones el premio Nobel Erik Kandel para
afirmar ue: entender la base biológica de la conciencia y los procesos cerebrales por los
cuales sentimos, actuamos, aprendemos y recordamos es el último reto de las ciencias
biológicas . Podemos formular como principio universal que QT no es milagrosa. Por eso y por
otras razones, recurrir a la física cuántica para sustentar posiciones religiosas es tan
descabellado como sacar modelos cosmológicos de los textos bíblicos. Pero no por ello puede
descartarse su posible contribución a esclarecer la situación también en ese terreno.
El propósito del presente ensayo cuántico con darwinismo evolucionista no es, en modo
alguno, hacer claridad sobre el aún oscuro origen de la conciencia, ni siquiera de la vida; eso
sería demasiado pretencioso y está muy lejos de lograrse todavía. Tampoco lo es señalar las
diferencias (¿contradicciones?) entre esas dos grandes teorías del siglo XX, la cuántica y la
relativista, la primera de las cuales debe a Albert Einstein más de lo que usualmente se
menciona; la segunda fue, por mucho tiempo, obra exclusiva del gran genio. Einstein murió
frustrado, hasta cierto punto, al no poder darse por satisfecho con lo que él mismo inició y le
condujo al premio Nobel, negándose a aceptar las consecuencias epistemológicas y
ontológicas de las contribuciones que hizo a los quanta. No es para menos, como se sugiere a
continuación.
La frase lapidaria ya citada de uno de los grandes físicos de aquel siglo, Richard Feynman,
nadie entiende la mecánica cuántica, sigue siendo el gran reto. Eso quiere decir, en otras
palabras, que al menos por ahora son permitidas diversas interpretaciones, siendo las
predicciones exactamente las mismas en cualquier esquema de pensamiento consistente con
sus principios fundamentales, ellos sí perfectamente establecidos desde hace 90 y más años.
Esta conclusión resultó inaceptable para Einstein, quien exigía una interpretación de la
realidad acorde con caros principios clásicos, ratificados por su teoría de relatividad, entre
ellos el de la relación causa-efecto. El mismo Schrödinger, quien con Heisenberg comparte el
mérito de gestor principal de la teoría cuántica, declaró que lamentaba haber tenido que ver
con el asunto. De Broglie, responsable de la dualidad onda corpúsculo con su onda piloto
o das de ate ia , fue u o de los oposito es a la interpretación de Copenhague. Con mayor
razón puede decirse esto de Bohm y otros famosos. Eso en cuanto a las interpretaciones. En
las mediciones y/o predicciones, todos coinciden.
En cambio las aplicaciones de la revolucionaria teoría cuántica son cada vez más amplias y lo
seguirán siendo en el presente siglo, de ahí el subtítulo de estas notas. La Nanotecnociencia,
hoy en boga, es un claro ejemplo. La criptografía y la computación cuánticas y el teletransporte
(nos suena más castizo que el término teleportación, un anglicismo) pueden denominarse, con
razón, la segunda revolución cuántica, aceptando que la primera fue la que condujo a la
formulación consistente de sus principios. Empezamos a entender y procesar mejor la
información cuántica, prerrequisito para las aplicaciones esperadas o más impactantes
(algunas más resultarán inesperadas) de la segunda revolución. ¿Nos llevará ese avance a una
mayor comprensión de la conciencia y de los diversos procesos que ocurren en el cerebro?
¿Nos acercará ese avance hacia la tercera cultura propuesta por Charles Pierce Snow?
¿Podremos enderezar el rumbo que ha tomado la civilización?
Permítasenos una última especulación: si nos preguntáramos qué cantidad física (una sola)
serviría para caracterizar mejor cada uno de los tres últimos siglos, habría que responder que
la materia es el emblema del siglo XIX (hipótesis atómica), la energía lo es del siglo XX
(materializada en forma brutal en la denominada bomba atómica) y la información, la del
presente siglo (por algo suelen denominar a la actual, aunque equívocamente, era de la
información o de la informática). Algunos serán reticentes a aceptar que la información sea
algo físico. De lo que no cabe duda alguna es de que la información es neguentropía, o más
rigurosamente: organización e información van de la mano. A la información cuántica
quisiéramos volver en un futuro ensayo; lo haremos tangencialmente en la tercera parte.
Hay algo de lo que no cabe duda alguna: no estamos en condiciones, con nuestra lógica
convencional, de entender el extraño comportamiento de los ingredientes cuánticos del
Universo. Cabría entonces formular otra pregunta: ¿existe algún ingrediente fundamental que
escape a ese extraño comportamiento? La respuesta no es aún definitiva.
Si no se entiende el comportamiento de la materia, la energía y la información a nivel
elemental, ¿cuál es entonces el valor predictivo de la ciencia? ¡Es muy grande!, de ello se tiene
pleno convencimiento.
Durante la inauguración de la Cátedra Manuel Ancízar titulada «Albert Einstein, creador de
universos», celebración del centenario de las famosas teorías de quien fue Genio entre genios
(Giraldo, 2005), que nos mostraron otra forma de hacer ciencia, el profesor Johnathan R. Ellis,
para la época director del CERN (Centre de Études et de Recherche Nucleaire, donde se
pretende recrear los momentos iniciales del universo) nos decía algo como esto (la frase literal
no la recuerdo): La física es el manual de operación del Universo. Suena exagerado,
particularmente a la luz de lo anterior y de la conclusión que se desprende del párrafo citado
del libro de Einstein con Infeld. A ese manual habrá que agregar en el futuro muchas páginas,
si no varios tomos, lo cual no deja de ser una buena noticia para los futuros aspirantes a ser
físicos o a desempeñarse en cualquier campo de las llamadas ciencias naturales y exactas.
Lo contrario se creía a fines del siglo XIX, cuando grandes personajes de esa ciencia básica del
momento como Maxwell y Kelvin creían que solo faltaba afinar la medida de algunas
cantidades físicas de las conocidas hasta entonces. Hoy hay muchas más y quedan aún más por
determinar. Es bien sabido que a Planck, cuando se preparaba para ingresar a la universidad, al
consultar sobre las perspectivas de la física al profesor Phillip von Jolly, quien fuera su tutor
posteriormente, este le aconsejó dedicarse a otra cosa, porque en física lo esencial ya había
sido hecho y quedaban pocos huecos por rellenar. Afortunadamente Planck no siguió su
consejo.
En síntesis, y a pesar de que no la entendamos del todo, no obstante los avances que en las
últimas décadas hemos hecho sobre su inteligibilidad, para describir ese misterio aun no
resuelto, la física cuántica es la primera gran teoría unificadora de las ciencias. Entendiendo la
importancia de estas, no solo como comprensión del universo sino también como
transformación del entorno más cercano al nuestro mediante sus aplicaciones, vale la pena
esforzarse por conocer al menos cuáles son las radicales diferencias entre el enfoque cuántico
y el sentido común que suele aplicarse para entender el mundo clásico que percibimos con
nuestros sentidos. En otras palabras, aunque todavía no entendamos muy bien cuál es el paso
misterioso de lo cuántico a lo clásico, el punto de partida solo puede brindarlo aquella, por
descabelladas que parezcan algunas de sus predicciones.
2.2 ¿Partículas u ondas? Se debe tomar la bifurcación
aproximadamente 10-43 s. La escala de longitud, 10-33 cm, es esta cantidad multiplicada por la
diminuta; en notación científica, en las unidades convencionales, la escala de tiempo de Planck es
velocidad de la luz. Si se quiere ver a menor escala su constante, teniendo en cuenta que 1 J es 1.6×10 -19
eV, h 10 eV·s. ¡Aún en la escala del electrón, esa cantidad sigue siendo muy pequeña! Véase más
-15
adelante, sección 2.1, y consúltese el apéndice, para efectos de la notación científica y las unidades
utilizadas en este ensayo.
científicos alemanes estaban muy lejos de aceptar siquiera la hipótesis atómica, invocada con
éxito desde hacía un siglo por la mayoría de los químicos y empleada brillantemente por el
padre de la física estadística en la deducción de su famosa ecuación (1872).4
La fórmula encontrada por Planck no tiene una forma sencilla:
A baja frecuencia sobrevive la forma cuadrática prevista por Rayleigh-Jeans (cf. Apéndice). A
altas frecuencias, por el contrario, elimina su inconsistente e inobservada divergencia.
4
En la primera presentación de su resultado empírico ante la Academia de Ciencias, 3 meses antes de la
histórica disertación del 14 de diciembre de aquel mismo año, Planck no utilizó la constante h.
discontinuidad o discreticidad de la energía. A la postre la cuantización de la energía resultó
ser imprescindible, tanto para entender el comportamiento de la materia a escala atómica y
subatómica como para arrojar luces sobre nuestro origen en la escala cósmica.
…
Figura 2.3. Desplazamiento del máximo de radiación a altas temperaturas hacia frecuencias elevadas.
De allí a suponer que no solo ocurre tal cosa, la de la absorción y emisión discretas, sino que
también la energía de la radiación está cuantizada parece haber solamente otro modesto paso,
pero no es así. A nadie que hubiera sido formado en la exitosa escuela de la física de fines del
siglo XIX se le habría ocurrido imaginar que las ondas electromagnéticas pudieran perder su
carácter hasta ahora peculiar, ser ondas, sinónimo de continuum, para convertirse en
corpúsculos de energía, algo discreto, los hoy denominados fotones. Simultáneamente se
estaba preparando el terreno para una revolución científico-técnica sin precedentes.5
La pugna entre los dos modelos propuestos para la luz, corpuscular y ondulatorio, se había
ganado temporalmente a favor del primero en los tiempos de Isaac Newton, gracias a la
autoridad del genio entre genios, a pesar de los experimentos de su contemporáneo el
holandés Christiaan Huygens. Luego, durante el siglo XVIII, matemáticos de la talla del suizo
Leonard Euler y físicos destacados como el norteamericano Benjamin Franklin (también
político, como algunos de los científicos de aquel tiempo) reforzaron el segundo punto de
vista. A comienzos del siglo XIX, el británico Thomas Young y el francés Augustin Fresnel dieron
el golpe de gracia: no hay duda alguna, ¡la luz es una onda! Resultaba pues experimentalmente
comprobado su comportamiento ondulatorio. Lo contrario ocurriría a finales del mismo siglo
5
Véase Nanotecnociencia, J. Giraldo et al. (Ediciones Buinaima, Bogotá, 2007.)
con los denominados rayos catódicos: se encontró que estos no eran producidos por ondas
electromagnéticas sino por los responsables del fluido eléctrico, diminutas partículas cargadas
que formaban parte del átomo; el electrón, descubierto por J. J. Thomson (1897), daría lugar a
uno de los primeros premios Nobel en física (1906). La primera vez que se otorgó la distinción
(1901), le fue adjudicada a Röntgen por el descubrimiento de otros rayos, los X, así
denominados porque no se sabía a ciencia cierta qué eran, hasta cuando se comprobó que
eran ondas, que hacían parte del espectro electromagnético.
Así, pues, experimentos incontrovertibles realizados a comienzos y a finales del siglo XIX,
respectivamente, habían dejado claro que la luz es una onda y que los rayos catódicos estaban
constituidos por partículas. ¡Pero no era así de simple! Esas dos conclusiones
experimentalmente incontrovertibles rodarían por tierra durante la primera cuarta parte del
nuevo siglo; el efecto Compton, el más decisivo sobre la naturaleza corpuscular de la luz en ese
periodo histórico, fue observado en 1923. Otros resultados y descubrimientos de fines del siglo
XIX que también dieron lugar a premios Nobel en física y en química solo pudieron entenderse
a la luz de la nueva física, denominada original y equívocamente Mecánica Cuántica.
La clave que permitió a Planck, después de más de un lustro, encontrar en el espectro visible la
explicación a la forma experimental de la curva de radiación del cuerpo negro, deduciendo a la
fuerza su famosa expresión, está en el corrimiento del máximo de la densidad espectral del
rojo hacia el violeta. Si se aceptaba temporalmente, por razones prácticas, que la radiación se
emite o absorbe en dosis discretas, dado que las cantidades son extremadamente pequeñas
(dosificadas por su constante h), a muy baja frecuencia la contribución a la densidad espectral
sería muy pequeña porque la energía es muy baja, aunque la contribución proviniera de
muchos osciladores. A altas frecuencias, según la fórmula de Boltzmann, la probabilidad de
emisión disminuye de nuevo porque la contribución proviene de muy pocos osciladores que
puedan contribuir con una elevada energía a la densidad espectral. Era de esperar, con base en
argumentos físicos, el corrimiento a altas frecuencias con la temperatura. Pequeñísimos
cuantos de energía era la clave.
Figura 2.4. Radiación de fondo de microondas del universo, correspondiente a T = 2.725±0.001o K.
Figura 2.6. Curvas de corriente contra voltaje (des)acelerador y de voltaje umbral (para frenar los
electrones y evitar el paso de corriente en la figura 1. 2 y 1.3).
En esta figura se esquematiza lo que ocurre iluminando una placa de potasio con luz de
diferentes colores (distinta frecuencia). El potasio tiene un trabajo de extracción de 2.0 eV. Si
la luz es roja (longitud de onda de 700 nm), los fotones tienen una energía de 1.77 eV y no
alcanzan a desprender electrones. Si es verde o violeta, esta energía es superior a 2.0 eV, en
una cantidad suficiente para que los electrones sean expulsados con una velocidad máxima de
3×105 y 5×105 m/s respectivamente.
Figura 2.7. Efecto de iluminar una superficie de potasio con luz de diferentes longitudes de onda.
Figura 2.8. Datos originales del experimento de Millikan para una superficie de sodio. La frecuencia
umbral fue obtenida por extrapolación.
El experimento diseñado durante muchos años por Millikan permitió medir la energía de los
electrones que eran emitidos por una placa metálica muy limpia, construida en un taller al
vacío, sobre la que incidía un rayo de luz. Así pudo determinar el valor más preciso hasta
entonces de la constante de Planck. Décadas más tarde, cuando Millikan describía su trabajo,
todavía asomaba un punto de frustración: «Empleé diez años de mi vida comprobando la
teoría de Einstein de 1905 y, en contra de todas mis expectativas, me vi forzado a afirmar su
verificación sin ambages a pesar de lo irrazonable que era». En su autobiografía de 1950,
declararía que su trabajo «difícilmente permitía cualquier otra interpretación que la que
Einstein había originalmente sugerido, concretamente la teoría semi-corpuscular o la teoría
fotónica de la luz».
Antes de terminar esta sección, conviene tener en cuenta que de acuerdo con las leyes del
electromagnetismo, la luz transporta energía y cantidad de movimiento. Ahora bien, si la luz
está compuesta de corpúsculos, los hoy denominados fotones, son ellos los que poseen no
solamente energía sino también cantidad de movimiento, p. A partir de la fórmula de Einstein
que relaciona energía y momentum y echando mano de la relación entre frecuencia, longitud
de onda y número de onda (k = 2π/λ), se tiene p = ħk, donde el vector de onda, igual en
magnitud al número de onda, es un vector en la dirección de propagación de la onda
electromagnética asociada a los fotones.
Quien supo sacar mejor provecho de la hipótesis de Einstein fue Niels Bohr, con su modelo
atómico, como veremos enseguida. Nos limitaremos por ahora a visualizar el nuevo panorama
que se abrió para la física con la hipótesis de Einstein sobre los corpúsculos luminosos y la aún
más atrevida hipótesis de Bohr sobre los saltos cuánticos. En efecto, este tomaría prestados de
aquel su hipótesis sobre los granos de luz, todavía no aceptada por los físicos más ortodoxos,
incluido Planck, y de Rutherford su modelo planetario, del que suprimió las leyes que predicen
el comportamiento clásico.
Según Bohr, los electrones sí emitirían energía, pero antes deberían absorberla de la ya
existente en la radiación electromagnética, en la forma discreta en que ya se encuentra, de
acuerdo con el postulado de Einstein. Así, pues, la energía de los electrones no variaría en
forma continua sino discreta o cuantizada. También la cantidad de movimiento angular estaría
cuantizada. Para simplificar las cosas, se limitó inicialmente al átomo de hidrógeno, que tiene
un solo electrón. Este ocuparía usualmente una órbita que tendría el mínimo valor de energía
permitido y el mínimo momentum angular (denominado en ocasiones momento cinético),
estimado en h/2π, una nueva constante de cuantización que denominó ħ (h-barra). Solo
estarían permitidas órbitas circulares que tuvieran múltiplos enteros de ese valor en su
cantidad de movimiento angular: Ln = ħ. Esas órbitas también tendrían energías discretas
correspondientes a ese número, pero la única verdaderamente estable sería la que
corresponde a n = 1.
En la sección 2.3 volveremos con mayores detalles a este modelo, punto de partida para la
nueva física, y a las modificaciones que se le hicieron.
2.2.4 Dispersión de fotones de Compton
Un cuarto de siglo después del hallazgo del electrón, se realizó otro experimento tan crucial
como el que puso en evidencia la existencia de esa partícula de carga elemental: nos
referimos al que reveló el comportamiento ondulatorio de la materia corpuscular. Poco antes
de aquel acontecimiento, Arthur Compton se había encargado de mostrar experimentalmente
que los granos de luz eran reales, no la consecuencia de una simple conjetura teórica para
explicar los resultados de algunos experimentos, entre ellos el efecto fotoeléctrico. Venía
trabajando con rayos X desde 1913 y le tomó 10 años más llegar a tan importante conclusión.
En 1909, cuando su fama le permitió dejar el cargo de empleado de patentes para convertirse
e p ofeso adju to e )ü i h, Ei stei afi ó: E i opi ió , la fase siguie te e el
desarrollo de la física teórica nos llevará a una teoría de la luz que podrá considerarse como
una especie de fusión entre la teoría o dulato ia la o pus ula . E los años siguie tes,
concentrado en su teoría general de gravitación, despreocupado en gran medida por lo que a
su lado estaba pasando con ese otro universo que él mismo ayudó a crear, el de los quanta,
Einstein daba muestras a la nueva generación de físicos de ser un ducho detective,
proveyendo las pistas que les llevaría ineludiblemente a fusionar los dos puntos de vista, el
ondulatorio y el corpuscular. A continuación se verá cómo procedió Einstein en el caso de la
luz, y cómo de paso preparó el terreno para hacerlo en el caso del electrón y de todo lo
demás.
Si m representa la masa en reposo de una partícula, su energía en reposo es la famosa
expresión de Einstein Eo = mc2. Para escribir la energía total E de la partícula en movimiento,
libre de campos o de cualquier tipo de interacción, hay que tener en cuenta que esa masa
crece en la forma prevista por la relatividad: m/(1-v2/c2)1/2. Si se adopta para la masa total
(acrecentada por la rapidez) el símbolo M, podemos escribir E = Mc2; otra manera de hacerlo
es separar las dos formas de energía, la de reposo y la de movimiento, para lo cual se recurre
a la cantidad de movimiento de la partícula, p = Mv, y a su energía, E = h. El resultado, no
solamente de extraordinaria sencillez sino también extremadamente útil para la fusión de los
dos puntos de vista, es:
E2 = m2c4 + p2c2.
Esa fórmula encierra sutilmente el teorema de Pitágoras, si se visualiza uno de los catetos
como la medida de la energía en reposo de la partícula (un cateto o base de longitud
invariable mc2; recuerde que m es la masa en reposo, propia de cada partícula); el otro (de
longitud pc) representa su energía debida al movimiento. Pero hay mucho más que eso.
Puesto que las partículas de luz no tienen masa en reposo, se encuentra para ellas una
relación de gran importancia para dar el paso siguiente: E = pc, o más nítidamente: p = E/c. Las
partículas de luz tienen energía y por ende cantidad de movimiento, como dijimos atrás. Esto
ya se había demostrado para las ondas electromagnéticas. (Véase el apéndice.)
Las relaciones anteriores no solamente son útiles sino conceptualmente muy importantes. Ya
se sabía, desde cuando se formularon adecuadamente las leyes de la electrodinámica, que la
luz transporta energía y transporta cantidad de movimiento, como ocurre con cualquier otro
tipo de movimiento ondulatorio. Ahora estamos diciendo algo que no tiene duda: cada uno de
los granos de luz lleva energía y momentum, el problema era saber cuánto de lo uno y de lo
otro. Con la hipótesis de Planck y su extensión hecha por Einstein, resulta que E = h. La
descripción ondulatoria de la luz permite reescribir la expresión anterior para m = 0 como p =
E/c, o en términos de su longitud de onda , p = h/. Esta fue una clave de trascendental
importancia para dar el siguiente paso, lo que haría de Broglie.
Después de realizar una serie de experimentos a comienzos de los años 20, Compton había
llegado a la conclusión, en 1923, de que la interacción entre rayos X y electrones solo podía
explicarse si los rayos X, ondas de luz no visible, se trataban también como partículas. Dicho
en términos sencillos: los granos de rayos X en su interacción con electrones muy levemente
ligados a la materia, como es el caso de electrones metálicos, cambian su frecuencia, por ende
su longitud de onda, reduciendo aquella o aumentando ésta en dicho proceso (ya que pierden
energía); alargan pues su longitud de onda, lo que significa que pierden cantidad de
movimiento, pero preservan su velocidad c = .
Era obvio que el haz incidente tenía que perder energía, pero ello hubiera podido significar
una disminución en la intensidad; por el contrario, el resultado experimental mostraba
claramente un aumento en la longitud de onda del haz emergente. La clave está en la fórmula
anterior, p = h/, y en suponer que el electrón, prácticamente libre como puede estarlo un
boliche sobre una superficie plana sin roce, es golpeado por un grano de luz: el fenómeno
ocurre uno a uno, un grano de luz colisionando con un electrón. Al perder el grano de luz algo
de su cantidad de movimiento, después de habérsela comunicado al electrón, el cual saldrá
despedido en alguna dirección oblicua con respecto a la del grano de luz incidente, con
velocidad comparable a la velocidad de la luz, la partícula luminosa aumenta su longitud de
onda, lo que está de acuerdo con el resultado experimental. Los cálculos cuidadosos revelaron
lo e te o del azo a ie to. Al año siguie te Ei stei afi a ía pe plejo: esulta e to es
dos teorías de la luz, a as i dispe sa les... si i gu a ela ió lógi a . La explicación del
efecto Compton fue, quizá, el mayor triunfo en la dirección de encontrarle asidero
experimental a la audaz propuesta de Einstein.
Dediquemos unas cuantas líneas más al efecto confirmado, más bien que descubierto, por
Compton, porque vale la pena enfatizar lo que hemos dicho.
Figura 2.9 Esquema de la dispersión de un fotón por un electrón, en el denominado efecto Compton. A
la izquierda se ilustran los valores iniciales de energía y momentum de las dos partículas: E1 = ħω1, p1 =
ħk1; la energía inicial del electrón es Eo = mc2, siendo m su masa en reposo; su cantidad de movimiento
inicial es cero. A la derecha se esquematizan esos valores después de la dispersión: E2 = ħω2, p2 = ħk2; la
cantidad de movimiento del electrón es p = Mv, con M = m/(1-v2/c2)1/2; su energía final es E = Mc2.
Entender lo que ocurre es muy fácil si se adopta el esquema corpuscular para la luz: entre el
enjambre de fotones que constituye la radiación incidente, uno de ellos es dispersado por
alguno de los muchos electrones cuasi-libres que hay en un metal. La energía del fotón
incidente debe ser elevada, de ahí la necesidad de utilizar cálculos relativistas, bosquejados en
la leyenda de la figura 2.9: ha de pertenecer a la región ultravioleta del espectro, por lo menos
estar en la región de los rayos X. El fotón dispersado tiene una frecuencia menor, debido a que
transfirió parte de su energía y de su cantidad de movimiento al electrón.
2.3 Ondas que son partículas y viceversa
Desde los postulados de Bohr hubo un periodo de 10 años durante el cual los avances
prácticamente brillaron por su ausencia. Hubo varias pistas que pasaron inadvertidas, en la
dirección trazada por Einstein: si una teoría válida debía combinar las características
ondulatoria y corpuscular de la luz, debería ser válido suponer que esas dos características,
corpuscular y ondulatoria, se asignaran también al electrón. Al fin y al cabo la dinámica del
átomo, por ende de la materia, dependía de estas singulares partículas, electrones y fotones.
Al cabo de 2 décadas de formulada la singular hipótesis de Einstein y 1 desde su brillante
utilización por Bohr, surgió la hipótesis igualmente descabellada formulada por de Broglie: los
electrones también exhiben características ondulatorias.
Las características ondulatorias del electrón, verificadas mediante técnicas diferentes y de
manera independiente por Clinton Davisson y Lester Germer, en Estados Unidos y por George
Paget Thomson (hijo de J.J. Thomson) y Alexander Reid, en Inglaterra, no solo fueron la
comprobación experimental de la hipótesis de ondas de materia formulada por de Broglie,
sino que establecieron claramente su comportamiento ambiguo, a la vez corpuscular y
ondulatorio, extendido después a todo sistema físico. Los resultados de esos experimentos
dieron origen a dos principios relacionados de la nueva física: el de la dualidad onda-
corpúsculo y el principio de complementariedad.
Einstein jugó un papel decisivo para que la hipótesis de de Broglie, formulada en 1923, fuera
aceptada por el jurado calificador de su tesis de doctorado en 1924. Lo más osado de este
estudiante era sostenerlo ante un exigente jurado, dispuesto a pedir explicaciones
satisfactorias, que tendrían que ser esgrimidas con argumentos tan contundentes como para
hacer cambiar de opinión a los más consagrados y ortodoxos físicos del momento, casi todos
formados en la más prestigiosa ciencia desarrollada durante los siglos XVIII y XIX.
En efecto, el triunfo de la mecánica newtoniana no arrojaba duda alguna, mientras que la
segunda mitad del siglo XIX vio surgir la más hermosa teoría hasta entonces concebida por la
mente de brillantes físicos y matemáticos, la electrodinámica (ED) clásica. Su gestor o gran
sintetizador fue el británico James Clerk Maxwell, primer catedrático del entonces recién
creado laboratorio Cavendish, donde más tarde fueron descubiertos los constituyentes del
átomo: una especie de Abdera experimental. Recuérdese que fue en Abdera, situada en la
costa de Tracia, donde a finales del siglo V antes de nuestra era, los filósofos griegos Leucipo y
Demócrito enseñaron que toda la materia está constituida por átomos y espacios vacíos. “ólo
los átomos y la luz son reales, y existe una estrecha relación entre aquellos y los
extremadamente diminutos o pús ulos de luz , p ego a a De ó ito. Maxwell, atomista
como sus predecesores en Abdera, a diferencia de los más destacados físicos alemanes,
antiatomistas, fue el gran unificador de los fenómenos eléctricos y magnéticos; pero fue más
lejos. El conjunto de la teoría predecía la existencia de ondas electromagnéticas que viajarían a
la velocidad de la luz, la más alta velocidad de propagación aceptada hoy en día, 3×1010 cm/s.
Estas ondas se propagarían en un medio muy singular, denominado éter luminífero. Era la
cumbre más elevada en el penoso ascenso del mecanicismo. Ya no habría otras cimas
comparables en las ciencias físicas, se supuso ingenuamente.
La naturaleza atómica de la materia y la relación que hay entre materia y radiación plantea de
entrada un enfoque cuántico, si cuántico se refiere a discretización. En efecto, como ya era
claro para los atomistas, los átomos de una misma substancia han de ser idénticos. Eso ocurre
también para cada una de las partículas elementales, indistinguibles entre ellas, los nuevos
átomos, como sugerimos atrás, aunque el nombre ya no podrá asignarse a esos verdaderos
ladrillos. Pero la discretización también debe darse a nivel atómico y molecular. En el caso del
átomo de hidrógeno, por ejemplo, una vez se sabe que está constituido por un protón y un
electrón, este último se encontrará a unas distancias muy precisas del núcleo. Esos son los
niveles cuantizados de los cuales nos hablará Bohr más tarde, mismos que darán lugar a las
líneas espectrales en los espectros de absorción y de emisión.
Volvamos a las ondas electromagnéticas por un momento. Imaginará cualquier desprevenido
lector, a partir de la información que tiene sobre el desarrollo del electromagnetismo, que la
confirmación de la existencia de esas ondas se hizo en Cavendish. Maxwell era un teórico y,
hasta cierto punto, podría decirse que descuidó el laboratorio a su cargo. Tal vez esa haya sido
una razón histórica para que el gran salto experimental lo dieran los físicos continentales. En
1887, ocho años después de la muerte de Maxwell, el alemán Heinrich Rudolf Hertz produjo en
su laboratorio esas ondas, posteriormente denominadas ondas de radio (u ondas hertzianas;
por algo se miden en hertzios), y las comparó con las de luz: todo cuadró espléndidamente. Las
suyas, a pesar de tener una longitud de onda mayor en varios órdenes de magnitud,
correspondientemente una frecuencia muchísimo menor, tienen una velocidad de
propagación que resulta ser exactamente igual a la de la luz visible, de tal suerte que el
producto de las dos, , da la misma constante c (velocidad de la luz): c = . En el otro
extremo, el de las altas frecuencias, también invisibles, se descubrieron poco después los rayos
X los a os γ ga a . La elo idad de la luz e a, pues, u a o sta te fundamental. Si algún
ajuste adicional había que hacer, afectaría a la décima cifra decimal, como supuso Maxwell.
Salvo por los nubarrones a que se refería Kelvin, la física era ya una teoría completa a finales
del siglo XIX. Por eso no era casual que los profesores aconsejaran a sus estudiantes
destacados no ahondar más en aguas cuya profundidad se conocía a satisfacción. El optimismo
cundía por doquier, a pesar de los nubarrones. La tormenta no se presentía. Millikan, entre
otros, un ferviente discípulo de Michelson, todavía fiel creyente en la existencia del éter, sería
uno de los más feroces opositores a pensar de otra manera.
Así pues la luz, una onda muy peculiar, visible en un estrecho espectro de frecuencias, se
movería en el éter a una velocidad en números redondos dada por: c = 3108 m/s. El espectro
se extiende, en principio, a todos los valores positivos de frecuencia. Dijimos que a nadie se le
habría ocurrido llevar la contraria ante tan rotundas evidencias... excepto...
Romper con puntos de vista varias veces comprobados, tanto en el terreno teórico como en el
campo experimental, fue el osado paso que se atrevió a dar el joven Einstein, todavía
pendiente de su grado, en 1905. Su propuesta parecía volver al pasado, dándole la razón a
Newton, pero difería radicalmente de este último. Para ello concibió dos modelos
diametralmente opuestos. El primero se apoyaba en recientes resultados, los del meticuloso
experimento de Michelson-Morley (1887), al que se volverá más adelante: a diferencia de
otras ondas, concluyó Einstein, la luz no necesita de medio alguno para propagarse; el éter se
esfuma; tal vez por eso sería mejor visualizarla como si estuviera compuesta de partículas, y
eso fue lo que hizo en otro escrito de aquel año memorable.
Figura 2.10. a) James Clerk Maxwell (1831-1879); b) Heinrich Rudolf Hertz (1857-1894); c) Diagrama
esquemático del aparato ideado por Hertz para generar y captar ondas electromagnéticas.
Einstein establecía, además, una nueva concepción del espacio y del tiempo: el conjunto
espacio-tiempo, en el que ocurren tanto la dilatación de los intervalos temporales como la
contracción de los segmentos espaciales en la dirección de la velocidad de los cuerpos en
movimiento, es inseparable; el tiempo y el espacio forman parte de un mismo ente, en el que
pondría a evolucionar en la siguiente década a la materia-energía. Partía, así, de una
reformulación de la mecánica; en el nuevo esquema, se ratifica un principio de relatividad que,
complementada con el principio de invariancia de la velocidad de la luz, deja intactas las
ecuaciones de Maxwell, pero modifica la segunda ley de la mecánica, y va en contra de la
concepción de Newton sobre espacio y tiempo absolutos y de su existencia al margen de la
presencia o no de la materia, materia (masa) que a partir de entonces va a ser equivalente a
energía (radiación). El postulado de que la velocidad de la luz sea la misma en todos los
sistemas de referencia, lleva a resultados contra-intuitivos. Uno de ellos es que la luz no
envejece, una propiedad que bien quisiéramos tener los que de ella vivimos y nos nutrimos,
seres vivos de todas las especies posibles.6 La adición de velocidades sufre también radicales
cambios: 2 + 2 ya no es 4. El resultado de la suma depende también de la dirección del
movimiento. Es el desbarajuste no solo de la mecánica, también de la cinemática y por ende
de la geometría. A eso conduce su primer modelo sobre la luz, el de ondas que transportan
información, además de la energía propia de la radiación. Veamos en qué consiste la osadía de
su segundo modelo.
En contra de la evidencia experimental aportada por sus predecesores alemanes, británicos y
franceses, Einstein asumió en otro de sus trabajos de aquel año milagroso que la energía de la
radiación electromagnética era transportada por corpúsculos que viajan a velocidad c en el
vacío y que por ende están provistos de cantidad de movimiento.7 Subsistía un pequeño
6
Hay organismos anaeróbicos, pero sin la luz, en alguno de sus rangos de frecuencia, es inconcebible
cualquier proceso químico, mucho menos biológico o vital.
7
Los artí ulos ue Ei stei pu li ó e fue o : Sobre el movimiento requerido por la teoría
i éti a ole ula del alo de pe ueñas pa tí ulas suspe didas e u lí uido esta io a io , e el ue
se explica el movimiento Browniano; Un punto de vista heurístico sobre la producción y transformación
de luz , e el ue se estudia e pli a el efecto fotoeléctrico; “o e la ele t odi á i a de ue pos e
o i ie to , fundamento a la teoría de la relatividad especial; ¿Depende la inercia de un cuerpo de su
o te ido de e e gía? e el ue se a aliza la e ui ale ia asa-energía con la fórmula E = mc², siendo
E la energía, m la masa y c la velocidad de la luz. Un quinto trabajo publicado fue su tesis de doctorado.
problema adicional: los avances astronómicos habían sido enormes. El efecto Doppler,
característico de fenómenos ondulatorios, mostraba a todas luces que los cuerpos celestes,
emisores de luz, se mueven a diferentes velocidades. En particular, como pudo deducir el
astrofísico norteamericano Edwin Powell Hubble unos veinte años más tarde, las galaxias se
alejan unas de otras a velocidades tanto más grandes cuanto más alejadas se encuentran (Ley
de Hubble).
Parecía aceptable, entonces, que si un objeto celeste se aleja se verá más rojo, mientras que
por el contrario, si se acerca se verá más azul, debido a que está emitiendo ondas
electromagnéticas. Einstein no tuvo inconveniente alguno en asumir que los corpúsculos de la
luz procedente de una fuente en movimiento cambiarían de color sin que por ello cambiaran
de velocidad, siguiendo en esencia el comportamiento previsto por el austríaco Christian
Doppler para las ondas de sonido, pero la razón sería diferente. En el fondo, eso es más o
menos equivalente a suponer que cuando la bola roja en movimiento sobre una mesa de billar
golpea a una cualquiera de las blancas en reposo, no solo sale esta última con velocidad
dependiente de la forma del impacto (un comportamiento muy diferente al de los extraños
corpúsculos de luz), sino que el color de la primera también cambiará, algo verdaderamente
insólito.
Según Einstein, cada corpúsculo de la luz emitida tendrá energía E = h, siendo la frecuencia
de la luz y h la constante de Planck, 8 pero la frecuencia dependerá de la velocidad con que se
mueva el emisor con respecto al observador (recuérdese que c =, siendo c constante). El
resultado luce prácticamente igual a la fórmula de Planck, pero para llegar a él hay que partir
de hipótesis más atrevidas que la suya. Tanto que ninguno de los físicos del momento tomó en
serio a Einstein. De hecho, hay que suponer que un corpúsculo y una onda se comportan en
ocasiones de la misma manera, una afirmación que nadie, salvo el intrépido Einstein, estaría
dispuesto a aceptar. Diez y ocho años después (1923), la explicación de un experimento
conceptualmente más sencillo que el de las bolas de billar, el choque entre un fotón de alta
energía y un electrón en reposo, el llamado efecto Compton antes mencionado, no dejó lugar a
dudas: la luz, un típico fenómeno ondulatorio, está compuesta de corpúsculos que se mueven
permanentemente a velocidad c y cuya energía (léase frecuencia de la onda, ) depende del
observador. Lo notable es que el efecto Doppler en la luz sí ocurre, comportándose entonces
como onda, con consecuencias cosmológicas trascendentales.
Da la impresión, al leer los textos convencionales, que la revolucionaria propuesta de Einstein
fue motivada por la búsqueda de una posible explicación al denominado efecto fotoeléctrico.
Eso no es cierto. Einstein había estado trabajando en la estadística de un gran enjambre de
corpúsculos por espacio de varios años, lo que le permitió entender a fondo los conceptos
subyacentes en la física estadística de Boltzmann. Su familiaridad con el tema le permitió
descubrir errores conceptuales o contradicciones en el procedimiento seguido por Planck. La
explicación del efecto fotoeléctrico, al que se hará referencia más adelante, fue apenas un
8
Planck y Einstein son los protagonistas principales del presente capítulo; vale decir, para poder
concentrarnos en las implicaciones de sus postulados, no insistiremos en las aplicaciones tan diversas,
entre ellas, la física atómica, la física nuclear, la física de partículas, la astrofísica, la física del estado
sólido y tantas otras, de indudable manufactura cuántica. A ellas volveremos en los capítulos restantes
y, sobre todo, en la segunda parte. Estadísticas cuánticas se suelen llamar a los formalismos que
constituyen la esencia de las aplicaciones de la física estadística en diversos campos.
corolario de su revolucionaria hipótesis. Vale la pena señalar, de paso, que el efecto Compton
es también una consecuencia lógica de la nueva concepción sobre la luz: un rayo de luz es un
enjambre de fotones. Cuando alguno de los miembros de ese enjambre golpea una minúscula
partícula, el electrón, se recrea el juego de la mesa de billar... pero en condiciones cuántico-
relativistas. Los corpúsculos de luz (energía pura) son absorbidos por los corpúsculos de masa
(materia pura). La denominación dada a los granos de luz, fotones, fue introducida por el
químico norteamericano George Lewis en 1926.
El joven, ya graduado y en el inicio de su carrera hacia la fama, fue más lejos que Planck,
aplicando esas ideas a otros campos de la física. Descubrió, por ejemplo, que se podía explicar
el calor específico del diamante asumiendo que las vibraciones de los átomos en el interior del
cristal (sonido) están cuantizadas: introdujo así, sin darse cuenta, los fonones, aunque no haya
tenido mucho que ver con la fonología. Recuérdese que el calor específico de un cuerpo o
sustancia es la cantidad de calor que hay que suministrarle a la unidad de masa para
incrementar en una unidad (grado) su temperatura. Esa descomunal contribución de Einstein a
la física del estado sólido y de la termodinámica, en su versión microscópica la física
estadística, no ha sido aun suficientemente valorada. Habría, entonces, no solamente granos
de energía presentes en las señales luminosas sino también en las ondas sonoras. Se puede
afirmar después de Einstein: de ahí a cuantizarlo todo, hasta la supuestamente inmaterial
información, solo hay un paso. ¡Costosísimo, por cierto, desde el punto de vista conceptual!
Como si fuera poco, por la misma época (1916) sentó las bases teóricas del láser.
De Broglie haría su propuesta igualmente revolucionaria 18 años después de aquel año
milagroso, en condiciones similares a las del joven Einstein, para optar al título de doctor. Pero
en ciertos aspectos la suya sería más atrevida que la de este… ha ía de lle a las f o te as
de la física mucho más lejos. Otros jóvenes de entonces (Dirac, Pauli y Heisenberg, entre
otros), desprovistos de prejuicios, se encargarían de elaborar lo que hacía falta, el formalismo.
A las diversas hipótesis sobre los átomos, al surgimiento de la nueva teoría atómica y de lo que
ocurre en el interior del núcleo atómico nos referiremos enseguida.
2.4 De los átomos indivisibles a las órbitas cuantizadas de Bohr
Antes de la revolucionaria hipótesis de Planck, justo a finales del siglo XIX, se habían hecho
descubrimientos de gran importancia para la física. Recordemos dos de enorme relevancia.
Poco después de realizado el fallido experimento de los norteamericanos Abraham Michelson
y Edward Morley (el primero de ellos, de origen alemán), transcurrida una década desde la
producción de ondas electromagnéticas, se dio el descubrimiento del electrón (1897). 9 Poco
antes se habían descubierto, la mayor parte de autores suelen decir que por accidente, tanto
los rayos X como el fenómeno de la radiactividad y con él los rayos gamma; los nombres de
Röntgen y de Becquerel están ligados, respectivamente, a uno y otro descubrimiento. Eran
épocas en que accidentes de ese tipo ocurrían a menudo. Contrario a ese procedimiento usual,
el descubrimiento de la primera partícula elemental (el electrón; hasta donde sabemos hoy, lo
sigue siendo) fue planeado: había varias pistas.
9
Puede decirse que el experimento fue fallido, en cuanto a lo que se proponía; fue todo un éxito, como
inicio del derrumbe del imaginario éter.
Pasaron desde entonces tres años antes de que Planck se encontrara con su trascendental e
inesperada hipótesis, para él mismo increíble. El peso de lo que se anunció el 14 de diciembre
de 1900 marcó un nuevo derrotero, inclinando inesperadamente la balanza hacia una nueva
forma de hacer ciencia. Cinco años más tarde, a lo largo de 1905, se sucedieron los cinco
famosos artículos de Einstein, cada uno de ellos de singular relevancia. Para empezar, tres
teorías diferentes surgieron de esas semillas: la relatividad, la teoría cuántica de la luz y una
nueva teoría estadística de la materia.
Aunque más o menos conocido por la comunidad científica, a nivel popular no se ha hecho
justa referencia al artículo de Einstein (y a su tesis doctoral) que predice(n) cómo determinar el
tamaño de aquellas, para algunos controvertibles, partículas de materia, hipótesis de trabajo
de los químicos desde hacía un siglo, inaceptables para Ernst Mach y muchos de sus colegas y
compatriotas alemanes: los átomos y las moléculas. Su inequívoca existencia, a partir de los
experimentos del francés Jean Baptiste Perrin en 1908, sirvió de detonante para que se
intentara desentrañar el gran misterio de la constitución última de la materia, un proceso de
búsqueda incesante que continúa vigorosamente. Paradójicamente ese artículo y su tesis
doctoral, los dos trabajos que a la postre incidieron menos en la fama universal de Einstein,
fueron los únicos que en aquel momento recibieron aceptación de varios, no todos, sus
colegas.
Correspondió al neozelandés Ernest Rutherford abonar el terreno para preparar lo que
finalmente sería un modelo cercano al actual sobre los constituyentes últimos de cada
substancia. Rutherford había llegado a Cavendish en 1895, justo a tiempo para participar del
trascendental experimento de su provisional o temporal jefe, Thomson. Las investigaciones de
aquel giraban en torno al extraño fenómeno de la radiactividad, ya mencionado, para entonces
recién descubierto. No es posible en unas pocas páginas relatar detalladamente la historia de
aquel periodo decisivo, al que se han dedicado varias obras de peso histórico-documental
formidable. En resumen, la formación de Rutherford al lado de Thomson y su familiaridad con
los experimentos de sustancias radiactivas, le sirvieron para dar con el blanco perfecto en
1909, el núcleo de los elementos; se había develado nada menos que el interior del átomo. El
exterior parecía más confuso. Aunque su modelo atómico planetario, electrones orbitando
alrededor del núcleo, no cabía en el esquema clásico dominante, el de la dinámica de Newton
y la ED de Maxwell, le abría espacio a una solución más radical para los serios problemas que la
física de entonces afrontaba.
El pórtico se estremeció al abrirse de par en par la puerta de acceso al interior del átomo. Fue
un violento tirón lanzado por un joven danés que recién había recibido su grado de doctor.
Bohr viajó a Cambridge en septiembre de 1911 para trabajar junto a Thomson. Desavenencias
del tímido joven con su nuevo tutor, probablemente en parte debidas a su deficiente inglés,
agravadas por las críticas que él y su anterior ayudante, Rutherford, formularan a su modelo, le
llevaron a Manchester en marzo del año siguiente. Inicialmente motivado con el modelo
planetario, pronto descubrió las fallas y se las ingenió para imaginar una solución práctica,
aunque pareciera descabellada. Para el invierno regresó a Copenhague, desde donde continuó
su interacción con Rutherford. Su modelo, con la variante de órbitas estables, era un abierto
desafío al del neozelandés. Animado por este, regresó nuevamente en marzo de 1913 para
pulir y alargar el texto en que presentaba sus postulados teóricos. Su propuesta inicial
combinaba las ideas clásicas con las cuánticas, pero contenía un ingrediente novedoso que
parecía absurdo a primera vista: los saltos cuánticos. ¡Nada volvería a ser lo mismo!
Figura 2.11. a) Joseph John Thomson (1856 – 1940); b) Ernest Rutherford (1871 – 1937); c) Niels Bohr
(1885 – 1962).
10
En términos sencillos, se denomina momento de una cantidad física al producto del brazo o distancia
desde el punto de acción a un punto de referencia u origen por la cantidad física en cuestión; la
definición rigurosa es un poco más complicada, pues parte de lo que se denomina producto vectorial: el
momento o torque de una fuerza es rF. Para precisar aún más el lenguaje, es bueno hacer notar que
el término momento cinético, cuando alude a lo que más extensamente se denomina cantidad de
movimiento angular, es erróneo o por lo menos equívoco; momentum angular, es la denominación
adecuada; momento en la primera parte de la frase es una mala traducción del inglés momentum, pero
así lo ha establecido su uso en español. En este ensayo, se acoge por comodidad esa costumbre.
11
El nombre, h-barra, hace alusión precisamente a la división de la constante de Planck por el ángulo
Figura 2.12. Modelo de Bohr de órbitas estacionarias para el átomo de hidrógeno. Los electrones
saltarían en forma discontinua de una a otra de las órbitas permitidas, caracterizadas por momentum
angular ħ (energías y momentos angulares cuantizados), recibiendo o emitiendo la energía
correspondiente al principio de conservación de la misma.
Primer postulado. Los electrones describen órbitas circulares alrededor del núcleo del átomo
sin irradiar energía. Bohr no se preocupó inicialmente por órbitas de tipo elíptico. Estas fueron
retomadas más tarde por él y otros, entre ellos Sommerfeld, quien de paso introdujo
correcciones relativistas al primer modelo.
Segundo postulado. Las únicas órbitas permitidas para un electrón son aquellas para las cuales
la magnitud del momentum angular sea múltiplo entero de ħ: L = nħ. No había sido
descubierto aun el espín del electrón. Cuando esto ocurrió, se incorporaron modificaciones a
los modelos de Bohr y Sommerfeld que fueron paliativos a la denominada vieja teoría
cuántica.
Tercer postulado. Los electrones solo pueden emitir o absorber energía cuando realizan saltos
cuánticos. Estos se dan por absorción o emisión de fotones, con energías que tienen que ser
exactamente iguales a las del proceso inverso. Llamando Ef la energía del estado final y Ei la
del estado inicial, la energía emitida o absorbida en un salto cuántico será:
Ef - Ei = hν.
Figura 2.13. Series espectrales (Lyman, Balmer, Paschen, Brackett) y fórmula de cuantización obtenida
por Bohr a partir de su modelo atómico de saltos cuánticos con momentum angular cuantizado.
(Cortesía de Manuel Freddy Molina.)
Posteriormente se descubriría que no solo por absorción o emisión de fotones se darían
transiciones entre los niveles energéticos. Vendrían también reglas de selección, que surgen
rigurosamente de una formulación más precisa de la teoría cuántica, incluyendo efectos
relativistas. La formulación de una teoría atómica de la materia a partir de la física cuántica
tuvo que partir de hipótesis más osadas que la de los saltos cuánticos, introduciendo el
concepto de discontinuidad en el mundo físico y renunciando a uno de los principios más
fundamentales de la física clásica: el determinismo. Habría que renunciar, por ejemplo, al
concepto de trayectoria asociado a las órbitas. Aunque imprecisas e incompletas, las hipótesis
de Bohr dieron comienzo al abandono de los caros conceptos clásicos de la mecánica y la
electrodinámica, un camino sin retorno posible.
2.4.2 La espectroscopia: su origen y sus nuevos aportes
Sería muy extenso hacer siquiera un somero recuento sobre esta ciencia, espectroscopia o
espectroscopía, inicialmente empírica, cuyos verdaderos inicios se remontan a los comienzos
del siglo XIX, si no antes (Sánchez Ron, 2001). Probablemente fue Joseph von Fraunhofer
(1787-1826) su verdadero iniciador. Entre 1814 y 1823, reportó más de 600 líneas espectrales
para la radiación solar.
El espectro de emisión atómica de un elemento es un conjunto de líneas espectrales
observadas a determinadas frecuencias, en las ondas electromagnéticas emitidas por átomos
de ese elemento, particularmente en estado gaseoso, cuando se le comunica energía
adecuada. El espectro de emisión de cada elemento es único y puede ser usado para
determinar si ese elemento es parte de un compuesto desconocido.
Figura 2.14. Comparación de los espectros de absorción y emisión del átomo de hidrógeno
Figura 2.15. Ilustración de lo que ocurre cuando un electrón absorbe un fotón de frecuencia elevada
(hacia el violeta) y emite luego un fotón de menor energía para pasar a un nivel intermedio.
El espectro de absorción, por el contrario, muestra la fracción de radiación electromagnética
incidente que el material absorbe dentro de un rango de frecuencias. Es, en cierto sentido, el
opuesto de un espectro de emisión.
El sueco Anders Jonas Ångström y el alemán Gustav Kirchhoff, precedidos por Fraunhofer,
compatriota de este último, son algunos de los más connotados espectroscopistas de
mediados del siglo XIX. Vale la pena señalar que Kirchhoff contribuyó a la formación de Planck
y a su interés por el problema de la radiación, y que se debe al sueco el más completo mapa
espectral de radiación solar del siglo XIX y la unidad de medida que es común en la
espectroscopia, el Ångström, simbolizado por la vocal sueca Å. 1 Å = 0.1 nm.
La espectroscopia hoy es una ciencia mucho más refinada, pues utiliza sofisticados
instrumentos capaces de examinar en todo el rango electromagnético. Los avances más
recientes permiten seguir rápidos procesos inter e intramoleculares, gracias a una nueva
técnica denominada espectroscopia ultrarrápida, basada en la novedosa femtoquímica,
apropiada para estudiar reacciones que duran femtosegundos (1 fs = 10-15 s).
2.4.3 El electrón como onda
Pero las pistas y los razonamientos en la dirección de la dualidad venían de tiempo atrás.
William H. Bragg, quien conjuntamente con su hijo fuera galardonado con el premio Nobel en
física en 1915, decía en 1912 comentando las ideas contradictorias que se tejían alrededor de
los a o X: El p o le a está, o e de idi e t e dos teo ías so e los a os X, si o e
encontrar... una teoría que tenga la capacidad de a as.
Establecido experimentalmente el carácter dual de la luz, no parecía difícil hacer lo mismo con
el electrón, cuyas supuestas órbitas ya habían sido cuantizadas por Bohr. La tarea meticulosa
correspondió a de Broglie. Acogiendo la idea de la dualidad onda-partícula, la desarrolló
matemáticamente para el caso particular del electrón, describiendo de paso no solo el
comportamiento de ondas de materia sino también sugiriendo las formas bajo las cuales
podrían ser observadas. Su hermano Maurice, reconocido físico experimental, fue su gran
auxiliar en la tarea. Aprovechando el laboratorio montado en París por este último, Louis
Victor Pierre Raymond, su nombre de pila completo, desarrolló no solo algunos experimentos
sino también los primeros trabajos teóricos con el fin de demostrar su hipótesis y los publicó
en 1923. Puestas en orden sus ideas, las presentó en forma más completa para optar al título
de doctor; el examen tuvo lugar en la Sorbona en noviembre de 1924 y la tesis
correspondiente fue publicada en 1925.
De Broglie fue más allá que todos sus predecesores y postuló que la misma dualidad partícula-
onda que aquejaba a la luz se halla presente cuando se trata de electrones, protones y otras
partículas de pequeña masa. Supuso que a toda partícula de masa M (relativista) debe
asociarse una onda, cuya longitud de onda es inversamente proporcional a su cantidad de
movimiento p = Mv. Como en todos los efectos cuánticos, la constante de proporcionalidad es
la constante de Planck; así, pues:
= h/p,
la misma fórmula para fotones, pero aplicada ahora a toda partícula material. Era el origen de
la onda piloto o, en otras palabras, el nacimiento de ondas de materia: la superposición, o
mejor, la interferencia y la difracción, no son propiedades exclusivas de las ondas, si es que
alguna vez supimos qué era una onda.
Figura 2.17 Órbitas estacionarias vistas como modos normales de ondas de materia.
Modos normales de vibración son los que ocurren en cualquier tipo de oscilador
clásico. Los instrumentos musicales se construyen para que puedan dar lugar a
distintos modos normales, pudiéndose generar con ellos una combinación melódica de
frecuencias y tonalidades. Una cuerda fija por los dos extremos (figura I.16), solo
permite la formación de ciertas frecuencias, armónicos, a partir de un modo
fundamental. Lo mismo ocurre con los tubos de un órgano. Este comportamiento se
discutirá en la sección 2.6. La analogía con los instrumentos musicales para el caso de
los electrones ligados al núcleo la tomó de Broglie muy en serio, y propuso que las
órbitas debían de permitir el acomodo preciso de ciertas longitudes de onda para ser
estables. Si esta comparación permite entender o no la cuantificación de los estados
de energía, no es seguro; pero esa imagen ayudó a una mejor comprensión del mundo
de los quanta o cuantos.
Figura 2.10 a) Comparación de los patrones de difracción de rayos X y de electrones al atravesar una
delgada lámina de aluminio. La imagen de la derecha fue resultado del experimento de Thomson-Reid.
Figura 2.10. b) Electrones difractados por una hoja de aluminio (detalle).
Figura 2.11. Planck (1858-1947) y Einstein (1879-1955), los mayores responsables de iniciar una
revolución todavía en efervescencia.
El siguiente avance público de la teoría cuántica se produjo, como ya lo advertimos, cinco años
más tarde, no en Alemania pero cerca de allí, y estuvo protagonizado por Albert Einstein,
quien para entonces había renunciado a la ciudadanía alemana y adquirido la suiza. Nacido en
Ulm de padres judíos el 14 de marzo de 1879, a diferencia de Planck, este era un joven
desconocido...
Pero Einstein había seguido meticulosamente, desde muy temprano, los pasos de Planck y de
otro gran físico de su tiempo, Ludwig Boltzmann. Su mérito consistió en aplicar otra hipótesis
cuántica, similar pero más revolucionaria, a una intrigante cuestión, el efecto fotoeléctrico, al
que nos hemos referido profusamente en la monografía divulgativa ya mencionada y en el
capítulo anterior. Algunos avances significativos ocurrieron en el transcurso de las dos décadas
siguientes. Pero los resultados teóricos más consistentes de la cocina cuántica surgieron con
posterioridad a la hipótesis de de Broglie, en menos de un lustro. Ni siquiera los resultados
iniciales de Bohr y su explicación de las líneas espectrales del átomo de hidrógeno pueden
verse como el logro de una verdadera teoría física, más bien son el resultado de complejos
malabarismos.
En 1915 Einstein había concluido su Teoría General de Relatividad y prestó nuevamente
atención a lo que se estaba cocinando. Para entonces, los resultados y las posibles
explicaciones de lo que ocurre en el núcleo estaban de moda. Einstein vislumbró la similitud
entre las transiciones electrónicas en los átomos y los decaimientos en los núcleos radiactivos.
Uno de sus mayores éxitos del momento (1917) fue deducir la fórmula de Planck para la
radiación del cuerpo negro utilizando solamente ideas cuánticas y sentando los cimientos
teóricos de máseres y láseres. Echando mano de las ideas estadísticas de Einstein, Bohr
extendió su modelo atómico intentando explicar, no solamente la presencia de las líneas
espectrales, sino también su intensidad. ¡No tuvo mayor éxito! Lo intrigante del asunto es que
se puede hacer una buena predicción estadística con su modelo, pero no se logra saber la
causa última que ocasiona el decaimiento del núcleo o la des-excitación electrónica, también
denominada en esa época emisión atómica.
En la búsqueda de la explicación a tantos interrogantes surgió una «ruptura con el principio de
causalidad» que de ahí en adelante no dejaría en paz a Einstein. Ese largo periodo histórico se
ha cubierto profusamente por los historiadores de la ciencia. Se aconsejan en particular las
bien documentadas obras Quantum generations (Generaciones cuánticas) e Historia de la
física cuántica, escritas respectivamente por Helge Kragh (2007) y Jesús María Sánchez Ron
(2001). Más reciente, la recopilación de Jim Baggot cubre un largo periodo. (Baggot, 2011.)
Un breve ensayo, centrado en uno de los personajes más geniales y controvertidos de esta
historia, Werner Karl Heisenberg, de gran valor histórico-epistemológico, es el de Antonio
Fernández-Mañada: Ciencia, incertidumbre y conciencia. Heisenberg (2004). La antítesis de
Heisenberg se puede ver en el bonachón Erwin Rudolph Joseph Alexander Schrödinger, de
quien John Gribbin hizo recientemente una valiosa antología. (Gribbin, 2013.)
Cuando se menciona a Heisenberg, es imposible no recordar su famoso principio, según
muchos el más fundamental de la nueva física. A él tendremos que referirnos frecuentemente
y, por supuesto, a la ecuación de onda de Schrödinger, equivalente a la segunda ley de Newton
en la mecánica cuántica.
Figura 2.12. Werner Karl Heisenberg (1901-1976) y Erwin Rudolph Joseph Alexander Schrödinger (1887-
1961), dos figuras icónicas y contrapuestas de la mecánica cuántica.
Se insiste con demasiada frecuencia en que una de las implicaciones más trascendentales del
cuanto de acción es la de que la observación afecta toda medida. Por tal razón, a lo mejor un
poco ingenuamente, se afirma que si no se requiere invocar los principios cuánticos para todo,
es porque, como escribió el británico Paul Audrian Maurice Dirac en el primer capítulo de su
monumental obra Principios de mecánica cuántica: “i el o jeto o side ado es tal ue la
alteración límite inevitable se puede despreciar, se dice que el objeto es grande en sentido
absoluto; si, en cambio, dicha alteración no es despreciable, el objeto es pequeño en sentido
a soluto... . Más adela te se eafi a esta jui iosa o se a ió , la ue o du e al lla ado
principio de correspondencia. Pero...
2.6 Una revolución que continúa siendo molesta
Por lo dicho atrás, Dirac se quedó corto. No solo porque el origen del Universo no es clásico; al
menos no podremos imaginarlo sin recurrir a los quanta. Como afirma Ramón Lapiedra (2008):
si hoy no dispusiéramos de tan poderosa herramienta, tendríamos que inventarla de algún
modo; de hecho, la revolución del transistor de mediados del siglo pasado habría sido
imposible sin esa herramienta. Los fenómenos colectivos, presentes en muchas de las
aplicaciones de lo que se denomina física de la materia condensada, es decir, de trozos de
materia en la que están participando coordinadamente del orden de, para dar una idea, un
cuatrillón (la unidad seguida de 24 ceros) de partículas o entes cuánticos concentrados en un
volumen no superior a un centímetro cúbico, para todos los efectos un tamaño macroscópico,
tampoco tienen una explicación clásica; y si el trozo de materia es mucho menor, hay aún
menos razones para esperar que la lógica clásica pueda permitirnos entender su
comportamiento.
(No es solo que la observación afecte toda medida: es que no se pueden medir
simultáneamente 2 cantidades conjugadas canónicamente. Hoy sabemos también de efectos
cuánticos en sistemas biológicos, tema que será parcialmente cubierto en la tercera parte.)
Pero hay todavía más, como se desprende de cuidadosos experimentos realizados durante las
dos últimas décadas: si bien es cierto que la medición o la observación, casi siempre una
interacción con el sistema, altera el objeto observado, esa no es la única consecuencia de
aceptar los principios cuánticos. Aceptarlos y, sobre todo, materializarlos, ha llevado a lo que
muchos reconocen como la segunda revolución cuántica. Investigadores de la Universidad de
Innsbruck fueron los primeros en observar lo que denominan «interaction-free-
measurements» (medidas libres de interacción). Parodiando a Einstein, la consecuencia es
tajante y, hasta cierto punto, cruel: ¡el sentido común y la sensatez han sido refutados!
También la noción misma de realidad... a menos que sea redefinida, o estemos dispuestos a
aceptar que es un mito más: Einstein se revolcaría en su tumba. Es aquí donde los
embaucadores, siempre tan abundantes y acuciosos o astutos, pueden aprovechar la ocasión
para hacer de las suyas.
(El borrado cuántico.)
Algunas frases del párrafo anterior requieren de una explicación para el lector no familiarizado
con estos temas. La propuesta de Planck, presentada ante la Academia en 1900, más que
respuestas claras, creó más confusiones. Él mismo escribiría 20 años después a un amigo:
Puedo a a te iza el p o edi ie to e te o o o u a to de desespe a ió ...
Personalmente Planck, no solamente sus contemporáneos, siguió pensando en términos
clásicos. Más abierto a nuevas ideas, Einstein vislumbró mejor que aquel el valor intrínseco de
la constante de acción, puesto que encajaba muy bien en su espacio tetradimensional. Pero
sucumbió también ante la incertidumbre. La probabilidad generada por los principios
cuánticos no encajaron en su romántica idea de concebir el universo como si fuera
comprensible.
De acuerdo con la teoría de relatividad, observadores que se muevan por el espacio unos con
respecto a otros, describen de manera diferente, aunque utilizando las mismas leyes, los
mismos fenómenos, cada uno desde su propio marco de referencia. No estarán de acuerdo,
por ejemplo, en la longitud de un metro que, con respecto a otros observadores, se mueva a lo
largo de la dirección en que se mide su longitud; tampoco en los intervalos de tiempo de sus
diferentes relojes y, por ende, en la edad de sus contemporáneos. Pero la contracción de la
longitud y la dilatación del intervalo temporal en cierto sentido se compensan: el intervalo
espacio-temporal sigue invariante, como lo era antes la longitud de una barra rígida. La acción,
una cantidad poco usual en la física newtoniana, envuelve energía y tiempo: resulta ser la
misma para todos los observadores. Por extraño que suene, la teoría de relatividad es una
teoría de invariantes. Esta aclaración permite hacer una afirmación más: están equivocados
quienes opinan que las teorías de Einstein les permite relativizar en forma absoluta el
conocimiento y sus consecuencias. En otras palabras, el pensamiento complejo a veces no es
tan complejo, o mejor, algunos de sus propulsores dejan de utilizar los criterios de la ciencia
para convertirla en otra cosa.
Einstein abonó el terreno para continuar cuantizando cantidades físicas. Aunque sus aportes a
la teoría cuántica en aquel cuarto de siglo fueron muchos, podría decirse que más tarde se
desentendió del asunto... excepto porque él mismo supuso que algunas de las hipótesis eran
solo eso: hipótesis de trabajo, ideas momentáneamente útiles a las que después se les podría
dar una adecuada interpretación, cuando la teoría de relatividad y la teoría cuántica encajaran
perfectamente. Transcurridos cien años, su sueño no se ha hecho realidad. Las nuevas
generaciones de físicos se han apartado del escepticismo de Einstein con respecto a la teoría
cuántica. La interpretación de la teoría se aleja cada vez más de la prevista por aquel.
2.7 Si no siente vértigo, es porque no ha entendido
Algunos de los expertos más reconocidos en el tema han llegado a afirmar, con sobrada razón,
que nadie comprende la mecánica cuántica.
Se dirá que lo mismo ocurre con la relatividad. Puede afirmarse que muy pocos la entendían
antes de 1920. Era una época en la cual los físicos estaban todavía muy aturdidos con la nueva
concepción del espacio-tiempo, ya no digamos curvo, pero incluso la que se deriva de la
relatividad especial. A hacerla asequible para un número amplio de aficionados se han
dedicado grandes esfuerzos, con mucho éxito. Einstein mismo publicó, al año siguiente de
publicada su TG, un ensayo divulgativo. (Einstein, 1917.)
No puede decirse lo mismo de la teoría cuántica. En los últimos años, quizá en la última
década, las cosas se han invertido: ahora se escribe más sobre física cuántica, y las referencias
tomadas casi al azar en la sección anterior lo atestiguan. Pero la confusión sigue al acecho, en
forma por demás peligrosa. Un ejemplo protuberante lo constituye la película What the bleep
do we know?, pseudociencia llevada a la pantalla con gran éxito. Con esfuerzos más refinados,
el Biocentrismo de nuevo tipo (Lanza, 2009) antepone la existencia de la conciencia a la de la
materia misma. No entraremos aquí en esta polémica, pero se invocan los principios de la
nueva física para dar soporte a las más disparatadas propuestas.
Al margen de las interpretaciones, en ocasiones verdaderas tergiversaciones, el formalismo
cuántico es bien entendido, no así sus implicaciones, las cuales hasta ahora han sido
fi e e te o o o adas. …
3. Los primeros experimentos con electrones
Para seguir con la analogía de la novela de misterio citada en la introducción, las primeras
pistas en la búsqueda de explicaciones o hipótesis para la construcción de una buena teoría
eran datos totalmente dispersos sin aparente conexión. Una cosa es afirmar que los objetos
físicos emiten o absorben energía del campo electromagnético (del medio circundante, para
ser más clásicos y precisos o exactos) en cantidades discretas y otra muy diferente llegar a
establecer mediante experimentos que esa energía ya está cuantizada en la radiación misma.
La radiación de un cuerpo negro en su conjunto es un fenómeno rigurosamente macroscópico
y la emisión de fotoelectrones por una superficie metálica lo es en el dominio microscópico.
Debe haber, no obstante, una conexión entre los dos fenómenos, precisamente a través de la
constante h que establece un puente entre ambas hipótesis, la de Planck y la de Einstein.
Encontrar una relación entre los electrones pertenecientes a un átomo, dicho en forma más
rigurosa, entre los electrones ligados al núcleo atómico, y los electrones libres, como aquellos
que al ser desprendidos del metal dan lugar a la corriente que se produce entre cátodo y
ánodo, es un reto mayúsculo. Bohr se refería a los primeros, cuando en un golpe de audacia
resolvió parcialmente el problema de las líneas espectrales del átomo de hidrógeno, mientras
que el esquema de de Broglie, aunque propuesto tentativamente para los primeros, se aplica
en rigor a los segundos. Bohr conecta certeramente la relación existente entre electrones y
fotones dentro del átomo; de Broglie establece el paralelismo en el comportamiento entre
electrones libres y fotones, granos de energía cuya existencia ya había sido claramente
demostrada por el experimento de Compton.
El misterio, aunque no se resuelve, se percibe en su plena dimensión cuando se concluye que
unos y otros, electrones y fotones, se comportan de la misma manera. ¡Esta es una conclusión
insólita! Atreverse a proponerlo, como lo hizo el doctorante de Broglie, es una osadía
descomunal. Pero como lo señalamos desde el comienzo del capítulo anterior, el futuro doctor
conde adivinó lo que sucede a nivel elemental. Ante las evidencias experimentales, como
veremos a lo largo de este capítulo, no queda otro camino que aceptar que todos los objetos
cuánticos, como les denominaremos genéricamente, se comportan de la misma manera.
Cuando se encuentran algunas características comunes entre los objetos bajo estudio, se
puede suponer que se va por buen camino. El paso más difícil es imaginar que pueden existir
esas características comunes entre objetos que suponíamos tan diversos. Los experimentos
que describiremos muestran fehacientemente que observaciones tan diversas caen bajo un
mismo manto teórico.
Transcurrió más de una década entre la formulación de la hipótesis de Bohr sobre los saltos
cuánticos y la propuesta sobre las ondas de materia (ondas piloto para los electrones)
formulada por de Broglie. La observación del comportamiento ondulatorio de los electrones no
se hizo esperar, pero el resultado lo fue más por accidente que por una planeación en la
búsqueda del mismo. Volvamos a los electrones ligados a los átomos. Si estos saltan de un
nivel a otro al recibir la energía adecuada, no importará de dónde provenga la energía; es
irrelevante si la suministra un fotón con la frecuencia apropiada o un electrón que ha sido
acelerado, impulsado sería más riguroso, hasta adquirir la energía de movimiento necesaria
para provocar un salto cuántico. Esto último, como veremos, fue el experimento que hicieron
Franck y Hertz en 1914, y a él nos referiremos en la primera sección de este capítulo. En la
segunda sección abordaremos la manifestación de un concepto que no tiene parangón en el
mundo clásico y en la tercera la manifestación ondulatoria del electrón, la única explicación
posible a los aparentemente absurdos resultados experimentales.
Si los electrones se comportan como ondas, deben manifestarlo así en las situaciones que son
más características del comportamiento ondulatorio; entre estas, el fenómeno de
interferencia es el más notable y el más sencillo de realizar con ondas mecánicas (véase el
apéndice I); en principio, es el experimento de la doble rendija o de interferencia mediada por
dos ranuras el más fácil de llevar al laboratorio en una cubeta de ondas. Desafortunadamente
no ocurre lo mismo con las ondas de electrones, las cuales se manifestarían a longitudes de
onda demasiado pequeñas. Por eso es fácil de entender que entre la realización del primer
experimento realizado con electrones en un cristal de níquel (típico experimento de difracción
de electrones) y el de las dos ranuras (también con electrones), al que hemos hecho varias
veces referencia, transcurrieron más de tres décadas; entre el experimento que probó los
niveles cuantizados en los átomos (1914) y el de la doble rendija (1961), transcurrió casi medio
siglo. En uno y otro, a su debido tiempo, los resultados no deberían causar mayor sorpresa, a
pesar de lo inesperados. Del primero, había evidencia de líneas discretas en los espectros de
los elementos desde hacía casi un siglo y se acababa de formular una posible explicación con
los postulados de Bohr. Del segundo, las imágenes obtenidas con haces de rayos X cuando se
pensó acertadamente que esos rayos eran de la misma naturaleza que las emisiones luminosas
de los átomos, no eran más que el preludio de una nueva física de la que se podría sacar
información hasta entonces oculta.
Las imágenes que se obtuvieron con haces de electrones enviados contra una superficie
cristalina comprobaban la aventurada hipótesis de de Broglie. No obstante, lo que ilustran uno
y otro experimento, con rayos X y con electrones, es la esencia de lo que describe el
formalismo cuántico. Se trata, en últimas, del principio de superposición, al que volveremos
reiteradamente, en particular en el próximo capítulo. Ese principio, la esencia de la nueva
física, fue verificado una y otra vez desde entonces. Por eso, cuando finalmente Jönsen realizó
en 1961 el experimento de un haz de electrones atravesando dos ranuras, experimento
equivalente al de Young con luz visible (1802), la publicación de su resultado pasó totalmente
desapercibida para la comunidad de habla inglesa (e hispana, por supuesto). No obstante,
Feynman tenía razón: el misterio cuántico está plenamente ilustrado con el experimento de
las 2 ranuras. Por eso le dedicaremos varias páginas, al final del capítulo. La conclusión, ya
conocida por el lector, no dejará de sorprenderlo.
Del otro experimento que discutiremos (el segundo), sus resultados pueden formularse
igualmente recurriendo a lo que se denomina combinación, mezcla o superposición de estados;
servirá de paso para ilustrar la naturalidad de la formulación matricial de la mecánica cuántica,
la otra formulación equivalente de la física cuántica, en muchos aspectos más conveniente que
la ondulatoria. Se trata del experimento de Stern y Gerlach, el cual llevó además al concepto
de momentum angular intrínseco, característica interna de toda partícula, al igual que su masa
en reposo, su carga y otros observables que le son propios. La formulación matricial fue
resultado del trabajo conjunto de Jordan, Born y Heisenberg (el trabajo de los tres hombres), al
que se unieron Pauli y Dirac. Sin entrar en detalles, el mérito principal del esfuerzo conjunto de
tantas mentes brillantes fue dar con la no conmutatividad de las llamadas variables
canónicamente conjugadas y explotar matemáticamente ese hecho.
3.1 Experimento de Franck y Hertz
El denominado experimento de Franck-Hertz fue el primer experimento con electrones que
demostró la naturaleza cuántica del átomo. Recuérdese que en 1913 se publicaron los dos
artículos de Niels Bohr que postulaban la cuantización de los niveles energéticos de los
electrones en los átomos (órbitas, en el lenguaje de Bohr, denominación que
desafortunadamente ha sobrevivido después de un siglo). James Franck y Gustav Hertz
realizaron al año siguiente, por primera vez, este sencillo experimento que les valdría el
premio Nobel en 1925. Su experimento consistió en hacer chocar con átomos electrones que
han sido acelerados mediante un campo eléctrico a lo largo de un tubo de vacío que contiene
gas de mercurio.
Como ilustra el montaje y la figura adjuntos (figura 3.1), al acelerar electrones en un tubo de
descarga en el que se varía el potencial acelerador, ocurre que para ciertos valores del voltaje,
la corriente en vez de aumentar disminuye. Estos valores corresponden a regiones en que los
electrones pierden energía cinética al chocar inelásticamente con los átomos de mercurio,
dejando por tanto de contribuir a la corriente. Ellos entregan la mayor parte de su energía a
los átomos, o más precisamente a los electrones más externos, que pueden pasar así a un nivel
excitado, para el caso el más bajo o primer nivel excitado. Este corresponden a 4.9 eV. Los
descensos también se dan en la región cercana a 9.8 y 14.7 eV, que son múltiplos del valor
anterior. En estos últimos casos, los electrones incidentes han servido para excitar 2 y 3
átomos, respectivamente, dejando de contribuir a la corriente. Si los electrones tienen una
velocidad inferior a 1.3x106 m/s, el choque es elástico y estaremos en la cumbre del ascenso
de corriente. Para ese valor preciso de velocidad, los electrones forman parte del promedio y
quedarán prácticamente en reposo antes de continuar su recorrido nuevamente, acelerados
por el potencial: no ha ocurrido nada especial. Si el promedio de los electrones lleva una
velocidad un poco mayor, habrán cedido casi toda su energía a electrones de los átomos que
se excitan.
Figura 3.1. Montaje para el experimento de Franck y Hertz y resultados obtenidos para gas de mercurio.
Figura 3.2 Esquema del aparato utilizado por Stern y Gerlach en su experimento y del resultado. (Ojo: en
la figura de la izquierda se habla de campo homogéneo, pero el campo tiene que ser inhomogéneo,
como la misma figura lo sugiere.)
a) Primera Secuencia
b) Segunda Secuencia
c) Tercera Secuencia
Figura 3.3. Secuencias de experimentos de Stern-Gerlach (SG). La imagen es esencialmente la misma
utilizada en el clásico texto de Sakurai.
¿Qué ocurrirá si en vez de orientar el segundo SG en dirección z+ lo orientamos en dirección
x+? El resultado es sencillo, pero sorprendente: el haz se separa en dos nuevos haces, iguales
en intensidad, con valores de espín +½ y –½, pero esta vez en dirección x, positiva y negativa;
en otras palabras, el haz original Sz+ se ha convertido en dos haces Sx+ y Sx-, con igual
intensidad. El esquema se muestra en la figura 3.3b. Si tomáramos un tercer SG orientado en
dirección x para medir el valor de espín de cualquiera de los dos haces resultantes,
comprobaríamos que los electrones de cada uno de los haces tienen el valor de espín que
esperamos: +½ y –½.
Hasta aquí el lector no tendrá mayor problema: supondrá que, así como hay una componente
de espín en dirección z, habrá una componente de espín en dirección x. Ya se ha dicho que el
valor va a ser +½ o –½ siempre, por lo que podrá concluir que ahora la descripción de los
haces resultantes es la siguiente: para el primero, los electrones tienen tanto una componente
Sz+ = +½ como una componente Sx+ = +½; para el segundo, Sz+ = +½ y Sx- = –½. Esta hipótesis,
plausible, puede comprobarse o negarse con un tercer experimento para el cual nuestro
tercer SG se orienta en dirección z. El resultado es negativo, como indica la figura 3.2c: en la
dirección z obtenemos otra vez dos haces de igual intensidad, uno con Sz+ y otro con Sz-, como
si al electrón se le hubiera olvidado la preparación que se le hizo de un estado puro Sz en el
primer SG antes de hacerlo pasar por el segundo SG. Efectivamente, ¡esta información se
borró!
Examinemos esto con mayor detalle. En física lo que estamos haciendo se denomina colimar
o seleccionar partículas preparadas de determinada manera, y consiste en la preparación de
haces o racimos de partículas que tengan todas ellas las mismas propiedades iniciales. Cuando
salen del horno, los electrones salen aleatoriamente, con las orientaciones de sus dipolos
magnéticos intrínsecos completamente al azar. El primer SG nos separa los electrones que
tienen espín Sz+ de los que tienen espín Sz-, o al menos eso creemos. El segundo SG nos
permite separar los electrones que tienen espín Sx+ de los que tienen espín Sx-; hasta ahora se
ha asumido que las medidas en z y en x son independientes. Si esta suposición es correcta,
cuando regresemos a observar la componente Sz la debemos encontrar en el valor anterior.
Pues bien, no es así, como revela la figura 3.2c. En el haz Sx+ que antes había sido seleccionado
con electrones que tenían Sz+ encontramos ahora electrones con las dos componentes
posibles en dirección z, como cuando salieron del horno.
El resultado del experimento anterior plantea algunos interrogantes. Una forma sencilla de
responderse a la mayor inquietud consiste en reconocer que la fuerza ejercida por el campo
magnético sobre el momento magnético (digamos más bien que la interacción entre el campo
magnético del SG y el momento de dipolo magnético del electrón) lo modifica a tal punto que
la preparación previa se echa a perder. En realidad, lo único que se puede afirmar es que en el
segundo experimento se han preparado las condiciones para observar componentes de espín
en la dirección x positiva o negativa. El resultado de la observación deja a las partículas
observadas en un estado de espín determinado, sea este Sx+ o Sx-. Eso significa, de paso, que
cuando queramos determinar la componente Sz el sistema ha olvidado por completo su
estado anterior. Estamos en presencia de dos observables no compatibles, para los cuales vale
el principio de indeterminación.
Para resumir y sacar conclusiones, examínese la siguiente situación en la que participa un solo
electrón, ilustrada en la figura 3.4. Hágase abstracción del movimiento del electrón y
considérese solamente el valor del espín. Supóngase que en un experimento previo se ha
determinado que éste apunta en dirección horizontal positiva, +½ (figura 3.4a). Cuando se le
mida su espín con un aparato que detecta la proyección del espín en dirección vertical, del
resultado del experimento anterior es claro que el resultado tiene que ser, con igual
probabilidad, +½ o –½ en dirección vertical, nunca cero, contrario a lo que cabría esperar
clásicamente. En otras palabras, después de analizar un gran número de situaciones con la
misma condición inicial (espín en dirección horizontal +½), el aparato de detección vertical de
espín ha registrado 50 % hacia arriba y 50 % hacia abajo. Ahora bien, nada impide orientar el
aparato un ángulo de por ejemplo 45º con respecto a la orientación inicial del espín. La
situación se ilustra en la figura 3.4b. Los cálculos cuánticos dirán, y los experimentos
confirmarán, que aproximadamente 85 % de las veces se obtendrá +½ y 15 % de las veces –½
en dirección vertical. Por último, supóngase que la orientación del aparato coincide con la del
espín, como ilustra la figura 3.4c. En este caso, se obtendrá con toda seguridad el valor +½.
Figura 3.4. Aparato Stern-Gerlach vertical fijo que examina electrones preparados inicialmente en
distintos estados de espín. a) Preparación inicial con espín horizontal. b) Preparación inicial con espín
oblicuo. c) Preparación inicial con espín vertical.
Como conclusión de los dos casos anteriormente examinados, puede afirmarse que: no es
posible, a partir de una sola medida, saber con precisión cuál era el estado previo del electrón;
qué resultado se obtendrá, es algo que solo puede predecirse con cierto grado de
probabilidad; hay solo un caso en que es posible predecir el valor exacto de la medición: si la
orientación del espín coincide con o es opuesta a la del aparato y en una medida mediante un
experimento previo se ha determinado que esa era la dirección del espín; por otra parte, si al
medir nos da todas las veces (100 %) una cierta dirección para el espín, concluimos que antes
de la medida ese era el estado de espín del electrón.
3.3.1 Experimentos de Davisson, Germer y otros
Interrogado de Broglie sobre la posibilidad de verificar en la práctica su hipótesis, apuntó en la
dirección correcta: cristales metálicos, en los cuales la distancia de separación entre los
átomos es del orden de los Å. Efectivamente, para voltajes de aceleración modestos, su
relación da longitudes de onda del electrón en esa región. Por ejemplo, para V = 10 eV, resulta
λ se ap o i ada e te de × -8 cm. No es de extrañar entonces que en Göttingen se
estuviera buscando con afán ese camino. Ya nos hemos referido ampliamente en el capítulo 2
a los experimentos de difracción de electrones, en particular a los de Davisson-Germer y los de
Thomson-Reid de 1927, pero quisiéramos ilustrar sus impactantes resultados con mayor
detalle. Realizadas las primeras verificaciones de la hipótesis con electrones, extenderlas a
otros sistemas más complejos sería cuestión de tiempo.
Figura 3.6. Variación de la intensidad de la señal del haz difractado a 10o en función de la raíz cuadrada
del voltaje acelerador en el experimento de Davisson y Germer.
Figura 3.7. Esquema del experimento de Thomson-Reid, mediante el cual se obtiene el patrón de
difracción , haciendo incidir electrones sobre una fina lámina de oro.
Cabe anotar aquí que el mismo tipo de experimento se ha hecho recientemente con fullerenos
(buckyballs), con resultados equiparables más modernos.
Sin lugar a dudas, el experimento más relevante sobre el comportamiento cuántico de la
materia, el que nos lleva al meollo del asunto, el comportamiento dual de la materia y la
energía, es el experimento de la doble ranura que discutiremos en el siguiente capítulo. No
obstante, su versión original envuelve el equivalente a múltiples ranuras, más explícitamente
el dispositivo óptico conocido con el nombre de rejilla de difracción. Rejilla de difracción fue el
nombre que se le dio a ese sencillo y versátil dispositivo que permite observar el
comportamiento de la luz procedente de diversas fuentes o múltiples ranuras. La rejilla de
difracción original es un vidrio transparente sobre el cual por algún mecanismo que puede ser
químico o fisicoquímico se hacen diminutas hendiduras o muescas en un número que suele ser
de varios miles por cm. Este dispositivo es el que generalmente se utiliza para obtener los
espectros de emisión y de absorción descritos en el primer capítulo (Figura 1.9). Los enrejados
cristalinos que forman los átomos son rejillas de difracción naturales adecuados para las
longitudes de onda de electrones con velocidades térmicas y de fotones en la región de los
rayos X. El fenómeno básico es el de interferencia a través de dos ranuras, discutido en el
apéndice I. A continuación discutiremos el experimento de las dos ranuras con electrones y
fotones, de posible realización con electrones y fotones individuales hoy en día.
4. De vuelta al gran misterio
«El eterno misterio del mundo es su comprehensibilidad», decía Einstein en Física y realidad
(1936). La frase fue utilizada como entrada en la contraportada del libro que ofrecemos al
lector, terminando el párrafo con esta otra afirmación tomada de Einstein e Infeld (1938): «El
gran misterio permanece aún sin explicación». Pero a diferencia de estos, quienes la aplican a
una situación más general, nosotros nos referimos al misterio cuántico, el único misterio, de
acuerdo con lo que nos dice Feynman en Comportamiento cuántico. (Capítulo 37 en el tomo I y
Capítulo 1 en el III.) La primera sección del libro Evolución de la física, el cual inspiró varias de
este, se titula EL GRAN MISTERIO (sic en la versión en español; THE GREAT MYSTERY STORY en
inglés), y sus autores comparan allí la física con una novela de misterio. John Gribbin publicó
recientemente un breve ensayo cuyo título, The quantum mystery (2015), dimensiona y
precisa la frase que escogimos, citando a Einstein, para diferenciar este capítulo de los demás.
El ensayo de Gribbin, hasta donde tenemos información, no ha sido traducido y se encuentra
solamente en kindle. Algo más sobre el misterio cuántico puede verse en su página:
http://www.lifesci.sussex.ac.uk/home/John_Gribbin/quantum.htm
Feynman dice explícitamente en Comportamiento cuántico, refiriéndose al experimento de las
2 ranuras: ese es el único misterio. Y si abrigábamos la esperanza de que algún día lo
entenderíamos, los resultados recientes, ilustrados con versiones cada vez más novedosas,
utilizando la tecnología más sofisticada de que disponemos hoy, la nanotecnología y fotones
entrelazados, nos dicen que vamos ahora en dirección contraria: el experimento de la elección
retardada, propuesta de Wheeler, ya es un hecho. El único misterio no tendrá explicación
alguna, al menos dentro del esquema de pensamiento y de lógica que hemos ensayado por
milenios.
En su fundamentación conceptual, para efectos de su descripción cuántica, los dos
experimentos, el de las dos ranuras con electrones o fotones (para la luz, el experimento de
Young, que resulta ser también un experimento con partículas) y el de los dos estados de espín
(experimento de Stern-Gerlach para electrones) son equivalentes. En general, cualquier
sistema físico que pueda estar en dos estados diferentes, sirve para ilustrar de manera sencilla
el efecto conocido con el nombre de superposición. El fenómeno de polarización de la luz es
quizá al que más se recurre para ilustrarlo, salvo que al hacerlo hay que enfatizar que es
también un experimento con partículas cuánticas. El Principio de Superposición es uno de los
principios fundamentales de la física cuántica. Esa será la conclusión del presente capítulo. Por
eso, a cambio de gran misterio, misterio cuántico o único misterio, éste bien podría titularse
Principio de superposición, como hizo Dirac con el primer capítulo de su famoso libro
introductorio, al cual también volveremos a su debido tiempo. Echemos primero una rápida
ojeada a la historia de la óptica.
4.1 De Arquímedes a Higgs y de Newton a Einstein, largas historias de luz
En el año 2002 Robert Crease, historiador de la ciencia, hizo una encuesta entre los lectores
de la revista Physics World indagando cuáles eran, en su opinión, los experimentos más bellos
de la ciencia. Del título de la revista se infiere que se estaba haciendo referencia a
experimentos en física. Entre los más sobresalientes estuvo el de interferencia de la luz,
denominado como casi todos ellos por el nombre de su realizador, Young. Arquímedes de
Siracusa hubiera podido quedar en la lista entre los 10 mejor clasificados, con uno o más de
los ingeniosos experimentos que llevó a cabo y de los prácticos dispositivos que diseñó con
base en sus descubrimientos. El famoso descubrimiento del empuje hidrostático ocupó el
undécimo lugar. Algunos podrían llamarlo el hallazgo en la bañera o eureka, o la corona del
rey Hierón, pero invariablemente se asocia con el sabio siracusano. Por la genial forma en que
vislumbró el resultado, hubiera podido compararse, guardadas proporciones, con el que llevó
al descubrimiento del bosón de Higgs. Hay un baño de bosones, el campo de Higgs, que da
lugar a la masa de las partículas, así como hay un baño de agua o de aire que ocasiona el
empuje
En torno a Arquímedes se han tejido historias que resultaron ser falsas. Pero la mayor parte
de los aportes que se le atribuyen han resistido las pruebas de la historia. Por el tema que
estamos tratando, nos interesa más destacar el reconocimiento a su conocimiento y manejo
de las leyes de la óptica. Dice la leyenda que, con unos espejos parabólicos, Arquímedes
derrotó la flota de Marcelo, terciando el resultado de la batalla a favor del Tirano de Siracusa.
Todo parece indicar que este es uno de los grandes mitos o leyendas de la historia de la
ciencia, aunque hoy en día los rayos láser, en realidad un manojo de fotones coherentes,
pueden diseñarse para fundir rápidamente enormes moles de acero, cortar las más duras
láminas metálicas, hacer microcirugías, medir con precisión enormes distancias, como la de la
tierra-luna, y otras proezas. Al láser regresaremos más adelante. Su principio fundamental, la
razón de ser de su funcionamiento, fue previsto teóricamente por Einstein en 1916. Su diseño
y construcción en su primera versión (el máser) tuvo que esperar cerca de medio siglo.
En los libros de texto, a Isaac Newton se le conoce por la mecánica. Puede afirmarse, sin
temor a errar, que Newton no realizó experimento alguno que fuera de trascendencia para el
desarrollo de sus Principia. No obstante afirmó: Hypothesis non fingo. Recurrió a menudo a
experimentos pensados, como lo hiciera Einstein 250 años después. Debe aclararse que en su
adolescencia sí utilizó prácticas experimentales sugeridas por otros, con gran éxito.
Con tan solo 23 años y un retiro forzoso debido a la peste, en poco más de año y medio aportó
a la ciencia prácticamente todo lo que le haría famoso, entre otros el cálculo de fluxiones, la
ley de gravitación, la dinámica y algunos principios sobre la luz. Aunque su Óptica no fue la que
le llevó a la gran fama que ostenta su nombre, fue en ella en la que realizó sus más
escrupulosos experimentos en física. Luego siguió un extraño periodo dedicado a la alquimia.
Su convicción de que la luz estaba compuesta de corpúsculos muy livianos y rápidos la
defendió con ahínco hasta su muerte. En gran medida, Einstein le daría la razón, aunque desde
otro punto de vista que, de paso, llevaría a la revisión de los conceptos de la mecánica
pregonados por aquel.
4.2 El experimento más bello de la física
Volviendo a los resultados de la encuesta de Physics World en 2002, de la lista se escogieron
los diez experimentos que fueron citados por los lectores con mayor frecuencia; la lista se
publicó primero en la revista (1º de septiembre de 2002), luego (24 de septiembre de 2002)
en The New York Times, posteriormente en otras revistas y ha dado lugar a algunos libros.
Entre esos 10 experimentos destaca, sin lugar a dudas, uno que fue apenas pensado
(gedanken) durante mucho tiempo: I terfere ia de ele tro es al pasar por u a re dija
do le. A diferencia de casi todos los experimentos famosos, citados por el nombre de su
autor, físico o intelectual, el que ocupó el primer lugar no tiene nombre propio. Fue
materializado por primera vez por Claus Jönsson en Tübingen en 1961, 34 años después de
que hubiera sido realizado uno que arroja resultados equivalentes, a saber el experimento de
difracción de electrones, descrito someramente en el capítulo precedente, realizado por dos
grupos independientes, dirigidos respectivamente, por Clinton Davisson en Estados Unidos y
por George P. Thomson, hijo de J. J. Thomson, en Inglaterra. Los dos compartieron el premio
Nobel en 1937. El experimento de Jönsson pasó desapercibido para los lectores de habla
inglesa (y por supuesto hispana) hasta 1974, cuando fue publicado en inglés por el American
Journal of Physics, una revista de carácter didáctico. La versión original lo fue en alemán. No es
pues nada extraño que Feynman, en su conferencia citada (1961), precisamente en el año en
que se realizó por primera vez el experimento, afirme que no se ha hecho y que es de muy
difícil realización. No así el de difracción, equivalente a un número muy grande de ranuras,
fácilmente realizable con un cristal de cuarzo. El de difracción de electrones es en el fondo tan
fácil de realizar, que sin percatarse de ello ya lo habían realizado Davisson y Kunsman en 1923.
Aunque más difícil de materializar, el de 2 ranuras es de una enorme sencillez conceptual, a
más de ser en extremo ilustrativo. Sin lugar a dudas, del experimento se concluye que los
ele t o es puede o po ta se o o pa tí ulas… o o o o das, depe die do de ó o,
cuándo y dónde se observen o detecten.
El experimento de Young es un experimento de doble ranura, pero hecho con luz; fue llevado a
la práctica 150 años antes que el de Jönsson (1801), aunque los resultados solo fueron
publicados unos años más tarde (1807). El experimento claramente demuestra que la luz es
una onda. Al final del capítulo relataremos algunos detalles de un experimento similar, más
sofisticado, en el que se muestra el carácter dual de la luz, como onda y como corpúsculo,
igual que el electrón, y volveremos al del electrón y otras partículas, logrados gracias a los
últimos avances tecnológicos. En todos los casos, se trata de partículas que interfieren consigo
mismas y que conocen de antemano cómo deben comportarse, adivinando las intenciones del
experimentador.
Al lector que ha seguido previamente la discusión sobre el efecto fotoeléctrico en los capítulos
anteriores, no le cabe la menor duda que la luz está compuesta de corpúsculos. Los
experimentos de Millikan (1916) y de Compton (1923) fueron más contundentes. Vale la pena
subrayar, para efectos históricos, que en 1909 Geoffrey Ingram Taylor realizó un experimento
minucioso con el que comprobó que la luz más tenue (de la que se desprenden con seguridad
fotones uno a uno), bajo condiciones apropiadas, produce el fenómeno de interferencia. El
resultado de ese experimento, conocido por Dirac, le lle ó a e la a ue ada fotó
i te fie e sola e te o sigo is o . El de Ta lo es, pues, el p i e e pe i e to he ho o
fotones individuales. Hoy en día la manipulación de fotones individuales y el entrelazamiento
de fotones es un hecho cotidiano. Se ha logrado así lo que se denomina el borrado cuántico, al
cual dedicaremos una sección.
El experimento con ele t o es i di iduales ue i te fie e sola e te o sigo is o , pa a
utilizar el lenguaje de Dirac, tuvo que esperar hasta comienzos de los 70, cuando un grupo
italiano en Bolonia produjo biprismas para la interferometría de electrones; una forma más
sofisticada para el mismo experimento la lograron en los Laboratorios Hitachi en 1989. Estos
resultados sirvieron de referencia a Physics Word para su edición del 1º de septiembre de
2002, sin que se dieran los créditos adecuados al grupo de Bolonia. El editor de Physics World
publicó de nuevo el artículo sobre el experimento seleccionado, con las aclaraciones
pertinentes.
Grupo de Bolonia que realizó el primer experimento de doble rendija con electrones individuales.
Un detallado inventario sobre la historia del más bello experimento, incluyendo el borrado
cuántico y la escogencia retardada propuesta por Wheeler en los 70 puede verse en:
https://en.wikipedia.org/wiki/Double-slit_experiment#cite_note-Hillmer2007-41
4.2.1 La descripción de Feynman
Aunque la descripción del experimento pensado, hecho realidad justo cuando Feynman decía
que no podría realizarse, ha sido espectacularmente materializada, primero por Jönsen y
luego por el Grupo de Bolonia, el texto de Feynman sigue siendo exquisitamente agradable y
didácticamente extraordinario. La seguiremos en la primera parte del capítulo.
Nos di e Fe a : La «mecánica cuántica» es la descripción del comportamiento de la
materia en todos sus detalles y, en particular, de lo que sucede a escala atómica. Las cosas a
una escala muy pequeña no se comportan como nada de lo que ustedes tengan experiencia
directa. No se comportan como ondas, no se comportan como partículas, no se comportan
como nubes, o como bolas de billar, o como pesos colgados de muelles, o como nada que
ustedes hayan visto algu a ez . Después de examinar lo que se pensaba sobre la luz,
partículas en el siglo XVII, ondas durante los siglos XVIII y XIX, nuevamente partículas desde
1905; de recordarnos que el electrón, partícula descubierta por Thomson padre, con
propiedades ondulatorias en ocasiones, como lo comprobó, entre otros, Thomson hijo,
ag ega: Ha , o o sta te, u a feliz i u sta ia: los electrones se comportan exactamente
igual que la luz. (Subrayado por el autor.) El comportamiento cuántico de los objetos atómicos
(electrones, protones, neutrones, fotones y demás) es el mismo para todos; todos son
«partículas-ondas», o como quiera que ustedes prefieran llamarlos. (A mis estudiantes les
suelo decir: partondas u ondículas, como lo prefieran. JG.) Así que lo que aprendamos sobre
las propiedades de los electrones (que utilizaremos como ejemplo) se aplicará también a
todas las «partículas», inclu e do los foto es e la luz .
Los experimentos que propone a continuación establecen claramente la diferencia entre el
comportamiento de corpúsculos y de ondas en la fenomenología clásica. Veámoslo, en forma
resumida, ligeramente modificada.
He os es ogido e a i a u fe ó e o ue es i posi le, a soluta e te i posi le, de
explicar en términos clásicos y tiene en sí el corazón de la física cuántica. En realidad, contiene
el ú i o iste io. Para mayores detalles, se aconseja ir a la fuente original. Véase también un
reciente texto que contiene una descripción ampliada del famoso experimento (Gao, 2013).
1. Un experimento con balines o municiones
Figura 4.1. Reproducción del experimento con balas propuesto por Feynman.
Figura 4.2. Esquematización del experimento con balas propuesto por Feynman.
Para facilitar el relato de este experimento pensado, es preferible hacer referencia a los
perdigones que utilizaban las escopetas de cacería antiguas, más bien que a las balas de una
ametralladora. La dispersión de esas municiones, balines de plomo de forma esférica, era
enorme. Imaginemos, pues, una lluvia continua de balines, supuestamente indestructibles
para poder comparar posteriormente con la lluvia de electrones que salen de un metal al
calentarlo. Al frente, como muestra la figura 4.1, hay una pared o pantalla de contención.
Conviene imaginar que el cañón de la escopeta no está firme y los proyectiles salen en
cualquier dirección hacia adelante. En frente hay un par de agujeros, los únicos espacios por
donde pueden atravesar las balas. La forma de los agujeros, por extraño que parezca, no
importa mucho, pero sí su tamaño. Esto es particularmente cierto en el caso del cañón de
electrones del que hablaremos más tarde (figura 4.3). En la primera parte del experimento con
balas se cubre el agujero inferior; la distribución estadística de las municiones es más o menos
como la que se muestra en la parte media superior de la figura 4; si, por el contrario, se
impide el paso por el agujero superior y se deja abierto el inferior, lo que se observa es la
distribución de la parte inferior, reflejo especular fiel de la anterior.
Vamos a repetir el experimento con los dos agujeros abiertos. El resultado depende de la
separación entre los agujeros. Supongamos que esta separación es pequeña, suficiente como
para que los dos máximos de cada agujero por separado se puedan superponer dando lugar a
un máximo en el centro; si la separación fuera muy grande, los dos máximos al superponerse
darían lugar a dos máximos separados. Cito a Feynman, para las condiciones consideradas en
su o fe e ia: Las probabilidades simplemente se suman. El efecto cuando ambos agujeros
están abiertos es la suma de los efectos con cada agujero abierto por separado. Llamaremos a
este resultado una observación de «ausencia de interferencia», por una razón que verán más
adelante. Hasta aquí lo relativo a las balas. Ellas llegan en porciones, y su probabilidad de
llegada o uest a i te fe e ia . La figura 4.5 muestra más claramente lo que ocurre con
baliness o perdigones.
2. Un experimento con ondas
Figura 4.3. Esquema del experimento con ondas en un cubilete de agua. (Reproducción del texto
citado.)
Imaginar u observar lo que ocurre con ondas es muy simple, si se recurre como ejemplo a
ondas en un cubilete de agua. El recipiente puede ser, para efectos prácticos, un molde de
base rectangular con profundidad suavizada en los bordes, para evitar reflexiones indeseables.
Figura 4.4. Ondas de agua de forma circular, producidas en fase.
Como «fuente de ondas» puede usarse una barra plana que se hace oscilar en forma armónica
verticalmente por medio de un motor, produciendo ondas planas; o para comparar más
fácilmente con el experimento de las balas, una punta que produce ondas circulares a cierta
f e ue ia. A la de e ha de la fue te te e os de ue o u o stá ulo o dos aguje os , ás
bien ranuras verticales. Cada ranura actúa como una fuente de ondas de agua circulares. Una
forma más limpia de realizar el experimento es utilizar dos fuentes de ondas circulares,
producidas por ejemplo por unas puntas vibrantes accionadas por un motor de tal manera
que vibren en fase (figuras 4.3 y 4.4).
Esta vez, más que la distribución de probabilidad, nos interesa la intensidad de la onda;
veremos que están relacionadas; la intensidad de una onda es proporcional al cuadrado de la
amplitud, o perturbación máxima, para el caso la altura de la columna de agua a partir del
nivel de referencia o superficie horizontal.
Sin entrar en detalles, en todos los casos el resultado es como el que se muestra en la figura
3.7, si el ancho de la ranura es comparable a la longitud de onda de la onda generada, De
nuevo, si una de los ranuras se obstruye, la intensidad de la onda resultante se va
desvaneciendo hacia los lados. Pero si las dos ranuras permiten el paso de las ondas
simultáneamente, se presenta un fenómeno característico de las ondas: ¡habrá interferencias,
constructivas y destructivas!
Se ha supuesto que la distancia entre las ranuras, o entre las fuentes primarias si se utilizan
dos fuentes puntuales, es comparable a la longitud de onda. La intensidad resultante se puede
escribir como
I12 = I1 + I2 + 2 (I1I2)1/2 cos δ.
El último término se suele llamar término de interferencia, y δ es la diferencia de fase con que
llegan las dos señales desde los dos agujeros, dependiente de la diferencia en recorrido: en el
centro, la diferencia es nula, de ahí el máximo de interferencia que se observa. Observe que
Cos δ toma todos los valores posibles entre -1 y +1, como corresponde a las funciones seno y
coseno.
El comportamiento de la luz no estuvo claro hasta cuando Thomas Young demostró con su
célebre experimento en 1801 (otro experimento con 2 ranuras, incluido en la lista de los 10 ya
mencionada) que se producía interferencia. Desde los griegos predominó la imagen
corpuscular, imagen que la autoridad de Newton logró imponer durante el siglo XVIII. La
escuela francesa no se plegó del todo a las explicaciones de Newton y su imagen corpuscular.
Esta imagen habría de resurgir, pero en forma completamente diferente.
3. Un experimento con electrones
Figura 4.6. Ilustración de lo que ocurriría con los electrones al detectarlos en la pared,
si no se sabe por cuál de los agujeros atraviesa cada uno de ellos.
Figura 4.7. Observando (espiando) el paso de los electrones. (Reproducción del texto citado.)
Los electrones (también los átomos) son muy sensibles y alteran sus trayectorias cuando se
observan, lo que no ocurre con las balas. ¿Qué ocurre si se disminuye la intensidad de nuestra
fuente de luz todavía más, gradualmente? Puede suceder que algunos de los electrones o
átomos no sean observados al cruzar: nos hemos quedado sin saber por dónde pasaron,
solamente supimos, por el detector en la pantalla, que llegaron a ésta. Para las partículas que
no pudieron ser observadas, el resultado es el mismo que para el de la figura 8: exhiben un
patrón de interferencia, como las ondas.
Los argumentos de Feynman nos llevan a descartar teorías extrañas sobre el comportamiento
de los electrones cuando los observamos. No hay electrones que se dividan; tampoco los hay
que puedan pasar a través de am os aguje os. Cua do los o se a os, los ele t o es
atraviesan (los agujeros) simplemente como esperaríamos que los atravesasen. Ya estén los
agujeros abiertos o cerrados, aquellos electrones que vemos pasar a través del agujero 1 se
distribuyen de la misma forma independientemente de que el agujero 2 esté abierto o
cerrado. La o se a ió ha a iado el o po ta ie to de los ele t o es.
¿No hay alguna forma de que podamos ver los electrones sin perturbarlos? Aprendimos en
un capítulo anterior que el momento transportado por un «fotón» es inversamente
proporcional a su longitud de onda (p = h/). Ciertamente el empujón dado al electrón cuando
el fotón es dispersado hacia nuestros ojos depende del momento que transporta el fotón.
¡Ajá! Si sólo queríamos perturbar ligeramente a los electrones no deberíamos haber
disminuido la intensidad de la luz, sino que deberíamos haber disminuido su frecuencia (que
es lo mismo que incrementar su longitud de onda). Utilicemos luz de un color más rojo.
Podríamos entonces utilizar luz infrarroja, o radio ondas (como el radar), y «ver» dónde fue el
electrón con ayuda de algún equipo que pueda «ver» luz de estas longitudes de onda más
largas. Si utilizamos luz «más suave» quizá podamos evitar el perturbar tanto a los electrones.
Intentemos el experimento con ondas más largas. Seguiremos repitiendo nuestro
experimento cada vez con luz de una mayor longitud de onda. Al principio, parece que nada
cambia. Los resultados son los mismos. Luego sucede algo terrible. Recordarán ustedes que
cuando discutimos el microscopio señalamos que, debido a la naturaleza ondulatoria de la luz,
hay una limitación a lo próximos que dos puntos pueden estar y seguir viéndose como dos
puntos separados. Esta distancia es del orden de la longitud de onda de la luz. Por ello, ahora,
al hacer la longitud de onda más larga que la distancia entre nuestros agujeros, vemos un gran
destello borroso cuando la luz es dispersada por los electrones. ¡Ya no podemos decir por qué
agujero pasó el electrón! ¡Simplemente sabemos que fue a alguna parte! Y es solamente con
luz de este color cuando encontramos que los empujones dados a los electrones son
suficientemente pequeños para que P'12 empiece a parecerse a P12, que empezamos a
obtener algún efecto de interferencia. Y es sólo con longitudes de onda mucho más largas que
la separación de los dos agujeros (cuando no tenemos ninguna posibilidad de decir dónde fue
el electrón) cuando la perturbación debida a la luz se hace suficientemente pequeña para que
obtengamos de nuevo la curva P12 mostrada en la figura 4.5.
4.2.2 Experimento real: el más bello de la física
Para la fecha en que Feynman elaboró su conferencia, este experimento ya había sido
realizado por Jönsson, aunque en los países de habla inglesa seguía siendo un experimento
pensado; lo más interesante es que, a pesar ello, nadie tenía duda alguna sobre el resultado.
Pero el experimento de Jönsson tiene una limitante: no se puede controlar el haz de
electrones ni hacerlo suficientemente débil para que llegue solo un electrón cada vez.
El é ito o espo dió al g upo de Bolo ia di igido po Pozzi. …
Un experimento como éste, con las adecuaciones apropiadas, se ha realizado múltiples veces
desde entonces, y tal vez el más nítido durante el siglo pasado fue el de los laboratorios
Hitachi (puede verse en http://www.hqrd.hitachi.co.jp/em/doubleslit-f1.cfm). El resultado es
siempre el mismo: los electrones, cuando pasan simultáneamente por los dos agujeros,
¡muestran señales inequívocas de interferencia! Recientemente se ha hecho, no ya acudiendo
al biprisma como en los casos anteriores, sino con agujeros nanométricos.
Figura 4.9. Un experimento pensado, con fotones individuales. Se concluye que cada fotón ha pasado
por las 2 ranuras simultáneamente, interfiriendo consigo mismo.
Ilustramos ahora un experimento real hecho con fotones, cuando se puede controlar la
intensidad del láser a voluntad hasta el punto de enviar un fotón cada vez.
Figura 4.10. Un experimento real, con fotones individuales ue o ha sido espiados e su t a e to ia.
Con las técnicas que hoy tenemos, es posible examinar por dónde pasa cada fotón, o cada
electrón en el caso precedente. Al hacerlo, el patrón de interferencia desaparece.
Examinemos la situación en un caso más sencillo.
Figura 4.11. Simulación por computador de un experimento realizado con fotones individuales. Aunque
por las condiciones del experimento es imposible que esos fotones hayan interferido entre ellos, se
siguen produciendo franjas de interferencia. La única explicación posible es que un fotón puede pasar
de manera simultánea a través de ambas franjas e interferir consigo mismo. (Reproducido de Walborn
et al., 2004.)
Si espiamos el paso de los fotones o de los electrones, de alguna manera, incluso sin
perturbarlos, como se ilustra en la siguiente sección, el resultado es como el de proyectiles
clásicos. La conclusión es que cada fotón ha interferido consigo mismo.
4.4 Borrado cuántico
Pero no solo la observación directa cambia el comportamiento. Basta con tener la posibilidad
de decidir por dónde pasaron los electrones, o los átomos, o los fotones, aunque no les
sigamos la pista, para que cambie el comportamiento. En efecto, es importante aclarar algo
que no tuvo en cuenta Feynman pero que ha sido resultado de recientes avances en la
formulación del principio de incertidumbre de Heisenberg. Nos referimos a las denominadas
medidas libres de interacción. La más sencilla da lugar a lo que se llama borrador cuántico. El
experimento se ilustra en la figura 3.11; como por falta de espacio no podemos explicar en
detalle el procedimiento, remitimos a la fuente original. (Walborn et al., 2000.)(Una versión
didáctica se encuentra en http://grad.physics.sunysb.edu/~amarch/)
Figura 4.12. Campo electromagnético que da lugar a ondas planas, polarizadas linealmente. La
polarización está en la dirección del campo eléctrico, plano vertical para la figura de la izquierda (campo
magnético en el plano horizontal), para una onda que avanza hacia la derecha (dirección X). A la derecha
se ilustra la polarización circular, dextrógira(a derecha) o levógira (a izquierda) , según el caso, giro
positivo o negativo.
Para el caso que nos ocupa, los fotones se han preparado de manera especial, y forman lo que
se denomina parejas de fotones entrelazados, o con polarizaciones correlacionadas. Si uno
está polarizado en dirección vertical, el otro lo estará en dirección horizontal y viceversa; si el
uno tiene polarización circular a derecha, el otro la tendrá a izquierda. Los dos forman un solo
ente, no pueden considerarse como dos objetos separados o separables, por lejanos que se
encuentren. Ellos forman lo que se conoce con el nombre de estado de Bell. Volveremos a
este asunto más adelante. La preparación de fotones entrelazados se hace en lo que se
denomina un cristal no lineal, de borato de beta-bario (BBO). En resumen, un fotón de un
láser de bombeo de ión argón (de 351.1 nm de longitud de onda) se convierte en 2 fotones
idé ti os del do le de lo gitud de o da λ de . , de la itad de f e ue ia e e gía
cada uno; los dos fotones producidos en el BBO son emitidos en las direcciones indicadas en la
figura 11, de tal manera que pasen luego a través de detectores D 1 y D2, según el caso, y se
llevan a un detector común denominado contador de coincidencias. Para diferenciar
claramente las dos trayectorias, a los fotones que siguen la que los obliga a pasar por el
sistema de 2 ranuras (detector D1) les denominan s en la figura, mientras que se denominan
fotones p a los que siguen la otra trayectoria (detector D 2).
En un experimento previo que no se ilustra en las figuras, llamémoslo E 1, se han hecho pasar
fotones s por las 2 ranuras, con el típico resultado de las franjas de interferencia. En la figura
12 se ilustran otros 2 experimentos sucesivos E2 y E3, similares, que arrojan resultados
completamente diferentes. En los dos casos, a y b (E 2 y E3), justo enfrente de las ranuras,
antepuesta a ellas, se colocan placas de un cuarto de onda (QWP por sus siglas en inglés) cuyo
único propósito es volver circular una polarización horizontal o vertical. Marquemos QWP1 y
QWP2, respectivamente, a la placa que se antepone enfrente de la ranura 1 o 2, según el caso.
No hace falta seguir el proceso completo, pero si desea más detalles puede ir a la fuente
original; baste con decirle que si el fotón que sigue el camino del detector D2 está polarizado
horizontalmente, el otro tendrá polarización vertical antes de pasar por la placa; si lo hace por
la QWP1, en cuyo caso pasará por la ranura 1, lo hace con polarización circular positiva, es
decir, a derecha; si lo hace por la QWP2 (pasará por la ranura 2), adquiere polarización circular
negativa, es decir, levógira; lo contrario ocurre con el fotón entrelazado a otro que sigue el
camino del detector D2 con polarización vertical. Con el arreglo de la figura 12a, sin haber
hecho intento alguno por determinar la polarización en el detector D 2, lo que podemos
asegurar es que estamos en condiciones de averiguar por qué ranura pasó el fotón s. Pues
bien, sorpréndase el lector, esa sola posibilidad fue suficiente para destruir por completo el
patrón de interferencia.
En el experimento final se borra esta posibilidad, y con ese solo hecho se recupera el patrón de
interferencia. Para ello se coloca enfrente del detector D 2 un polarizador que permite el paso
de fotones con polarización horizontal o vertical (un polarizador inclinado). Ya no podemos
saber por cuál de las dos ranuras pasará el fotón s. Obsérvese que del experimento 2 al 3 no se
ha hecho ningún cambio en el entorno de los fotones s.
4.5 Comportamiento Dual de la Materia y Principio de Incertidumbre
Recordemos ahora lo que ya sabemos acerca de la luz: aunque nos la imaginábamos como una
onda, en realidad está compuesta de corpúsculos o granos de luz, cuantos de luz denominados
fotones. Hoy en día es posible controlar el flujo de fotones, para manipular fotones
individuales. En el experimento de detección de electrones (o de átomos) mediante luz,
podríamos utilizar fotones individuales: en tal caso, habrá circunstancias afortunadas en que
el fotón y el electrón (o átomo) se crucen: habrá, pues, dispersión de un fotón por una
partícula. Si eso ocurre, la partícula habrá sido «observada»: su comportamiento al cruzar la
doble ranura es como de partícula: pasará solamente por una de las dos. Caso contrario, su
comportamiento es como de onda: tendremos que aceptar que pasó simultáneamente por las
dos. En la pantalla observaríamos la superposición de dos patrones, uno de suma de
probabilidades como ocurrió con los balines, otro de suma de intensidades, como ocurrió con
las ondas de agua.
El experimento con electrones o con átomos se puede realizar hoy con sumo detalle, enviando
un electrón o un átomo cada vez, con la periodicidad que se desee: digamos que uno cada
cierto número de segundos, o de femtosegundos, no importa, de tal suerte que con la
espectroscopía ultrarrápida de que se dispone en la actualidad el anterior ya haya sido
detectado cuando el siguiente se envíe; es decir, podemos estar seguros de que no hay una
interferencia directa entre la trayectoria del uno y el siguiente. Lo mismo puede hacerse, en
principio, en un experimento con luz. Los resultados serán esencialmente los mismos. Esto
quiere decir que si se presenta una interferencia, es la inteferencia del electrón (o del fotón, o
del átomo) consigo mismo.
4.6. Función de onda y principio de complementariedad
Una de las formulaciones de la mecánica cuántica es describir los objetos cuánticos mediante
la denominada función de onda. Cuando se hable de la descripción del electrón mediante una
función de onda apropiada, se concluirá que la función de onda lleva la siguiente información:
nos da la probabilidad de que el electrón se deposite en uno u otro lugar sobre la pantalla; la
distribución de probabilidad, intensidad en el lenguaje de ondas, es lo que se ha representado
en las figuras anteriores. Se volverá a la discusión del significado de esta afirmación más
adelante.
La luz en la región visible o fuera de ella se suele representar mediante una onda, sobre todo
en cierto tipo de experimentos: los de difracción, en particular. La difracción de rayos X abrió
un campo extraordinariamente rico al estudio de los sólidos cristalinos. El experimento es muy
fácil de entender cualitativamente: basta considerar planos cristalinos adyacentes a los que
llega una onda plana de rayos X, como ilustra la figura 4.13. Hay interferencia constructiva, en
este aso u a efle ió o dispe sió ohe e te, ua do el á gulo Ø que forma el rayo
incidente con el plano cristalino es tal que para una separación d entre planos cristalinos
adyacentes se cumple la relación
2d sen Ø = nλ.
El experimento puede ser realizado con igual éxito difractando electrones. Los espectros que
se obtienen son muy similares. El resultado comparativo de los dos experimentos se muestra
en la figura 3.7.
En síntesis, esto es lo que quiere decir el denominado Principio de Complementariedad y lo
que se deriva de los experimentos que acabamos de discutir:
1. Los componentes elementales del Universo, partículas elementales y partículas
mediadoras, exhiben características de corpúsculo y de onda.
2. Los agregados de partículas, sean estos quarks, núcleos, átomos o moléculas,
presentan comportamiento ondulatorio y corpuscular.
3. Esta dualidad onda-corpúsculo no se puede poner de manifiesto en un mismo
experimento: o preparamos mediciones mediante aparatos para observar o poner en
evidencia una naturaleza o la otra. Ambos caracteres son complementarios.
4. Es imposible saber cómo se está comportando un sistema cuántico a menos que lo
observemos; pero el proceso de observación lo altera en una forma que no podemos
anticipar.
5. Mientras no lo observemos, un sistema evoluciona normalmente, en una forma
prevista por un ente matemático que nos permite hacer predicciones.
Sobre el ente matemático que nos permite hacer predicciones volveremos en el siguiente
capítulo.
Hay algo maravilloso en todo este proceso experimental que hemos estado analizando a lo
largo de este capítulo: la última palabra la tiene el experimento. La mejor ciencia que
podemos construir es aquella que nos permite hacer predicciones en concordancia con los
experimentos. Lo demás es especulación. Pero hay una confianza plena en los resultados
cuando los fundamentos son firmes. El caso más destacado en la historia de la ciencia
reciente, la del siglo XX, lo constituye precisamente el experimento de interferencia de
electrones a través de dos ranuras. Hacerlo en el laboratorio tomó más de tres décadas, pero
los resultados eran completamente previsibles.
El experimento de difracción de rayos X ocurre en un arreglo cristalino en donde la separación
entre los átomos es una fracción de nanómetro. Cuando se hicieron los experimentos de
difracción de electrones primero y luego de átomos, las condiciones fueron las mismas. El
experimento de las dos rendijas es otra cosa: las condiciones experimentales son más
exigentes, pero actualmente se pueden satisfacer en un buen laboratorio.
Como hemos insistido desde el comienzo del capítulo, los resultados del experimento de las
dos rendijas es conocido prácticamente por todos los que se han acercado al más elemental
curso de física moderna, así no lo hayan tomado. Con razón fue escogido como el experimento
más bello en la historia de la física, una ciencia experimental por excelencia, teórico-
experimental para ser precisos, la prueba está en que nadie dudaba del resultado cuando el
experimento pudiera materializarse. La primera versión de ese experimento lo realizó, como
dijimos, Claus Jönsson en la Universidad de Tubinga, Alemania, en 1961, cuando ya el
experimento equivalente de difracción había sido inmortalizado con el premio Nobel otorgado
a Thomson y Davisson en 1937. Publicado, al igual que los 5 trabajos de Einstein que lo
inmortalizaron en aquel memorable 1905, en Zeitschrift für Physik, a diferencia de los de este
último, el reporte sobre el experimento pasó desapercibido para la comunidad científica
universal por más de una década. Posteriormente fue publicado en una revista de carácter
pedagógico.
Figura 4.15. Micrografía de tunelamiento y barrido, lograda con el STM, mostrando las ondas
electrónicas que aparecen cuando 48 átomos de Fe se sitúan formando un círculo sobre una superficie
de cobre. En realidad, lo que se está midiendo con el experimento es la amplitud de probabilidad
(siguiente capítulo). Para más detalles, véase el libro ya referido sobre Nanotecnociencia. (Figura
tomada de la página de IBM; se muestra y explica en muchos textos de física general.)
El tunelamiento es uno de los efectos cuánticos de mayor aplicación en las tecnologías que
involucran semiconductores. Es consecuencia del principio de incertidumbre, el cual suele
enunciarse haciendo referencia a lo que en mecánica clásica se denominan dos variables
conjugadas. Son conjugadas la posición y el momentum lineal, el ángulo y el momentum
angular, la energía y el tiempo de que se dispone para medirla, y muchas otras variables que
no tienen análogo clásico, como las componentes de espín. El principio mismo es consecuencia
de los postulados básicos de la mecánica cuántica, los cuales hacen referencia a observables y
operadores. En lenguaje elemental, un observable es una cantidad física que se puede medir
como resultado de la observación. Dos variables conjugadas no se pueden determinar
simultáneamente con absoluta precisión. Ello es consecuencia de que sus operadores no son
conmutables, no es lo mismo aplicar uno y después el segundo que hacerlo en orden inverso.
Más que enunciar el principio, es mejor ilustrar sus consecuencias y eso es lo que hacemos en
la figura 4.16.
Aceptando que un objeto cuántico, generalmente una partícula, por ejemplo un electrón, se
puede describir mediante una función de onda, la figura representa la amplitud de una onda
(partícula) que incide desde la izquierda sobre una barrera de potencial, un obstáculo para que
esa onda o partícula continúe hacia la derecha. Lo que se observa clásicamente es que la
partícula o el objeto rebota contra el obstáculo, para el caso ilustrado mediante una pared. En
la práctica la pared puede ser el espacio vacío entre dos metales o entre dos semiconductores
o entre un semiconductor y un metal. El electrón forma parte del trozo de materia a la
derecha, pero hablando en términos probabilísticos puede entrar a formar parte del trozo de
materia a la izquierda. La línea discontinua representa la energía que tiene la partícula. La
altura de la barrera representa la energía necesaria para que el objeto dé el salto, pasando de
uno a otro material. El efecto se da también en los núcleos atómicos: un nucleón (el neutrón,
por ejemplo), puede abandonar el núcleo, espacio en el que usualmente está confinado, por
efecto túnel. La amplitud de la onda a la derecha, menor que la de la izquierda, representa la
probabilidad de encontrar la partícula del lado derecho. El espacio entre las dos regiones está
representado probabilísticamente por una intensidad decreciente de izquierda a derecha. Si la
pared o el obstáculo es muy extenso, es en la práctica imposible que se dé el paso de una a
otra región. Por el contrario, una pared muy delgada facilitará que se dé el tunelamiento. En el
caso de los semiconductores, usualmente esa región suele ser de unas cuantas decenas o
centenas de nanómetros.
El enunciado del principio de incertidumbre suele hacerse con referencia a la posición y el
momentum de una partícula. Se dice entonces que ninguna de ellas, en principio, puede
determinarse con absoluta precisión. El producto entre la incerteza Δs en la posición y la
incertidumbre Δp en la cantidad de movimiento es mayor o igual a h-barra:
ΔpΔs ħ.
En rigor matemático, tanto el momentum p como la posición r son cantidades vectoriales, y las
cantidades anteriores se refieren a una de las componentes. Más rigurosamente, la relación de
incertidumbre para posición y momentum se escribe como xpx – pxx = iħ, y de manera similar
para las otras dos componentes. La relación se generaliza a cualquier pareja de variables
conjugadas.
Feynman, R., Leighton, R., and Sands, M. (1963). Lectures on physics. (Addison-Wesley, New
York.) Nota: Este es el único texto que aparece incluido dentro de los 25 libros más editados en
lengua inglesa. Por extraño que parezca, fue en realidad una recopilación de las conferencias
que Feynman hiciera a los estudiantes de todas las carreras del primer curso de física,
recopilación y redacción hecha por Leighton y Sands. La serie ha merecido una página webb:
http://www.feynmanlectures.info/)
Paquete de ondas
Es más fácil entender la aplicación del principio, examinando lo que pasa con luz que atraviesa
una sola ranura de ancho finito. Analizado el caso a partir del modelo ondulatorio de la luz, se
ve fácilmente que el haz se ensancha, dando lugar a un patrón de difracción. El experimento
podría realizarse con luz suficientemente tenue como para que se tuviera solo un fotón cada
vez. Los fotones individuales llegan aleatoriamente a distintos puntos en la pantalla, pero el
patrón de interferencia surge a medida que más y más fotones arriban a la pantalla.
Para el presente caso, el principio de incertidumbre tiene que ver con la determinación del
sitio por donde pasan los fotones. Sabemos que los que lleguen a la pantalla habrán pasado
previamente por la ranura. Asumamos que el ancho de la ranura es Δ . Esa será la imprecisión
en la determinación de la posición. Si la ranura se hace más pequeña, de tal modo que se sepa
con mayor precisión por dónde han pasado los fotones, el patrón de difracción se hace más
ancho o extenso, consecuencia de una mayor imprecisión en su cantidad de movimiento.
El análisis que hizo Heisenberg de la situación en el caso de los electrones, le llevó a encontrar
la relación que debe existir entre el producto de la incertidumbre con que se pueden
determinar las dos cantidades:
Δ Δp ≥ħ/2.
No obstante, el argumento de Heisenberg pasa por la perturbación directa de los electrones, lo
que no ha ocurrido en el caso del experimento hecho con los fotones para una ranura,
experimento que por lo discutido en el capítulo anterior es equivalente al de los electrones. Se
puede así interpretar la relación de Heisenberg como una expresión con una validez más
general, como lo destacaremos a continuación. Empecemos por recordar que el patrón de
difracción se pierde solo tener la posibilidad de saber por dónde han pasado los fotones en el
experimento del borrado cuántico.
Rigurosamente hablando, el principio de Heisenberg se refiere a la imposibilidad de conocer
con precisión absoluta simultáneamente dos cantidades que en la mecánica, llamémosla
Hamiltoniana para mayor generalidad, se denominan variables conjugadas. Una pareja de ese
tipo de variables lo constituyen una componente cualquiera de las coordenadas y su
correspondiente cantidad de movimiento. Ilustrémoslo para el caso más sencillo considerado
por Bohr, el átomo de hidrógeno en su nivel más bajo. Ello quiere decir que el electrón se
encuentra a una distancia del protón dada precisamente por el denominado radio de Bohr. La
imagen de Bohr del átomo, como bien sabemos, es incorrecta. En términos más rigurosos,
como podemos deducirlo de la ecuación de Schrödinger, lo que ese radio quiere decir es que el
electrón se encuentra con una alta probabilidad a esa distancia, y la probabilidad disminuye
drásticamente al acercarse al centro o alejarse de él. Para el primer caso, es evidente que el
electrón nunca podrá caer al núcleo, como equivocadamente se concluye de la teoría
electromagnética clásica. Un análisis cuantitativo utilizando el principio de Heisenberg nos dirá
que la mínima distancia a que puede acercarse el electrón al núcleo es precisamente el radio
de Bohr.
Otra pareja de variables canónicamente conjugadas que ocurre a menudo son la energía y el
tiempo. La imposibilidad de conocer simultáneamente esas dos variables significa que un
objeto cuántico puede ganar energía o perder parte de ella en cantidad ΔE durante un
intervalo de tiempo Δt que satisfaga la relación de Heisenberg,
ΔEΔt ≥ħ/2.
Eso da lugar, como veremos, a varios fenómenos que no tienen análogo clásico. Uno de ellos
es el efecto túnel, al que ya nos hemos referido. Otro es la creación de partículas virtuales, lo
que discutiremos en la segunda parte.
El principio como tal es demostrable rigurosamente, a partir de las características de los
operadores que se refieren a esas dos cantidades observables o variables conjugadas. Pues
bien, resulta que esos dos operadores son lo que en la mecánica cuántica se denominan no
conmutables. Ello quiere decir que no es lo mismo determinar, por ejemplo, la posición y luego
la cantidad de movimiento, que hacerlo a la inversa.
Una forma más radical de decirlo es reconociendo que un objeto cuántico no tiene a la vez o
simultáneamente los dos atributos, posición y velocidad por ejemplo. Para este caso, se debe
excluir la posibilidad de asignarle trayectoria a un objeto cuántico. La imagen de corpúsculo
que a menudo intentamos asignarle a un electrón o a un fotón, por ejemplo, es inadecuada.
También lo será la imagen de onda. Eso nos lleva a lo que se denomina principio de
complementariedad, debido a Bohr, del cual nos ocupamos en la sección anterior.
5.6 Principio de correspondencia
También debido a Bohr, este principio establece que la física clásica debe aparecer como un
caso límite (asintótico) de la nueva física. A pesar de lo obvio, el desarrollo de este principio
tiene una larga historia que se inicia con los postulados de Bohr para construir su modelo semi-
clásico del átomo, aplicable solo al átomo de hidrógeno. Posteriormente habría de ampliarlo, a
raíz de una conferencia realizada en Como, Italia.
En palabras de Condon y Shortley en su gran clásico The Theory of Atomic Spectra: Bohr
ofreció el principio de correspondencia solamente como su perspectiva intuitiva de que en esa
dirección debería buscarse la nueva teoría cuántica; y fue en esa dirección que Heisenberg la
e o t ó. Por lo que concierne a la física atómica en particular, el principio de
correspondencia, con ligeras modificaciones, fue la base para construir la teoría de la radiación
por átomos y moléculas.
(Ampliaré posteriormente este texto. Se recomienda leer el artículo de Sánchez Ortiz de
Urbina puesto en el drive, aunque es de advertir que tiene más un carácter histórico-
filosófico.)
5.7 Principio de valores propios
Su enunciado se obtiene directamente de la formulación de Heisenberg de la mecánica
cuántica. La ecuación de Heisenberg es una ecuación de valores propios, siendo estos los
únicos que pueden obtenerse de una medición clásica. Esos valores son discretos, siendo el
continuum un límite clásico, en concordancia con el principio de correspondencia; en el átomo
de hidrógeno, por ejemplo, el cambio en energía al pasar de un nivel a otro es cada vez menor
a medida que el denominado número cuántico principal (n, correspondiente a los orbitales de
Bohr) aumenta.
Es oportuno señalar aquí que el número asociado al valor del momentum angular ya no es n,
como supuso Bohr, sino l, denominado momentum angular orbital; a este se agrega otro, que
es la componente del momentum angular en la dirección z, ml (correspondiente al eje
perpendicular al supuesto plano de la órbita; recuérdese que ya no podrá hablarse de órbitas u
orbitales). Surgen así 3 números cuánticos discretos para los niveles y subniveles (u orbitales)
de los átomos. A estos debe agregarse el asociado al momentum angular intrínseco o de espín,
ms para referirse a los dos posibles valores que puede tomar (paralelo o antiparalelo a la
dirección z, observable en presencia de un campo magnético ). Los otros 3 están relacionados
de la siguiente manera: l solo puede tomar valores enteros positivos, incluido el 0, menores
que n (para n = 1, l = 0; para n = 2, l = 0 o 1, etc.); ml puede tomar valores entre - l y l .
En un haz de luz siempre habrá un número entero de fotones, nunca un número fraccionario.
En el límite clásico, por supuesto, la energía de la onda electromagnética se vuelve continua.
5.8 Principio de exclusión
Este principio, debido a Pauli, es válido para partículas de espín semi-entero, como lo son los
electrones. Las partículas que tienen espín semi-entero (los quarks lo son, y los protones y
neutrones, al estar constituidos por 3 quarks, también) se denominan fermiones. Para estos,
los números cuánticos que determinan su estado no pueden todos coincidir, al menos uno
debe ser diferente.
Teniendo en cuenta el principio de exclusión y los posibles valores de los números cuánticos
para los electrones ligados a un átomo que mencionamos en el numeral anterior, resulta que
en el primer nivel (con el mínimo valor de energía, n = 1) se pueden acomodar máximo 2
electrones, en el segundo (n = 2) 8 y en el tercero 14. Estos son los orbitales de que se habla en
química.
5.9 Otros principios cuánticos: el principio de superposición
La teoría cuántica es una teoría probabilística. No importa qué formulación se utilice, lo que la
teoría puede hacer es predecir la probabilidad de un resultado. Los posibles resultados están
determinados por una ecuación diferencial que en principio nos dice cómo evolucionará el
estado de un sistema físico. Al resolver la ecuación obtenemos lo que nos permite hallar la
amplitud de probabilidad asociada con cada uno de los estados posibles, representados ellos
por los valores propios asociados a esos estados. Dado un arreglo experimental para observar
determinada propiedad que puede tomar, por ejemplo, dos diversos valores con la misma
probabilidad de 50%, cuál de ellas se observe es completamente aleatorio, asumiendo que el
sistema físico en observación se ha preparado de la misma manera antes de hacer la
observación. El Principio de Superposición, al que dedica Dirac su primer capítulo (nosotros
haremos otro tanto) es la mejor herramienta.
La teoría contiene 4 postulados básicos que nos dicen cómo representar un sistema físico,
cómo dar cuenta de las observaciones, cómo llevar a cabo las medidas y cómo evoluciona el
sistema mientras no se mida u observe. Sin pretender desarrollarlo, nos referiremos
brevemente a ese formalismo que le da rigor matemático, independiente de las distintas
interpretaciones.
5.9 Un formalismo matemático
6 Acciones fantasmagóricas a distancia
6.1 Interpretación probabilística de la función de onda
Como se ha afirmado a lo largo de estas notas y se estableció como principio esencial de la
teoría, la mecánica cuántica se basa en probabilidades y no en predicciones exactas. Los
mismos principios básicos, a saber, el de indeterminación y el de dualidad, lo reafirman. El
principio de superposición lleva esta característica todavía más lejos. En esa medida, la
formulación en términos de una función de onda es más conveniente que la matricial, puesto
que la interpretación del cuadrado de la amplitud como probabilidad puede hacerse de
manera más natural y espontánea. La propiedad de superposición de las ondas, muy diferente
a la de localización de las partículas, despeja el camino para esa interpretación. Un caso
particular de superposición de ondas, el de las ondas estacionarias que se forman en cuerdas
(una dimensión), en membranas o tambores (dos dimensiones) o en instrumentos de viento
(tres dimensiones) nos permite llevar la analogía todavía más lejos para sistemas confinados.
Pero fue precisamente esa interpretación probabilística, enunciada genialmente por Born, no
aceptada inicialmente por los más destacados físicos del momento, la que generó agrias
polémicas en las que los actores principales fueron Einstein y Bohr. Recuérdese que el mismo
Schrödinger ingenuamente creyó que elaborar la nueva teoría con fundamento en la
formulación más general de la mecánica, conocida como hamiltoniana, podría liberar a la física
de los saltos cuánticos introducidos por Bohr.
La teoría cuántica es probabilística en sus propios fundamentos. Es, de hecho, una teoría de
probabilidades, no una teoría estadística, con un formalismo matemático peculiar. No hay una
escapatoria posible al manejo y procesamiento de probabilidades, independientemente de lo
que hagamos. La mecánica estadística desarrollada por Gibbs y Boltzmann también predice
probabilidades, pero en principio podría determinarse con precisión absoluta la trayectoria o
el comportamiento de cada una de las partes (masas puntuales, macromoléculas, etc.) o
componentes (subsistemas) si tuviéramos información completa sobre el sistema. De hecho,
se asume el valor de la posición y la cantidad de movimiento iniciales, por ejemplo, de un
conjunto de átomos y se estima qué pasará con ellos un poco después. El problema de la
mecánica cuántica es que tiene que renunciar por principio a tener información completa
sobre el sistema, debido al principio de Heisenberg, formulado en términos matemáticos
exactos en la no conmutatividad de dos variables canónicamente conjugadas.
La teoría cuántica tiene que renunciar pues, por principio, a conocer simultáneamente el valor
de la posición y la cantidad de movimiento de una partícula, o de cualquier pareja de variables
conjugadas, con mayor razón el de un conjunto de partículas. Es así como la teoría cuántica
difiere de otras teorías que utilizan probabilidades. En ciencias económicas, por ejemplo, no
hay teoría que establezca inequívocamente que no podemos conocer alguna variable al nivel
de precisión que deseemos. En este caso, las probabilidades representan nuestra carencia de
conocimiento, ignorancia que no proviene de una propiedad fundamental de la naturaleza.
Es precisamente la interpretación probabilística de la función de onda la que da un
fundamento más sólido a la denominada Interpretación de Copenhague. Esta se fundamenta,
esencialmente, en: el principio de incertidumbre, el principio de complementariedad y aquella
interpretación de la función de onda, la que con sobrada razón podría llamarse principio de
Born, para honrar a su gestor, o principio de probabilidad, precedido de un enunciado cuántico
de la probabilidad. Se sigue conociendo a secas como interpretación, aunque es mucho más
que eso. (Véase capítulo 10 de Enigma Cuántico.)
6.2 La incomodidad de Einstein
Es conocida la polémica que amistosamente mantuvieron Einstein y Bohr, particularmente
desde su encuentro en la famosa Conferencia Solvay de 1927. Pero el origen de la polémica se
remonta para Einstein a una época anterior.
Einstein era partidario de que había algo que le faltaba a la teoría cuántica, algunas variables
quizá, de tal manera que una vez pudiera encontrarse los valores de esas variables, la incerteza
o aleatoriedad desaparecería. Dicho de otra manera, abrigaba la esperanza de que una vez las
variables y las cantidades a determinar estuvieran en adecuada relación, el problema del
conocimiento insuficiente desaparecería. Surgieron así las teorías de variables ocultas, a las
que nos referiremos posteriormente.
Adicionalmente a su disgusto con la aleatoriedad y la probabilidad como características de una
teoría de la naturaleza, Einstein tenía otras concepciones sobre la realidad que había asimilado
desde muy joven. Creía en una teoría que pudiera reunir las dos características exhibidas por la
luz simultáneamente. Los conceptos de realidad y de localidad con que pudo desarrollar su
teoría de relatividad, eran muy acendrados. El segundo punto no tenía discusión para el padre
de la relatividad: si una señal luminosa no puede establecer relación de causa a efecto entre
dos fenómenos, ellos son totalmente independientes. En cuanto a la realidad de los
fenómenos, no tenía duda alguna de la validez de afirmaciones como éstas: si algo ocurre en
algún lugar, y podemos predecir su ocurrencia sin perturbar el sistema físico que lo exhibe, ese
es un elemento de realidad; si una partícula está localizada en cierta posición, y podemos
predecir que ocupará esa posición sin perturbarla, ese es un elemento de realidad; si una
partícula orienta su espín en cierta dirección, y podemos predecir que su espín apunta en esa
dirección sin perturbarla, ese es un elemento de realidad.
Para comprender mejor lo que no estaba dispuesto a aceptar de la teoría cuántica, a pesar de
ser una teoría muy precisa, estas eran sus convicciones acerca de lo que debería ser una
descripción adecuada de la naturaleza:
1. Los fenómenos fundamentales de la naturaleza deben poderse describir en principio
mediante una teoría determinista, aunque las lagunas en el conocimiento acerca de las
condiciones iniciales y en las condiciones de frontera puedan forzarnos a recurrir a la
probabilidad al hacer las predicciones acerca de los posibles resultados de las
observaciones.
2. La teoría debe incluir todos los elementos de realidad, para ser completa.
3. La teoría debe ser local: lo que ocurra aquí depende de elementos de la realidad aquí
presentes, y lo que ocurra en otro lugar dependerá de elementos de realidad que
deben localizarse allá.
Guiado por estos criterios, Einstein llega a la conclusión de que la teoría cuántica es una teoría
incompleta. Veremos, no obstante, que esos principios, aceptados por casi todo el mundo, son
incompatibles con la teoría cuántica, lo que no quedará del todo claro hasta después de la
muerte de Einstein, más exactamente en la década de los 60; la demostración experimental
solo pudo aportarse en la década de los 70 y posteriormente en forma incontrovertible. Con
ello, también se debilitaría la interpretación de Copenhague, aunque sigue siendo
predominante entre los físicos.
6.3 La Interpretación de Copenhague
El modelo de Bohr del átomo, aunque recibido con escepticismo por los más, era un comienzo
de explicación que se abría paso a pesar de lo atrevido de las hipótesis. Su mayor dificultad era
la imposibilidad de extenderlo a otros átomos. Aunque la hipótesis de Einstein del carácter
corpuscular de la luz no había sido aceptada todavía, en el modelo de Bohr funcionaba bien, al
igual que en la explicación del efecto fotoeléctrico. Como hipótesis heurística podría ser válida,
al igual que la hipótesis de los corpúsculos de materia que habían retomado los químicos un
siglo antes. Pasó una década antes de que hubiera un avance significativo; ese paso lo dio de
Broglie con su hipótesis de las ondas de materia. Pero las ondas de materia conducen, como ya
se ha señalado, a una indeterminación. La otra hipótesis del modelo, la cuantización de los
valores del momentum angular, conducente a la cuantización de las órbitas, no era menos
intrépida. Las dos, combinadas con las transiciones orbitales de las que participan los
corpúsculos de luz, garantizaban la estabilidad del átomo y explicaban el origen de las líneas
espectrales. La idea de de Broglie, aplicada a los orbitales electrónicos, encajaba bastante bien
dentro del rompecabezas. Los experimentos que vinieron después sobre la difracción de los
electrones allanaron el camino para la interpretación que finalmente se dio de esas hipótesis y
de la cual fue Bohr el máximo responsable.
Entre tanto, los encendidos debates entre los iniciadores de la revolución que se avecinaba
encontraron un espacio favorable en las denominadas Conferencias Solvay. Ernesto Solvay era
un físico belga pragmático, de gran éxito en la industria. Animado por otro físico, el alemán
Walher Nernst, organizó las conferencias que llevaron su nombre, la primera de las cuales se
realizó en 1911 en Bruselas. Einstein, Planck, Madame Curie y otros premios Nobel más
estuvieron allí presentes. La quinta versión de la conferencia, celebrada también en Bruselas,
ha sido la más famosa de todas: entre los 29 asistentes, 17 recibieron el premio Nobel. Pero lo
que la hizo inolvidable para la posteridad fue el duelo que se estableció desde el comienzo
entre Niels Bohr y Albert Einstein. De allí salió triunfante lo que se denominaría Interpretación
de Copenhague de la nueva teoría. (Por brevedad para esta primera versión de nuestro
ensayo no ahondaremos en detalles, los cuales se encuentran por doquier. Ver capítulo 10 de
QE.)
En palabras de Heisenberg, uno de los más notables participantes, este era el estilo del debate:
«Las discusiones pronto se centraron en un duelo entre Einstein y Bohr sobre el asunto de en
qué medida la teoría atómica en su forma actual podría considerarse una solución final a las
dificultades que se habían venido discutiendo por varias décadas. Generalmente nos
reuníamos primero en el desayuno en el hotel, y Einstein empezaba a describir un
experimento ideal que, según él, revelaba las contradicciones internas de la interpretación de
Copenhague.» Bohr trabajaría todo el día en encontrar una respuesta para Einstein, y al final
de la tarde le mostraría su contra-argumentación a Einstein en presencia de los seguidores de
su discurso, Pauli, Dirac y Heisenberg entre otros.
Los argumentos a favor y en contra de la teoría cuántica se intensificaron en la sexta versión
de las conferencias, en 1930. Aunque el tópico central fue el magnetismo, en los pasillos y
otros espacios los participantes, Einstein y Bohr entre ellos, continuaron el debate iniciado 3
años antes. Es famosa la ocasión en que Einstein, muy puntual en el desayuno, creyó haber
diseñado el experimento mental que daría al traste con la teoría: una caja con una abertura en
una de sus paredes y una compuerta controlada por un reloj. La caja, llena de radiación, se
pesa. La puerta se abre por un momento, dejando escapar un fotón. La caja se pesa de nuevo.
A partir de la diferencia de peso, se puede deducir la energía del fotón utilizando la fórmula de
Einstein. De esta manera, argumentaba Einstein, se puede determinar en principio, a cualquier
grado de precisión, tanto la energía del fotón como el tiempo de paso del mismo, dando al
traste con el principio de incertidumbre que se refiere al producto de la energía y el tiempo.
Como lo reporta Pais (1991), los participantes pudieron ver la expresión desencajada de Bohr.
Aparentemente esta vez no pudo encontrar una solución al desafío de Einstein. Esa tarde se
vio a Bohr yendo de uno a otro de los asistentes famosos, tratando de persuadirlos de que la
conclusión de Einstein estaba equivocada, mas no encontraba el argumento convincente. Si
Einstein estuviera en lo correcto, decía Bohr, sería el fin de la física.
Pero a la mañana siguiente vino el desenlace del duelo a favor de Bohr. Finalmente había
encontrado la falla del argumento de Einstein. Este habría fallado, al no tener en cuenta el
hecho de que, al pesar la caja, el resultado sería equivalente a observar el desplazamiento en
el campo gravitacional. La imprecisión en la medida del desplazamiento de la caja generaría
una incertidumbre en la determinación de la masa, por ende en la energía del fotón. Al
desplazarse la caja, se desplazará también el reloj dentro de ella. Ahora el reloj hará su tic-tac
en un campo gravitacional que es ligeramente diferente del que había inicialmente. El periodo
habrá cambiado con respecto al que había antes de ser pesado. Hay así una indeterminación
en la medida del tiempo. Esto permitía a Bohr asegurar que la relación de incertidumbre entre
el tiempo y la energía estaba a salvo. Haber utilizado la misma teoría de Einstein para
desmontar su argumento fue un golpe brillante.
El encuentro se dio una vez más en la reunión Solvay de 1933. Esta vez Bohr dio una
conferencia acerca de la teoría cuántica. Einstein siguió la argumentación cuidadosamente, sin
hacer comentarios. Cuando se inició la discusión con las preguntas, Einstein simplemente
invocó el sinsentido del significado de la mecánica cuántica. Leon Rosenfeld, un físico que
estuvo presente en los dos encuentros, confidente de Einstei , o e ta: Ei stei seguía
sintiendo el mismo desagrado de antes, cuando tuvo que confrontar las extrañas
o se ue ias de la teo ía. Fue e esta o asió ue t ajo a ue to lo ue se o stitui ía e su
a a ás o tu de te o t a la teo ía uá ti a. ¿Qué opina de la siguiente situación?,
i ui ió Ei stei a ‘ose feld. Asu a ue dos pa tí ulas se po e e o i ie to, en
dirección contraria hasta que se encuentran e interactúan por un corto tiempo. Un observador
que mida el momentum de una de ellas podrá deducir el de la otra. Si, en cambio, mide la
posición, podrá saber la posición de la otra. … El a gu e to es total e te lási o. Ei stei o
cambiaría de opinión. En la interpretación de Copenhague, las posiciones de las partículas no
cobran existencia hasta cuando se las observa. Todavía peor: al observar una y adquirir
realidad por este hecho, la otra también lo hará. (Véase capítulo 10 de Enigma Cuántico.)
(Para complementar los temas de este capítulo que vienen a continuación, remitimos al lector
a los capítulos 11, 12 y 13 de Quantum Enigma, en español o inglés.)
6.4 El contraataque de Einstein: EPR
Así, pues, el duelo continuaría. Einstein, quien pasaría por fuera de Alemania el resto de su
vida, se estableció ese mismo año en el Instituto de Estudios Avanzados de Princeton. Poco
después (1934), en compañía de Boris Podolsky, un ruso de origen judío a quien había
conocido 3 años atrás en Caltech, y con la participación de un joven físico americano de origen
israelí que le asignaron como asistente, emprendió su último gran ataque a la interpretación
ortodoxa de la teoría cuántica, alegando que era una teoría incompleta. En una carta a
Schrödinger al año siguiente le e pli a ía las azo es ue tu o, au ue el efe to fue ot o: Po
razones lingüísticas, el artículo fue escrito por Podolsky, después de una discusión prolongada.
Pero lo que yo realmente quería decir no fue bien entendido; en cambio, lo más importante
está oculto bajo el aprendizaje, como ocurrió efectivamente. A pesa de la i p esió de
Einstein en sentido contrario, el mensaje del denominado artículo EPR pa adoja EP‘, se
llamaría por mucho tiempo), en el que el trío utilizó el concepto de entrelazamiento para
cuestionar la completez de la teoría cuántica, se escuchó claro y fuerte en el mundo académico
de la física. (La respuesta de Bohr está bien documentada, y no la trataremos en esta versión
preliminar.)
Sabemos que dentro de la teoría cuántica, un sistema no se encuentra en un determinado
estado hasta que una medición se efectúa sobre este. Por ejemplo, justo antes que se mida el
espín de un electrón, este se encontrará en una superposición de los posibles resultados. La
paradoja de EPR atribuía la necesidad de incluir una realidad creada por el observador a una
insuficiencia en la descripción ofrecida por la función de onda. El argumento que ponía en
problemas a la interpretación de Copenhague estaba soportado en el entrelazamiento que
permitía conocer una característica de un sistema sin realizar una medida directa sobre este.
Ejemplificando esto de una manera tal vez simplista y muy clásica que más adelante será
aclarada, imaginemos dos objetos idénticos de diferente color, amarillo y verde, ahora
pongamos cada uno de estos en cajas iguales, acto seguido pidámosle a alguien más que las
cambie de lugar muchas veces de tal manera que ya no podamos recordar dónde ha quedado
cada objeto y finalmente procedamos a destapar cualquiera de las cajas, suponiendo que
encontremos el objeto amarillo, sabremos automáticamente que en la otra caja se encuentra
aquel verde.
…
6.5 Gatos de Schrödinger, de Wigner y de Wheeler
El descontento no era solo de Einstein. Los más antiguos padres de la nueva física compartían
un sentimiento común. En un famoso artículo, publicado en la revista alemana
Naturwissenschaften (Ciencias Naturales) en noviembre de 1935, titulado La situación actual
en la mecánica cuántica, Erwin Schrödinger manifestó también su malestar con la mecánica
cuántica y la interpretación de la escuela de Copenhague. Son muchos los textos que se
refieren a la absurda situación descrita por Schrödinger ilustrada con su famoso gato y en los
cuales se denomina paradoja. Su autor entendía que no se trataba de eso, era simplemente
una reflexión profunda muy bien ilustrada sobre las consecuencias de extender las
implicaciones de la teoría al mundo macroscópico. Por ahora le pedimos al lector (en esta
versión preliminar) que se documente bien sobre el asunto. (Un átomo, un frasco con veneno,
un martillo y un gato que duerme plácidamente encerrado en una caja.) Quizá este breve
video le sirva de ayuda, pero hay varios (https://www.youtube.com/watch?v=IOYyCHGWJq4).
Figura 6.1. El gato de Schrödinger, simultáneamente vivo y muerto. Reproducción de una de las
múltiples carátulas del best-seller I sear h of “ hrödi ger´s at , de John Gribbin (1984).
Si el lector reflexionó con detenimiento sobre lo que pasa, después de leer sobre la paradoja,
le habrá quedado claro que los gatos de Schrödinger no cazan ratones. Gell-Mann (1994)
simplifica la situación más o menos de esta manera: el gato de Schrödinger no es más
dramático que el gato transportado en un largo viaje interoceánico en el compartimento de los
equipajes; el propietario de la mascota se preguntará en el momento de ir a recibir el guacal si
su gato seguirá vivo o está muerto. De acuerdo con Gell-Mann y quienes le siguen, el problema
de Schrödinger es un típico problema de decoherencia cuántica. El gato es un sistema
macroscópico que además es biológico. Por esta razón, interactuará con el entorno en que se
encuentra fuertemente. Basta enumerar todas las actividades en que participa, incluso
mientras duerme: respira, absorbe y emite radiación y continúa con muchos otros procesos
vitales. En síntesis, la superposición cuántica, no observable directamente a nivel
microscópico, es imposible de mantener por encima de ciertos límites: la forma más fácil de
enunciarlo es decir que el estado de superposición, posible microscópicamente, colapsa a uno
de los estados posibles en la observación o proceso de medida. Si eso ocurre con un sistema
microscópico, ¿qué no ocurrirá entonces con objetos macroscópicos, en particular con tejidos
biológicos, para mencionar un caso de interés?
Con fundamento en la caja de de Broglie que mencionáramos en la discusión del experimento
de la doble ranura, Eugene Wigner (1902-1995) ideó un experimento que no plantea la muerte
del gato porque no hay cianuro, ni siquiera se tiene gato encerrado. Su propósito iba más allá
de la intención de Schródinger: sugerir una gran interrelación entre el observador consciente y
el mundo microscópico. Describimos y discutimos brevemente el experimento pensado por
Wigner.
Wigner sustituye al gato por una supuesta amiga, consciente, cuyo papel es registrar en su bloc
de notas el chasquido del contador geiger cuando detecta el átomo radiactivo. El colapso de la
función de onda tendrá lugar cuando el chasquido haya sido percibido. Yendo aún más allá en
las implicaciones, imaginó que la percepción consciente humana podría extenderse y cambiar
el estado físico de un sistema. Esto lo llevo a escribir una frase que resume su pensamiento:
Cua do el do i io de la físi a se a plió pa a a a a los fe ó e os i os ópi os a t a és
de la creación de la mecánica cuántica, el concepto de conciencia volvió a saltar a la palestra:
(ya) no era posible formular las leyes de la mecánica cuántica de manera plenamente
o siste te si i gu a efe e ia a la o ie ia. (Wigner, 1995.)
Afirmaciones como esta caen en el terreno de la interpretación de la mecánica cuántica,
problema del cual hemos intentado desligarnos hasta aquí. Hay que tener en cuenta que la
mecánica cuántica es un formalismo matemático y nada más. Hemos intentado resumirlo al
final del capítulo anterior. Los dos siguientes capítulos se refieren a ese problema, sin solución
aparente por ahora. Los avances experimentales en las dos últimas décadas del siglo pasado y
en lo que va corrido del presente siglo siguen fortaleciendo las predicciones de la teoría
cuántica, por absurdas que parezcan. Antes de poner punto final a este capítulo,
examinaremos brevemente las contribuciones de una nueva generación de físicos que
ayudaron a encender aún más el debate en torno a las candentes inquietudes planteadas por
la fenomenología cuántica.
David Joseph Bohm (1917-1992) fue, en el terreno de la cuántica, el heredero de Einstein. Su
más valiosa contribución a la física lleva su nombre y el de otro físico famoso, Yakir Aharonov
(1932-) a quien dirigió su tesis doctoral: efecto Aharonov-Bohm. La predicción teórica, hecha
independientemente por ellos en 1959, había sido previamente anunciada por Werner
Ehrenberg y Raymond Siday y confirmada poco después de la publicación de Aharonov y
Bohm. Puede tomarse como la primera evidencia experimental de efectos no locales en la
fenomenología cuántica. Bohm tiene también el mérito de haber puesto, en su texto de
mecánica cuántica publicado por primera vez en 1951, la mal llamada paradoja EPR en una
perspectiva cuántica: el entrelazamiento de dos átomos (o 2 electrones) que han sido
producidos simultáneamente con espines opuestos, pero de cuyo valor se tiene completa
ignorancia, por tanto cada uno de ellos puede tomar cualquier orientación a condición de que
el otro lo tenga en dirección contraria. Desde entonces se hace referencia a experimentos tipo
EPRB, correspondiendo la B a Bohm, por supuesto. Tendremos que volver a Bohm cuando
hablemos de las teorías de variables ocultas, tan importantes para el teorema de Bell,
discutido al final de este capítulo. (Véase: http://plato.stanford.edu/entries/qt-epr/)
En su libro Entanglement (2001), Amir D. Aczel nos habla del gato de Wheeler. John Archibald
Wheeler (1911-2008) es, con Richard Feynman (1918-1988), representante de la generación
de físicos teóricos norteamericanos comparable a la generación europea de 1900. Profesor
emérito de la Universidad de Princeton, vivió cerca a la residencia de Einstein. Nos cuenta
Aczel que el gato de Wheeler frecuentaba la casa de Einstein, de tal suerte que los dos podían
comunicarse por teléfono acerca de la ubicación del gato de Wheeler. Era frecuente que uno y
otro hablaran por teléfono, el uno para preguntar, el otro para informar acerca de la ubicación
del gato. Evidentemente este no era un gato de Schrödinger, pero pudo serlo en el momento
en que estuviera simultáneamente en la casa de Wheeler y en la casa de Einstein. Eso solo
podría ocurrir, de ser un gato cuántico, cuando ninguno de los dos físicos lo estuviera
observando. Pero este personaje es solo un gato clásico, el de la aparente paradoja.
Gran parte de su formación, Wheeler la heredó de Bohr. De la misma manera, puede afirmarse
que Feynman se formó con el primero, quien dirigió su tesis de doctorado, postergada hasta
1942 a causa de la primera guerra mundial. La tesis de Feynman es su versión de la teoría
cuántica: por simplicidad, podría llamarse representación integral, y la de Heisenberg
simplemente representación matricial. Se dice que cuando Wheeler, orgulloso de la hazaña de
su pupilo, se la e señó a Ei stei , este epli ó: Toda ía o eo ue Dios juegue a los dados…
pe o pod ía se ue te ga el de e ho a o ete is p opios e o es.
La electrodinámica cuántica (QED) nació de la representación de Feynman; la formulación
relativista de la teoría fue lo que le dio fuerza, así como la hipótesis de la existencia de anti-
partículas, propuesta por Dirac como resultado de su versión relativista. El descubrimiento del
positrón hecho por Carl Anderson en 1931 fue uno de los más resonantes éxitos de Dirac. En
1946, Wheeler propuso que el par de fotones que se producía cuando el par electrón-positrón
se aniquila podría usarse como una comprobación de la validez de la QED. Esos dos fotones, de
acuerdo con la teoría, tienen polarizaciones ortogonales: si uno tiene polarización vertical, el
otro ha de tenerla horizontal. En 1949 Chien-Shiung Wu, conocida familiarmente como
Madame Wu, realizó conjuntamente con Irving Shaknov el experimento propuesto por
Wheeler: materializaron el positronio, elemento artificial hecho de un electrón y un positrón
revoloteando uno alrededor del otro; su tiempo de vida es de alrededor de un centenar de
nanosegundos. Más allá de confirmar la hipótesis de Wheeler, el experimento fue el primero
en la historia en producir fotones entrelazados, de tanta importancia en las investigaciones del
presente. Wheeler hizo muchos otros aportes de relevancia en los campos de la teoría de
gravitación y de la cosmología
(El autor tiene otras anécdotas que contar, pero las aplaza por cuestión de prioridades.)
6.6 El experimento de elección retardada
El verdadero gato de Wheeler sí es rigurosamente cuántico. En un famoso experimento
pensado, propuesto en el artículo que tituló Ley sin ley (Law without law, Wheeler, 1983),
Wheeler propone una brillante modificación del experimento de Young de las 2 ranuras y
demuestra que, con el solo acto de medir, el experimentador puede cambiar la historia. Con el
acto de decidir si se quiere medir una cosa o la otra, el observador puede determinar qué
debería haber sucedido en el pasado. Adaptado del artículo de Wheeler, Aczel describe el
experimento más o menos en los siguientes términos, después de revisar el famoso
experimento de la doble rendija.
En un diseño tipo diamante, se hace incidir luz de una fuente sobre un espejo semiplateado, de
tal suerte que la mitad de la intensidad es reflejada y la mitad transmitida, como ocurre
usualmente. Cada uno de los dos haces en que se divide el haz original se hace reflejar luego
en sendos espejos y se obligan a cruzarse de nuevo para ser detectados, bien
simultáneamente, como en el interferómetro de Fabry-Perot, mediante otro espejo
semiplateado que los obliga a producir franjas de interferencia, o separadamente, mediante
una celda fotoeléctrica.
Figura 6.2. Esquema del experimento propuesto por Wheeler. El haz original de intensidad I se divide en
dos con la mitad de intensidad, 2a y 2b, reflejándose cada parte en los espejos A y B respectivamente.
Los dos rayos reflejados se encuentran de nuevo. En el cruce se puede indagar por la procedencia del
fotón que llega (figura de la izquierda, 1 a la vez, como en el experimento fino de la doble rendija con
electrones), o por la forma en que interfiere el fotón consigo mismo (figura de la derecha,
materializándose en la interferencia de dos haces).
Muchos otros aportes de Wheeler sirvieron para avanzar en las profundidades de los
misterios cuánticos. A ellos volveremos después.
6.7 Las variables ocultas
Para mostrar el caso cuántico del entrelazamiento tomemos un sistema más curioso, dos
fotones idénticos entrelazados en su polarización. Este tipo de configuración se logra cuando
un electrón de un átomo es excitado a un nivel de mayor energía y vuelve a su estado base
mediante saltos emitiendo dos fotones en ese proceso. Actualmente, los laboratorios de
mecánica cuántica obtienen estos estados usando un tipo especial de cristales no lineales que
permiten un proceso conocido como conversión paramétrica espontánea en el que se
obtienen dos fotones de baja frecuencia a partir de uno de mayor frecuencia.
Diga os aho a ue uest a edi ió se efe tua á ie sea e u a di e ió e ti al V o e su
o espo die te o togo al, ho izo tal H ue el estado está p epa ado de tal a e a ue si
un fotón tiene polarización vertical, el otro debe tener horizontal. Cada uno de los fotones se
encontrará con el polarizador en puntos muy separados entre sí y, incluyendo a los
tradicionales Alice y Bob, supongamos que Alice realiza la medición unos cuantas fracciones de
segundo antes ue Bo e ue t a su fotó e estado H , i ediata e te puede o o e se
el estado que medirá Bob. Uno podría verse tentado a seguir la idea de que, sencillamente, las
polarizaciones siempre fueron esas desde un principio y que el medirlas simplemente reveló
algo que ya estaba ahí. Esto podría también conducir al lector a pensar que no existe ninguna
diferencia esencial entre el ejemplo clásico y el cuántico de entrelazamiento pero el quid de la
cuestión reside en que en el caso cuántico se afirma que la medición de Alice sí influenció a la
de Bob lo cual entraba en contradicción con la relatividad especial dentro de la cual la
información no podría viajar más rápido que la luz desafiando la concepción de localidad de
u a edi ió , e to es ¿ ó o supo el fotó de Bo ue de ía e o t a se e el estado V ?.
Einstein afirmaba de acuerdo a los resultados de este experimento que un elemento de
realidad, cuyo valor puede ser predicho con total certeza prescindiendo de una medición, le
correspondía a la polarización de los fotones. Si estas características físicas, también llamadas
variables ocultas, podían existir independientemente de su observación y la teoría cuántica no
las incluía, por consiguiente estaba incompleta.
6.8 El Teorema de Bell
John Bell fue el encargado de ponerle fin a la controversia Bohr-Einstein y con unas cuantas
líneas en un corto artículo publicado en 1964 demostró que ninguna teoría de variables
ocultas, en la que dos objetos separados a una distancia desde la cual lo que le sucede a uno
no puede afectar de manera instantánea al otro, podía predecir el comportamiento de las
correlaciones cuánticas entre dichos objetos. Derivó una desigualdad que algunas de esas
correlaciones no satisfacen que derogaba la idea de la localidad en el comportamiento de la
naturaleza.
Este tipo de desigualdades puede entenderse mediante un experimento mental, que sólo será
una ilustración del sentido práctico de una desigualdad tipo Bell, con nuestros ya conocidos,
Alice y Bob. En este escenario se cuenta con una fuente de fotones idénticos en polarización
lineal, se desconoce el ángulo de polarización pero estamos seguros de que es el mismo para
ambos. Alice y Bob se encuentran en lados opuestos de la fuente cada uno con un analizador
(polarizador) orientado a un ángulo , medido con respecto a la horizontal, en sentido opuesto
al del otro y dos detectores, uno para aquellos fotones que se transmiten y otro para los que
son absorbidos. Para cada fotón, dos posibles situaciones pueden ocurrir; que sea transmitido
o absorbido. Que Alice incline su polarizador dicho ángulo cambiará la relación de fotones
transmitidos o absorbidos en un dado porcentaje y sucedería con los de Bob en igual
magnitud. Cuando el experimento termine y se observe el registro de los resultados de Alice
comparados con los de Bob, de acuerdo a la física clásica, se esperaría encontrar que la razón
de coincidencias en cada analizador sea equivalente al doble de aquel resultado obtenido en
experimento en donde sólo uno de los analizadores esté inclinado a . Sin embargo, sería
posi le e o t a u a tasa a o de ido a a uella i flue ia fa tas a de u fotó so e su
par idéntico. Cabe aclarar aquí el concepto de coincidencia, que puede entenderse como la
situación que se da cuando los fotones llegan al mismo tiempo a su respectivo analizador y
ambos son transmitidos.
Cuando trabajemos con los vectores de estado, esta técnica permitirá expresar en términos
matemáticos el principio de superposición. La suma de vectores en la forma clásica indicada es
el punto de partida para la superposición de estados en la mecánica cuántica.
Un poco más tarde (tan cerca como queramos del instante t), en el instante t+t, el objeto o
masa puntual se ha desplazado a su nueva posición x(t+t):
La relación entre el desplazamiento xy el intervalo de tiempo t, cuando ese intervalo es
suficientemente pequeño, es matemáticamente la velocidad instantánea. Como el concepto
es un poco abstracto, refirámonos primero a la velocidad promedio o rapidez media.
Figura I.2. Ilustración del vector velocidad (variación del vector de posición) para 2 posiciones
diferentes. El vector velocidad, o velocidad a secas, es siempre tangente a la trayectoria del móvil.
La posición exacta suele darse por simplicidad, aunque no siempre, por las llamadas
coordenadas cartesianas de un punto matemático (x,y,z) y suele representarse por el vector
(tridimensional) r; en ocasiones es mejor hacerlo mediante las denominadas coordenadas
esféricas (r, , ), siendo r la magnitud del vector de posición, r, el ángulo que forma la
dirección de este vector con el eje z, y el que forma su proyección sobre el plano XY con el
eje x, pero no es necesario ahondar en el tema. La medida de la rapidez media, magnitud de la
velocidad promedio <v> (o <v>), es la relación entre el desplazamiento o espacio recorrido
(s), denotémoslo por Δs, y el tiempo (t) empleado para recorrerlo, designémoslo por Δt: v =
Δs/Δt. El espacio recorrido depende del intervalo de tiempo medido, pero la relación lo es
menos si el intervalo de tiempo es pequeño. Asumimos que en t la posición es r, en t1 r1 y así
sucesivamente: en t’ es r’. Limitémonos de nuevo, por simplicidad, al plano XY para ilustrarlo.
Cuando se tiene el vector velocidad para cada instante de tiempo, v(t), es fácil trasladar la
información al espacio de velocidades. El origen en dicho sistema es el reposo. Las unidades
para la velocidad en el sistema MKSA (metro·kilogramo·segundo·amperio) son m/s (metros
sobre segundo), o mejor, ms-1. Más que el espacio de velocidades, se suele hablar del espacio
de momentos o de cantidad de movimiento. A este concepto volveremos en la siguiente
sección.
El símbolo Δ a menudo se emplea para indicar que se hace referencia a cantidades
minúsculas. Esto es muy conveniente, porque se pueden, en principio, observar los cambios
que se producen de un instante de tiempo al siguiente, sin precisar el lenguaje: aceptemos, sin
más, que el tiempo fluye en forma continua; y que la línea (curvada o no) que representa la
trayectoria es una sucesión continua de puntos. Si no cambia por lo menos una de las
componentes de la posición del objeto, no hay movimiento.
Aceleración, cambio en la cantidad de movimiento e impulso dado por una fuerza
Introduzcamos ahora el concepto de aceleración. Su importancia mayúscula reside en la
relación que tiene con las fuerzas o interacciones: no habrá aceleración en ausencia de estas.
Ésta es el cambio de velocidad, exactamente en la misma forma en que velocidad es el cambio
de posición: a es, pues, un vector: vector aceleración. Precisémoslo un poco más, siguiendo la
figura.
Si en el instante t el objeto móvil se encuentra en P y tiene una velocidad v, cuya dirección es
tangente a la trayectoria en dicho punto, como ya dijimos, y en el instante t' el móvil se
encuentra en el punto P' y tiene una velocidad v', en general ese objeto habrá cambiado su
velocidad tanto en módulo como en dirección en una cantidad dada por el vector diferencia
v=v’-v. Trasladando los vectores velocidad a un espacio imaginario de velocidades, se
traslada el vector (velocidad final) al extremo de –v y tendremos lo que se ilustra a
continuación para el cambio de velocidad (aceleración), aplicando lo que denominan regla del
paralelogramo:
-v
v´
Δv
F = ma.
La masa que aparece aquí es la misma que se ha utilizado para la definición de la cantidad de
movimiento, a saber, masa inercial. Con la tercera ley de Newton de acción y reacción (toda
fuerza ejercida por un objeto sobre otro hace que este último ejerza sobre el primero una
fuerza igual y opuesta), combinada con la segunda ley, se encuentra un principio fundamental
de la mecánica: el de conservación de la cantidad de movimiento.
Colisiones y momentum
Cuando dos objetos interaccionan, intercambian lo que hemos definido como cantidad de
movimiento. Aunque no lo demostraremos, el principio de la conservación de esa cantidad es
uno de los pilares de la mecánica clásica o cuántica. Hay algunas sutilezas que deben tenerse
en cuenta al aplicarlo. Por ejemplo, si se aplica al sistema tierra-luna, cuando esta avanza hacia
un lado con cierta velocidad respecto a un sistema inercial, hará que la tierra se mueva en
dirección contraria con una velocidad en magnitud muy inferior a la de la luna, en la relación
entre las masas tierra/luna. Lo mismo ocurre con el sistema protón-electrón, etc. En este caso,
la relación entre masas es de 2000 y el núcleo puede considerarse fijo.
Para un electrón libre, lo contrario de ligado, normalmente uno conoce con precisión con qué
velocidad se mueve, es decir, su cantidad de movimiento, la cual se conserva. El principio de
indeterminación de Heisenberg nos dirá que es imposible saber dónde se encuentra. Pero esa
discusión la dejaremos para el cuerpo principal del presente texto (primera parte), porque
forma parte de uno de los aspectos más relevantes en la nueva física.
En la formulación de Newton de la mecánica y su generalización posterior hecha por Lagrange,
Hamilton y otros, la masa se conserva. La ley o ecuación de movimiento, generalizada o no, se
convierte en la mecánica cuántica en la ecuación (de onda) de Schrödinger, la cual no dice
cómo se mueve un sistema cuántico sino cómo evoluciona su función de onda. Este aspecto se
tocará cualitativamente en la primera parte.
El concepto de masa también se utiliza en la energía de movimiento, a la que nos referimos a
continuación. No sobra advertir que la expresión general para la energía cinética en la
mecánica cuántica no es la misma de la mecánica clásica.
Conservación de la energía y energías de diverso origen
Hay un principio cuya validez ha sido a puesta a prueba y que, hasta donde sabemos hoy, solo
puede ser violado por la preservación o primacía de otro principio, esta vez de origen
cuántico, a saber el principio de indeterminación. Nos estamos refiriendo al Principio de
Conservación de la Energía. La confirmación experimental de ese principio hace que podamos
hablar más rigurosamente de una ley de conservación. Se podría empezar cualquier curso de
física invocando esa ley. Cuando ya se tiene claro el concepto de fuerza y el significado de la
segunda ley de Newton, es preferible referirse al trabajo hecho por una fuerza, para
demostrar un teorema que relaciona el trabajo de la fuerza neta sobre un objeto simple o
masa puntual y lo que se denomina energía de movimiento o energía cinética. Separando
cuidadosamente el trabajo hecho por fuerzas cuya intensidad depende solo de la separación,
el cual puede agruparse en otro tipo de energía acumulada denominada potencial, se puede
hacer un enunciado débil del principio en la forma que la mecánica newtoniana lo permite.
Veámoslo más detenidamente.
Expresable en términos newtonianos modernos mediante la fórmula p2/2m (o, si lo prefiere,
½mv2; lo cual no es cierto cuando hay que tener en cuenta la relatividad de Einstein, cuando
se reconoce la equivalencia entre masa y energía, a la que volveremos a menudo), la energía
de movimiento o energía cinética es la manifestación más inmediata de la energía de un
objeto simple o masa puntual. Para aprovechar una analogía con el concepto de impulso, de
gran trascendencia, nótese que la extensión de la fuerza en el espacio, FΔ para el caso
unidimensional, conduce al concepto de trabajo y por ende al de aumento (o disminución) de
la energía: FΔ es el aumento en la energía de movimiento, si no hay otra fuerza que se
oponga a éste y aquella actúa en la dirección x. De manera más general, en mecánica clásica
se habla del Teorema del Trabajo y la Energía Cinética, según el cual el trabajo de la fuerza
neta (resultante de la composición vectorial de todas las fuerzas que actúan sobre el objeto)
es igual al incremento en la energía cinética; FΔ incrementa además la energía de posición,
llamada también potencial, si un campo de fuerza conservativo, por ejemplo el campo
gravitacional, o una fuerza elástica (procesos reversibles, caso de un resorte ideal)
contrarresta la acción de la fuerza aplicada por un agente distinto al campo o al medio
elástico. Imagine, para el caso, un montacargas que levanta o descarga pesados bultos a lo
largo del eje vertical, y; para elevar un peso mg (m en este caso es la masa gravitacional, y g es
el valor de la aceleración de la gravedad en la posición en que se encuentra el montacargas;
mg es la magnitud de la fuerza gravitacional, denominada peso) a una altura y, el montacargas
realiza un trabajo mgy, cantidad que es precisamente la energía potencial almacenada por el
cuerpo.
La energía de posición es un término bastante amplio; es energía almacenada, de ahí el
adjetivo de potencial, ás ge e al ue de posi ió . U satélite o ié dose al ededo de la
Tierra tendrá una energía potencial gravitacional (¡cuidado!, ya no es mgh, es proporcional a -
1/r, donde r es la distancia del satélite al centro de la Tierra). La energía potencial puede estar
almacenada en muelles comprimidos o en mecanismos menos fáciles de identificar; en
nuestra escala usual, envuelve a menudo energía eléctrica (a veces llamada electroquímica) o
electromagnética o en últimas se reduce a ella (la del muelle rigurosamente es de origen
eléctrico o electromagnético); quien esté familiarizado con circuitos eléctricos, puede pensar
en un resonador u oscilador eléctrico, en el que se acumula o aprovecha energía
electromagnética. Al concepto volveremos en el segundo apéndice. Generalizando, la energía
electromagnética en últimas se convierte en energía de radiación, energía que se propaga con
la onda electromagnética a ella asociada. Es, en últimas, el haz de fotones descritos mediante
la onda misma.
Un oscilador mecánico, cuyo ejemplo más sencillo es el péndulo simple o la masa atada a un
resorte, sirve también para ilustrar el concepto de transformación permanente de energía de
movimiento en energía de posición y viceversa. El movimiento planetario es un típico
movimiento de conservación y transformación de energía, de potencial gravitacional en
cinética o de movimiento y viceversa: en el apogeo, mayor distancia al centro atractivo, el
planeta (o satélite) se mueve con menor rapidez que en el perigeo, por lo que su energía
cinética (siempre positiva) es menor justamente en la cantidad en que se ha aumentado la
potencial, siempre un número negativo para el caso, haciendo de la suma una constante. Para
un resorte, caracterizado por una constante elástica k, la energía potencial puede escribirse en
primera aproximación como ½kx2, siendo x el desplazamiento con respecto a la posición de
equilibrio del muelle. El módulo al cuadrado (observe que el desplazamiento x podría ser
negativo en el caso del resorte, pero x2 siempre será positivo) es característico de muchos
términos que expresan la energía; veremos que esa magnitud también caracteriza otra
cantidad física fundamental en la nueva física, la probabilidad. Hay también osciladores
eléctricos, en la actualidad de mayor importancia diaria que los mecánicos. Al tema
volveremos en el siguiente apéndice.
Se suele representar a la energía de movimiento por T (no confundir con temperatura, una
cantidad física muy importante a la que prácticamente no nos referiremos a lo largo del
ensayo) y a la de posición por U. En los sistemas mecánicos que no disipan energía (no hay
cambios de temperatura), decimos que ésta se conserva: E = T + U = constante. Son sistemas
conservativos. Uno de los casos más sencillos es el de un satélite que se mantiene en una
órbita, determinada precisamente por la energía E y la forma particular en que se le puso en
órbita (condiciones iniciales); ocurre algo parecido con un electrón ligado al protón (átomo de
hidrógeno); pero, como veremos, en éste caso no se puede hablar de órbitas; cuando más, de
orbitales, solamente para hacer referencia a lo que en un lenguaje riguroso habrá que
denominar estado cuántico. Si se sobrepasa el límite relativista, en procesos nucleares y otros
más, es esencial recordar el principio de la equivalente entre masa y energía. Cada objeto
material de masa en reposo mo tiene una energía interna Eo = moc2, siendo c la velocidad de la
luz.
Hay otras formas de energía; el lector habrá oído hablar de energías térmica, nuclear, de
radiación y otras más. La energía solar, energía de radiación, proviene de procesos nucleares
(de fusión) que se dan en nuestra estrella. La radiación electromagnética se interpretaba antes
como energía calórica, y la energía térmica, también asociada al calor, es a menudo energía de
movimiento. Baste por ahora con afirmar que es frecuente no saber a qué se está haciendo
referencia cuando se habla de energía. Usted puede observar cómo cualquier lego en la
materia usa y abusa del término, en ocasiones para engañar incautos.
Compendio de la dinámica de un objeto puntual
Las dos cantidades físicas, propiedades físicas de un cuerpo con inercia m (recuerde que en
física m es la medida de la inercia de un objeto), que varían al prolongar, respectivamente, la
acción de una fuerza en el tiempo y en el espacio, a saber, la cantidad de movimiento y la
energía, sobreviven más allá del campo clásico; se asignan también como cantidades variables
de entes o siste as uá ti os pa a los ue el té i o fue za puede ha e pe dido
significado: las dos son observables cuánticos. Ve e os ue el he ho de o se a las ,
determinarlas, generalmente altera lo que se denomina el estado del sistema, estado del
cuerpo de masa m para el caso. Nótese que la observación, casi siempre una interacción,
esulta e u a pe tu a ió , o sie p e edu i le a fue za ; o a o azó puede
anticiparse esta conclusión en los experimentos ya citados, medidas libres de interacción. Es
entonces de subrayar que el concepto clásico de fuerza es reemplazado en la nueva teoría por
el de interacción. Este cambio de terminología es conveniente, porque permite una mayor
precisión en el lenguaje.
La energía como un todo es una cantidad fundamental en la dinámica. Su transformación, de
cinética en potencial y viceversa, es la esencia de la dinámica y da origen a diversas
formulaciones. Pero hay otra cantidad de fundamental importancia, ya mencionada. El
momenum angular o cantidad de movimiento angular. Precisaremos el concepto a
continuación. Veremos que en mecánica cuántica tiene un significado más profundo,
sintetizado en lo que se denomina momentum angular intrínseco o espín.
Conservación de la cantidad de movimiento angular
L = r×p,
operación vectorial que se de o i a p e isa e te p odu to e to ial , o las siguie tes
características: la dirección es perpendicular al plano formado por los vectores r y p, y su
magnitud es el producto de las dos magnitudes de esos vectores multiplicada por el seno del
ángulo entre ellos. A partir de la segunda ley de Newton, F = dp/dt, si F está en dirección r, es
fácil demostrar que L se conserva, es decir, su variación es nula para estos casos. En otras
palabras, el momento cinético de un sistema se conserva cuando el sistema gira alrededor de
un centro de fuerza (fuerzas centrales, de las cuales la gravitacional es solo un caso).
Sistemas físicos y formalismos
En física clásica, el sistema físico es una idealización de la realidad. Cuando se habla del
movimiento de la Luna, se suele de i ue es o o u pu to ate áti o ue se ue e e
u a t a e to ia i ula , a te ié dose a u a dista ia de , kiló et os de la Tie a .
Puede agregarse que su diámetro es 3,476 kilómetros; que su movimiento es sincrónico: tanto
la rotación de la Luna como su órbita alrededor de la Tierra duran 27 días, 7 horas y 43
minutos; y que esa rotación síncrona se debe a la distribución asimétrica de su masa. La
primera parte de la frase es una verdadera abstracción del sistema físico real; en la segunda,
se suministra información suficiente (a la que se añade otra) para cuestionarse sobre la validez
de esa abstracción. Cuando se aplica un formalismo matemático a la descripción del
comportamiento o evolución en el tiempo de un sistema físico, es indispensable hacer
idealizaciones. Así se procedió para la descripción del movimiento de la luna alrededor de la
tierra y de esta alrededor del sol. Antes de terminar esta sección, queremos dejarle al lector
no científico una inquietud: ¿será que la Luna va a continuar moviéndose de esa manera?
Té gase e ue ta ue o sie p e se o ió así… la tie a ta po o ha pe a e ido i a ia le
en su movimiento como planeta alrededor del sol. ¿No se estará extrapolando demasiado?
Movimiento planetario
El movimiento de la Luna (y de los planetas) sólo pudo ser entendido de manera global cuando
Newton incorporó, adicionalmente a sus leyes de movimiento, una ley de fuerza, la llamada
ley del inverso del cuadrado de la distancia. Sobre esa ley hablaremos ahora a modo de
ilustración del éxito de la mecánica clásica, aplicada a puntos materiales que no son tales,
pues nos estamos refiriendo a los planetas, sin preocuparnos por su rotación interna o
intrínseca. Para esa también vale la conservación del momentum angular.
Una vez que se ha observado que el movimiento de la Luna es circular, pueden utilizarse las
otras leyes para concluir, a partir del resultado, que la Luna se mantiene en su órbita con el
periodo de 27.3 días aproximadamente, gracias a que la Tierra la atrae con una fuerza
proporcional al cuadrado de la distancia, una nueva ley. Eso fue lo que hizo Newton, echando
mano de las leyes del movimiento planetario de Johannes Kepler, deducidas a partir de
cuidadosas observaciones del movimiento de los cuerpos celestes. La primera se refiere a la
forma de las órbitas: son elípticas; recuérdese que el círculo es una forma particular de elipse.
La segu da sostie e ue las á eas a idas po el adio de la ó ita r, un radio variable para
el caso general; o r, un vector de posición cuya variación describe la trayectoria) son tales que
áreas barridas en tiempos iguales son iguales. Más sencillo: la tasa de cambio del área que
barre la distancia del cuerpo celeste al Sol es constante. Esa afirmación parece obvia en el
caso del movimiento circular: la podemos utilizar para deducir cuál es la rapidez o velocidad
promedio en el movimiento circular uniforme de la Luna alrededor de la Tierra, si usamos
como datos el radio de la órbita lunar y su período. La tercera es más complicada, y fue el
triunfo más grande de las observaciones de Kepler, a la vez sustentado en las de sus
predecesores, Nicolás Copérnico y Tycho Brache: afirma que los cuadrados de los períodos son
proporcionales al cubo de los semiejes mayores, en este caso el radio mismo: T2 R3. A partir
de la segunda ley de Newton sobre el movimiento, es fácil demostrar que la relación exacta
es: T2 = 42R3/GM, siendo M la masa de la Tierra en el caso del movimiento de la Luna, o del
Sol para el caso de la Tierra o cualquiera de los planetas o cuerpos del sistema solar que giran
en órbita elíptica alrededor del Sol. Las tres leyes de Kepler sobre las órbitas traen pues
implícitas la segunda de movimiento y la de gravitación universal.
Veamos ahora cómo usar lo anterior para deducir la ley de fuerzas mencionada en un caso
muy particular, cuando la órbita es circular. Tal es el caso del movimiento de la Luna alrededor
de la Tierra. Pero la ley es completamente general para los cuerpos celestes.
Figura I.3 Leyes de Kepler. La primera se refiere a las trayectorias (elípticas) de los planetas y la segunda
a las áreas barridas en tiempos iguales: aquellas son iguales. La ley de los periodos (T 2 R3) es
consecuencia de la variación de la intensidad de la fuerza atractiva, proporcional al inverso del
cuadrado de la distancia.
Si un cuerpo se mueve con velocidad constante, es decir, en línea recta recorriendo tramos
iguales en tiempos iguales, es porque no hay fuerza neta actuando sobre él: es el enunciado
de la primera ley de Newton, también conocida como ley de inercia, deducida empíricamente
por Galileo cincuenta años antes en un proceso de abstracción nuevo para la ciencia. Por el
contrario, un movimiento curvilíneo no puede ser uniforme, es decir, no puede ocurrir sin
aceleración. Sin entrar en detalles, es fácil concluir que cuando un cuerpo se mueve en
trayectoria circular (r = R) con rapidez constante, experimenta una aceleración centrípeta
(hacia el centro de la trayectoria, o de manera más general, perpendicular al segmento de
curva) proporcional al cuadrado de la rapidez (magnitud de velocidad, v) e inversa a la
curvatura, el radio en este caso: en símbolos, a = v2/R. No es difícil ver, a partir de la definición
de rapidez (distancia recorrida/tiempo empleado en recorrer esa distancia), que v está dada
por 2πR/T, denotando por T el periodo del movimiento circular, un movimiento periódico
porque se repite cada T segundos. En consecuencia, a = v2/R = 4π2R2/T2R 1/R2. Más
exactamente, a = GM/R2, enunciado de la ley de gravitación universal de Newton, lo que es
equivalente a afirmar que en magnitud
F = (GM/R2) m,
expresión equivalente a la segunda ley de Newton sobre el movimiento. En el último paso, se
ha hecho uso explícito de la tercera ley de Kepler. Es evidente que en la superficie de la Tierra,
a = g, una o sta te u o alo e a to depe de de la posi ió , lo gitud, latitud altu a.
Suele asignársele el valor de 9.8 m s-2. Para simplificarles la vida, redondearse ese valor a 10 m
s-2.
Figura I.4 Comunicando suficiente impulso, podría aspirarse a poner un objeto material, por ejemplo
una pelota de béisbol, en órbita. En la práctica, muy cerca de la superficie de la Tierra esto no funciona,
porque hay un fuerte rozamiento con la atmósfera terrestre. Para la velocidad que habría que
imprimirle, 8 km/s, o más dramático, 29,000 km/hora, la pelota no tardaría en arder en llamas. En la
ionosfera el efecto es mucho menor. Por eso se elevan a unos 200 km sobre la superficie de la Tierra los
satélites artificiales.
La magia de Newton, más allá de sus famosas tres leyes del movimiento, estuvo en
aventurarse a encontrar «leyes de fuerza». La más famosa es la Ley de Gravitación Universal,
escrita aquí una vez más, ahora en forma matemática precisa:
F = -GMmr/r3.
Esta es una ley de fuerza central, atractiva (en la dirección –r), cuadrática: la intensidad de la
fuerza varía con el inverso del cuadrado de la distancia, y va en la dirección opuesta (atractiva)
a la que une los centros de los cuerpos que interactúan o se atraen gravitacionalmente: M, la
masa mayor de, por ejemplo, la Tierra, y m la pequeña masa, por ejemplo la Luna o cualquier
satélite artificial. r/r corresponde a lo que suele denominarse un vector unitario: no tiene
dimensiones, pero siempre tiene la unidad de magnitud; por eso r/r3 tiene dimensiones de
1/r2, resultado al que ya se había hecho referencia. En coordenadas cartesianas se suele
escribir i, j y k para los tres vectores unitarios en direcciones X, Y y Z, respectivamente, de tal
suerte que si se toma como referencia el origen, donde se encuentra en el caso mencionado la
Tierra, se tendrá:
r = xi + yj + zk.
Si se quisiera representar la posición y el movimiento de la Luna o de un satélite artificial que
gira alrededor del centro de la Tierra en trayectoria circular, el esquema sería el representado
en la figura I.5.
Figura I.5. Movimiento de la Luna o de un satélite en trayectoria circular alrededor de la Tierra.
Ilustración del campo gravitacional cerca a la superficie de la tierra, con simetría esférica.
Otra ley de fuerza de mucha utilidad, aunque con mayores limitaciones, es la llamada Ley de
Coulomb. Es el punto de partida de los fenómenos electrostáticos. Basta cambiar la constante
G gravitacional por una nueva constante k, eléctrica; y utilizar a cambio de las expresiones o
símbolos que se refieren a masa por otros que tengan en cuenta la nueva propiedad física
intrínseca de los cuerpos cargados eléctricamente, la cual ahora se presenta en dos clases
diferentes, dando lugar a atracciones o repulsiones. En rigor, a excepción de los 3 neutrinos,
que conforman con el electrón, el muón y el tauón, la familia de los leptones, los objetos que
con mayor precisión podrían denominarse partículas por estar más cercanos al concepto de
masa puntual, tienen todos carga eléctrica; cada uno de los seis quarks tiene carga, en
magnitud 1/3 o 2/3 la carga del electrón o de cualquiera de los leptones cargados. Si el
sistema físico fuera un protón y un electrón (átomo de hidrógeno; recuérdese, de paso, que el
protón, núcleo del hidrógeno, no es, rigurosamente hablando, una partícula elemental), cada
una de las partículas interactuantes tendría carga de magnitud e, la una positiva y la otra
negativa. Como resultado se atraen, en la misma forma que el sistema Tierra-Luna. He aquí la
expresión correspondiente al átomo de hidrógeno:
F = -ke2r/r3.
1.8. Generalización de la mecánica.
La formulación newtoniana de la mecánica clásica, aunque relativamente sencilla, es de
aplicaciones prácticas limitadas en el terreno teórico.
La formulación de Lagrange, utilizando coordenadas y fuerzas generalizadas, es más poderosa.
Todavía más apropiada es la que se denomina formulación Hamiltoniana (Hamilton, 1838). En
esta, las ecuaciones diferenciales de segundo orden de las formulaciones anteriores se
convierten en ecuaciones de primer orden, las cuales relacionan la variación en el tiempo de
las coordenadas o momentos generalizados con variaciones de la denominada función de
Hamilton (hamiltoniano) con respecto al momentum o coordenada generalizada
respectivamente. Fue este enfoque el que permitió a Schrödinger encontrar su ecuación de
onda, aplicable precisamente al Hamiltoniano en su versión cuántica. Implícitamente estamos
hablando así del espacio de fase o de coordenadas y momentos generalizados.
Sin necesidad de entrar en ese terreno esencialmente matemático, terminaremos esta
sección haciendo alusión a otras alternativas que permiten visualizar el problema de la
dinámica en términos más simples. La figura I.6 es una excelente representación de las dos
imágenes más usuales en física clásica: la trayectoria en el espacio directo, o espacio de
coordenadas, y la del espacio recíproco o espacio de velocidades (o momenta). Fue tomada de
una preciosa pieza recuperada de Feynman, denominada La conferencia perdida de Feynman
(Metatemas 56, Tusquets, 1999).
Figura I.6. Movimiento de un planeta en trayectoria elíptica alrededor del Sol. A la derecha se muestra
el espacio recíproco o de momentos. El radio vector p (o para el caso la velocidad Vp), en general
variable en magnitud y dirección, describe una trayectoria circular alrededor del centro C en el espacio
recíproco o de momentos; el origen O de los vectores velocidad coincide con C solamente cuando la
trayectoria en el espacio de posiciones es circular, pero la curva que describe el vector variable p es
circular para la Luna, los planetas o los meteoritos.
Figura I.7a. Nube electrónica alrededor del núcleo en el átomo de hidrógeno que muestra la
distribución de la probabilidad en la interpretación de Born de la función de onda.
Se suele decir que el electrón está distribuido alrededor del protón con una probabilidad que
depende de la densidad, mas no es así. La nube electrónica en la región cercana a 0.51 Å da la
región de máxima probabilidad de ubicación del electrón en su estado o nivel más bajo de
energía. Se habla de distribución de la probabilidad, es decir, el electrón no ha dejado de ser
una masa puntual y así se manifiesta. Es lo que se intenta ilustrar en la figura I.7b: al electrón
lo encontraremos, cada vez que se observe de alguna manera, en una posición definida, no en
varias a la vez.
Hay otros detalles que no se han tenido en cuenta, pero que no surten mayor efecto en un
primer acercamiento al problema: por simplicidad, se han hecho algunas idealizaciones sobre
el protón. La más obvia, se le ha considerado como si fuera un punto fijo de cuyo movimiento
no hay que preocuparse. Una forma elegante de manejar esa simplificación exagerada es
resolver lo que desde la mecánica newtoniana se llama el problema de los dos cuerpos, pero
no se va a entrar aquí en los detalles del asunto: baste con decir que el problema se soluciona
describiendo el conjunto protón – electrón en el sistema del centro de masa. Otro detalle que
se ha pasado por alto es que el protón en realidad está formado por tres quarks; pero eso no
va a agregar nada a la descripción exacta del problema atómico. Acerquémonos a él desde
otro punto de vista.
Así como la posición y la cantidad de movimiento son el punto de partida para una descripción
dinámica del movimiento, las energías de posición (energía potencial) y de movimiento
(energía cinética) lo son para una descripción más sencilla de problemas como los que
venimos tratando, pues en la mayoría de ellos, tanto de la mecánica clásica como de la
cuántica, puede invocarse el principio de conservación de la energía. En el caso anterior, la
energía de posición está dada por una variable u observable U y la de movimiento por otra
que se suele denotar por T, mientras no dé lugar a confusión con el parámetro que mide la
temperatura del sistema. Escribámoslas para el caso del electrón, asumiendo que el protón,
por ser mucho más masivo, prácticamente no se mueve:
U = -ke2/r; T = ½mv2.
Estas expresiones, fácilmente aceptables para el movimiento planetario, hasta cierto punto
pierden significado bajo el nuevo esquema, pero siguen siendo representaciones útiles. Para
que la energía cinética o de movimiento tenga algún sentido, es preferible hablar de un valor
esperado (semejante al valor medio) y representarlo por <T>. Hay algo que no tiene duda
alguna: la suma de las dos cantidades nos da un observable, una cantidad medible más o
menos directamente; explícitamente, la energía total, E = U + T, como veremos, puede tomar
un conjunto de valores que son los aceptados (valores propios) en la nueva teoría, aunque
cada una de las partes no toma valores definidos. De hecho U y T representan operadores y su
suma, H = U + T, también. La relación matemática es relativamente sencilla; si cada uno de los
estados se representa por Ψn (en el esquema de Schrödinger), a cada uno de esos estados le
corresponde un valor de energía En, el punto de partida es la ecuación de valores propios
HΨn = EnΨn.
Empezaremos por oscilaciones mecánicas. Hay muchos tipos de osciladores, de los cuales el
más simple es el denominado oscilador armónico. Movimiento armónico simple es el que
ejecuta una masa atada a un resorte en condiciones ideales, después de desplazarlo
levemente de su posición de equilibrio. El péndulo simple es una aproximación a ese tipo de
movimiento, válida para pequeñas oscilaciones. El resorte, en condiciones ideales, ejerce una
fuerza de recuperación, dirigida hacia el punto de equilibrio, proporcional a la deformación, de
ahí el tipo de movimiento oscilatorio que resulta. Por el contrario, son anarmónicas las
oscilaciones provocadas por fuerzas no lineales (cuadráticas, por ejemplo).
Aunque el caso más sencillo de describir no es el que ilustra la figura I.8a, sí es el más fácil de
visualizar. Si se atara a la masa una punta con tinta y se apoyara suavemente sobre una hoja
de papel dispuesta en forma vertical que se desplaza horizontalmente (digamos que a lo largo
del eje Z) con velocidad constante mientras el resorte vertical ejecuta una oscilación, el
resultado ideal (sin tener en cuenta pérdidas de energía) sería el que ilustra la figura I.9, a
condición de que se leyera con el tiempo invertido, hacia atrás en el tiempo. Para una
representación física más adecuada, el eje horizontal debería multiplicarse por t/T, siendo T el
periodo de oscilación. Su inverso corresponde a la frecuencia de la onda. Proyectando la
sombra del movimiento circular uniforme de un objeto en las direcciones y o x, se obtienen
movimientos oscilatorios. A partir de allí es fácil describir cada una de las componentes del
movimiento en ambas direcciones.
Una forma más sencilla para describir el movimiento oscilatorio periódico es descomponer el
movimiento circular uniforme, como ilustra la figura I.10. Para ello es conveniente introducir
el concepto de velocidad angular ω, de tal suerte que el ángulo barrido después de transcurrir
un cierto tiempo t es: Θ = ωt. Eso quiere decir, si el punto de partida del móvil fue B, que x = R
cos(ωt) y y = R sen(ωt).
A partir de movimientos oscilatorios periódicos se pueden generar ondas en diferentes medios
materiales. La clave está en transmitir esos movimientos oscilatorios de un punto a otro en ese
medio. La figura I.9 podría servir para representar una onda monocromática, la propagación de
una perturbación con una determinada frecuencia, una onda con una longitud de onda
espe ífi a. El á gulo Π o espo de ía a u a posi ió λ si el eje ho izo tal e esa figu a
representa la dirección de propagación de la onda, el eje Z, perpendicular al plano en la figura
I.10. O puede corresponder a T, un periodo completo (inverso de la frecuencia), si el eje
horizontal es el tiempo.
Lo gitud de o da
I te sidad
Figura I.11. Ilustración espacial de la intensidad de una onda matemática en una dimensión. (La
intensidad de la onda es proporcional al cuadrado de la amplitud, por ende siempre es una cantidad
positiva.)
Figura I.12. Ondas estacionarias en cuerdas, generadas mediante láminas o diapasones de diferentes
frecuencias. La velocidad de propagación de la onda está determinada por la densidad (masa por
unidad de longitud) de la cuerda y por la tensión a que está sometida. En la figura a) la cuerda está libre
por el extremo derecho.
Mediante un diapasón conectado a un extremo de una cuerda cuyo otro extremo puede estar
fijo a un peso que causa una cierta tensión, por medio de una polea, por ejemplo, pueden
generarse ondas. Acomodando tensiones y longitudes para diapasones de diferentes
frecuencias, es posible generar ondas estacionarias muy diversas, como las que se ilustran en
la figura I.12.
Ya que hablamos de diapasones, nótese que a menudo su vibración se acopla a una caja vacía
en su interior, buscando que se produzca un interesante fenómeno característico de las
oscilaciones y las ondas: la resonancia. Es lo que ocurre, por ejemplo, con las vibraciones de
los instrumentos de cuerda frotada, entre los que destaca el violín, o algunos de percusión
como el tambor. En los instrumentos metálicos, de viento o de percusión, el acople es más
complejo.
Los medios materiales en que se propagan las ondas mecánicas pueden ser sólidos, líquidos,
gaseosos o plasmas, cuatro estados de la materia. (Algunos se refieren al condensado de Bose-
Einstein como un quinto estado.) Decimos que una onda se propaga, y mecánicamente
imaginamos que es la perturbación o agitación lo que se transmite, a una cierta velocidad
característica. Ésta depende, en primera instancia, del medio en que se propaga la
perturbación, de la tensión a que está sometida la cuerda, por ejemplo, y de su densidad
(composición y grosor).
Es fácil observar la propagación de ondas en un trozo de gelatina: distintas texturas dan
diferente velocidad de propagación. A lo largo de un tronco de madera suficientemente
extenso puede percibirse la propagación de una onda sonora con una velocidad mayor que en
el aire. Se esperaría que es más ilustrativo hacer el experimento con una varilla metálica:
dando un golpe en un extremo se transmite rápidamente una señal sonora al otro extremo. La
velocidad de propagación es demasiado rápida para ser observada a simple vista.
Un largo tubo vacío con superficie de vidrio, preferiblemente de sección circular, nos permite
propagar ondas sonoras a través del aire en una dirección muy precisa. Podría ponerse a
vibrar un diapasón colocado en un extremo del tubo y percibir las ondas en el extremo
opuesto, si la longitud del tubo fuera apropiada: son de la misma frecuencia, más intensas que
cuando simplemente viajan en el aire debido a un interesante fenómeno llamado resonancia.
Esas son ondas longitudinales: a diferencia de la cuerda, en la cual las oscilaciones de las
partículas son transversales, las oscilaciones de cada una de las capas de aire se hace en la
misma dirección en que avanza la onda sonora. Véase la figura I.13. Nótese que estamos
hablando ya de vibraciones de un oscilador. Los átomos solían visualizarse clásicamente como
osciladores. Véase el capítulo quinto.
Figura I.13. Ondas longitudinales que se propagan a lo largo de una columna de aire en un tubo con
superficie de vidrio, para localizarlas mejor y evitar su disipación. El diagramador dibujó algunas
partículas de aire demasiado grandes, lo que facilita imaginar lo que ocurre en otras circunstancias. Las
ondas sonoras se generan mediante las vibraciones de un diapasón de la frecuencia que se desee.
Pero también es posible observar ondas de torsión, como las que se muestran en la figura
I.14. Para visualizar mejor lo que ocurre, imagine que se anclan a una varilla metálica
transversalmente trocitos rectos de alambre grueso. La torsión de una sección transversal de
la varilla se transmite a cada una de las secciones sucesivas: es fácil ver a qué velocidad avanza
esa perturbación observando el movimiento torsional de los trozos de alambre, aunque por
supuesto ellos van a afectar la velocidad de propagación, dado que modifican drásticamente
la dinámica de cada sección de la cuerda.
Figura I.14. Ondas de torsión. Son fáciles de visualizar en una barra metálica.
Hay muchos experimentos sencillos que pueden hacerse con ondas. Igualmente se encuentran
muchos cursos con autocontenido en la red.
Las ondas sonoras que se producen en los instrumentos de cuerda o de viento se acoplan
invariablemente a otro medio para propagarse y llegar al receptor: el aire es el medio de
propagación, por excelencia; en él se forman generalmente ondas esféricas, cuya intensidad
decae con el cuadrado de la distancia, un fenómeno típico de conservación de energía,
acompañado en mayor o menor grado de un fenómeno de origen diferente, en el que
igualmente decae la señal: la disipación. La disipación está ligada a otro interesante tema: lo
que ocurre realmente en el interior de cada una de las partes de materia, los átomos y
moléculas; ellos responden más frecuentemente y dan lugar, entre otras, a un tipo de ondas
de trascendental importancia: la denominada radiación electromagnética, a discutir en el
siguiente apéndice. Por simplicidad se puede imaginar que las ondas electromagnéticas en los
átomos, la luz que emiten, son como la que ilustra la figura I.15, en la cual se indica que a gran
distancia esa onda esférica se vuelve plana. Ocasionalmente el modelo funciona.
Figura I.15. Onda esférica (o circular) que se vuelve plana a gran distancia.
Cua do se o lu ó ue la luz es u fe ó e o o dulato io, se e o t ó lo ue supo e os
o io : la luz se propaga más rápidamente en el aire que en el vidrio u otro medio material
cualquiera; es más fácil correr contra el aire que nadar contra el agua. Pero, ¿por qué habría
de se o io , si a a a os de de i lo o t a io so e las o das so o as? A mayor densidad
del medio, la velocidad de una onda mecánica como el sonido aumenta. La respuesta es sutil:
las ondas de luz son un tipo muy particular de ondas. Para empezar, observe que pueden
propagarse sin necesidad de medio material alguno: al menos eso ocurre en los espacios
intergalácticos donde la densidad de materia es extremadamente baja. Por el contrario, las
ondas sonoras no pueden propagarse en el vacío. Dicho en otras palabras, la luz no es el tipo
de onda mecánicamente producida que acabamos de discutir. O mejor: El señor es sutil
(Subtle is the Lord, reseña sobre Einstein escrita por Ronald W. Clark.).Volveremos a este
asunto más adelante, no sin antes mencionar que para resolver el problema en el pasado se
supuso que había un medio extraño, imponderable, al que denominaron éter, hoy en día
desechado por la física ortodoxa.
La noción de onda es menos intuitiva que la de partícula; en las ondas mecánicas hay una
característica común: las oscilaciones, las cuales se transmiten de uno a otro punto gracias a la
elasticidad del medio. Se verá que hay complicaciones aún mayores, y diferencias radicales en
su comportamiento, si se le compara con el de partículas. La más importante, para los
fenómenos que aquí se van a considerar, es el siguiente: las ondas exhiben un fenómeno
peculiar, el de superposición o interferencia, ausente por completo en las partículas clásicas,
sean ellas balas de cañón, diminutos proyectiles o, mejor aún, cuerpos tan gigantes como una
galaxia (que también son partículas desde un punto de vista cosmológico).
Clásicamente, al menos en lo que se refiere a las ondas mecánicas (la luz, como se dijo, es
caso aparte), una onda simple resulta de un fenómeno oscilatorio. En la figura I.13, cuando se
pone a vibrar un diapasón y se le ata al extremo de una cuerda (figura I.12), preferiblemente
liviana, se pueden percibir dos ondas: la sonora, que se propaga en el aire, con la frecuencia
característica del diapasón y la velocidad propia del sonido en el aire a la temperatura a que se
encuentre, y una onda a lo largo de la cuerda; ésta última viajará con una velocidad que
depende de la tensión a que esté sometida la cuerda y de su densidad (masa por unidad de
longitud). Intuitivamente puede entenderse que a mayor tensión y menor densidad (mayor
aceleración y menor inercia), la velocidad de propagación sea mayor. Bajo ciertas condiciones,
en la cuerda se forma una onda estacionaria. Es como si partes de la cuerda, separadas por
medias longitudes de onda, vibraran al unísono; de hecho, así es. Consideremos un caso más
sencillo.
Figura I.16. Ondas estacionarias en una cuerda fija por sus dos extremos. En el primer caso, L = ½ λ; e
el segundo, L = ; en el tercero, L = (3/2) λ; pa a el ua to, L = 2.
Sujétese una cuerda liviana (de baja densidad) por dos extremos, tensionándola, no muy
fuertemente para que se pueda observar mejor y para que no se rompa. Al presionar
transversalmente por el centro de la cuerda y liberarla repentinamente, la cuerda va a oscilar:
todos los puntos de la cuerda irán de abajo hacia arriba durante medio ciclo y de arriba hacia
abajo en el medio ciclo siguiente. Obsérvese que la cuerda tiene media longitud de onda, L = ½
λ. Ahora presiónese en sentidos opuestos a (1/4)L y (3/4)L, buscando que el centro
permanezca estático: se observa que, mientras la mitad de los puntos de la cuerda se mueven
en una dirección, los de la otra mitad se mueven en dirección contraria. Se ha logrado formar
u a o da esta io a ia o u a lo gitud de o da λ igual a la lo gitud de la ue da. Véase la
figura I.16.)
Sin necesidad de hacer la demostración matemática, conviene advertir que la onda en el caso
anterior es una superposición de dos ondas: una que viaja hacia la derecha y otra
exactamente igual en amplitud y frecuencia que viaja hacia la izquierda. La amplitud de la
onda resultante es el doble de la de cada una de sus componentes, un efecto lineal fácil de
visualizar; la intensidad va a ser el cuádruplo. El fenómeno se denomina superposición de
ondas, y vale para todo tipo de ondas que se propaguen en medios lineales. Ya se dijo que la
superposición va a ser de gran importancia en la descripción de los fenómenos cuánticos.
De manera similar a la superposición de ondas, en el fondo lo mismo pero de manera más
general, funciona el fenómeno conocido como interferencia de ondas. Para ilustrarlo, es mejor
recurrir a ondas bidimensionales más extensas que las ondas en una cuerda (éstas, al igual
que las ondas sonoras en un tubo, son un tipo muy particular de ondas en una dimensión). Las
ondas en el agua son convenientes para visualizar lo sustancial en el experimento propuesto.
Las figura I.18 y I.19 ilustran el fenómeno de interferencia en el caso de la luz, para el llamado
experimento de interferencia a través de dos ranuras. En la I.20 se ilustra esquemáticamente
cómo se suman.
Figura I.17. Patrón de interferencia de ondas. El primer caso representa una situación idealizada,
ilustrada originalmente por Huygens (principio de Huygens), para las ondas de luz, considerando cada
punto en el frente de ondas como una nueva fuente de luz; el segundo, es una fotografía de ondas en el
agua durante un experimento real (laboratorio del PSSC, Physical Sciences Study Committee, 1964).
Se volverá a las ondas de luz en el Apéndice II y a lo largo del texto. Por ahora, para terminar
nuestra introducción a las ondas mecánicas, agreguemos que la perturbación que se propague
puede ser en principio de cualquier forma, en general, una superposición de muchísimas
perturbaciones periódicas armónicas.
Figura I.20. Superposición de dos ondas en fase (derecha) y en antifase (izquierda). Que la interferencia
sea constructiva o destructiva depende de la diferencia de caminos en la figura I.18 b. Si la diferencia en
el recorrido de las dos ondas es un número entero de longitudes de onda, la interferencia es
constructiva y las dos ondas se refuerzan. En caso contrario, número semi-entero de longitudes de
onda, es de aniquilación y las dos ondas se cancelan. Dependiendo del resultado, aparecen franjas
brillantes u obscuras en las figuras I.18 y I.19.
II. ELECTRODINÁMICA
Maxwell dijo: ¡hágase la luz!
F = q (E + vB).
En palabras, una carga (supuestamente puntual) que se mueve con velocidad v experimenta
una fuerza total que es la suma de dos términos: uno que depende solo del campo eléctrico,
otro que depende del campo magnético y del vector velocidad, en la forma que establece el
denominado producto vectorial. Resulta así fácil visualizar una descripción, en términos de
campos, de la fuerza que una carga puntual puede hacer sobre otra colocada a cierta distancia
y de la fuerza que un pequeño imán o un circuito de corriente puede hacer sobre otro imán u
otro circuito diminuto cercano, o simplemente sobre una carga en movimiento; en el primer
caso, se hablará de un campo eléctrico; en el segundo, de un campo magnético.
El lector ya estará acostumbrado a la descripción de interacciones en términos de campo:
basta con que regrese a la figura I.5. Allí se ilustra el campo gravitacional en el exterior
producido por la Tierra, una tierra esférica con densidad uniforme. Podríamos escribir: F = mg
(muy similar en su forma a qE). Pero debe tenerse cuidado: la magnitud de g, escribámosla
|g| o simplemente g, ya no es constante. Rigurosamente estaría dada por la relación: g =
GM/r2, siendo M para el caso la masa de la Tierra y r la distancia del objeto de masa m al
centro de la Tierra, o mejor, la distancia entre los centros de masa de los dos objetos que
interactúan gravitacionalmente, a condición de que los dos sean de forma esférica.
Los campos fueron tomando una realidad física a medida que el concepto se aprovechó para
avances conceptuales. El paso decisivo lo dio Einstein y está bosquejado en el manual que
escribiera con Infeld. Para los lectores menos experimentados en este tema, se hace aquí una
breve descripción gráfica de los campos en circunstancias muy sencillas, pero se les
recomienda bajar de nuestra página (o de algún otro lugar) el manual de Einstein e Infeld y
degustarlo en su capítulo tercero: Campo y relatividad. (La versión en español parece estar
agotada.)
Figura II.3. Campo magnético producido por un imán. La aguja o brújula se orienta en la dirección de las
líneas de campo.
Figura II.4. Un solenoide por el que se hace circular una corriente estacionaria (constante, denominada
también corriente directa, c.d.) por medio de una pila o batería o cualquier otro tipo de fuente de c.d. A
la derecha se ilustran las líneas de campo, resultado de la superposición de varias espiras como la de la
figura II.2b.
Figura II.5 Experimento de Rowland. Una carga eléctrica girando en círculo produce un campo
magnético. El campo magnético es similar al de la espira, pero rigurosamente hablando es un campo
dependiente del tiempo. O mejor, para adelantarnos a la discusión de la sección 4.9, la carga se ve
como un campo eléctrico variando en el tiempo que a su vez genera un campo magnético. Ese campo
magnético se manifiesta desviando la aguja o brújula colocada en el centro.
Figura II.6. a) Campo eléctrico de dos cargas del mismo signo; b) campos magnéticos cuando dos imanes
se acercan, con diferente o la misma polaridad, término ambiguo que dio lugar a equívocos.
Otro caso sencillo lo constituyen líneas rectas muy extensas de carga y de corriente, alambres
infinitos si se quiere idealizar aún más, vale decir, cuando la longitud de los segmentos rectos
considerados es muy grande comparada con la distancia a la cual se quiere examinar el
campo. Para visualizarlos más fácilmente, considérense solo las secciones transversales de
esos segmentos o líneas; es como si se estuvieran observando puntos, siempre y cuando el
grosor de los segmentos sea suficientemente delgado. De nuevo las líneas del campo eléctrico
del alambre cargado positivamente (representado a la izquierda) divergen en dirección
perpendicular a la línea (recuerde que ya no se trata de un punto); en cambio las del campo
magnético del alambre de corriente en dirección hacia el lector son circulares, se cierran
sobre sí mismas. Esto se ilustra en la figura II.7. Si se observan con atención, se verá que las
del imán también se cierran sobre sí mismas (la que va sobre el eje se cerrará en el infinito).
Quizá el lector haya oído hablar de condensadores cilíndricos y de cables coaxiales. En uno y
otro se encierra el campo (eléctrico o magnético, respectivamente) entre dos cilindros
concéntricos. Las líneas de campo siguen la misma orientación que tienen en la figura II.7.
Por analogía con los fluidos, las líneas de campo dan lugar a un flujo a través de una sección
superficial. En ocasiones, es conveniente pensar en el flujo a través de una superficie cerrada.
A diferencia de los flujos de campo, en los fluidos mecánicos (líquidos o gases) esta situación
no es tan interesante, porque el flujo hacia dentro es invariablemente el mismo que el flujo
hacia fuera: las líneas de flujo son en principio cerradas. En el caso del campo eléctrico, en
cambio, éste puede dar lugar a un flujo neto (es el caso usual cuando hay una carga dentro), lo
que no ocurrirá con el campo magnético, precisamente porque sus líneas de campo son
cerradas.
Figura II.7. Sección transversal de los campos de líneas de carga y de corriente. a) Campo eléctrico de
una línea recta cargada; b) campo magnético de una línea de corriente, segmento recto muy extenso,
en dirección entrante a la hoja.
Por último, considérense dos placas paralelas muy extensas (representadas por planos
paralelos), y visualícese un corte transversal. Discutiremos brevemente dos situaciones
interesantes en que pueden producirse campos eléctrico o magnético muy aproximadamente
uniformes. En el primer caso, se trata de placas cargadas, la de la derecha con carga positiva,
la de la izquierda con carga negativa: es lo que suele denominarse un condensador de placas
planas, un dispositivo muy usual en diversos acumuladores y en múltiples circuitos eléctricos o
electrónicos.
Figura II.8. Campos producidos por placas paralelas ilimitadas. Se muestra solo una región de las placas.
a) Campo de placas extensas cargadas con cargas iguales y opuestas. b) Campo magnético producido
por un par de placas muy anchas que transportan corriente en direcciones opuestas.
El segundo caso es menos realista (poco frecuente) y representa igualmente dos láminas muy
extensas que llevan corriente, la inferior en la dirección que se aleja del lector y la superior
acercándose hacia él. A diferencia de las líneas de campo eléctrico, que empiezan y terminan
en las placas, las de campo magnético se cierran sobre sí mismas en el infinito, para el caso
ideal considerado, por fuera de las placas en el caso real de placas finitas. Las líneas de campo
se ilustran en la figura II.8. En ambos casos, debería tenerse en cuenta la deformación que
tiene lugar en los extremos de las placas, para satisfacer algunas propiedades de los campos
que no discutiremos en esta breve síntesis.
Hasta aquí se han hecho suposiciones muy fuertes, no solamente en cuanto a la geometría de
los objetos: se ha supuesto, por ejemplo, que las cargas o las corrientes han estado ahí desde
siempre. En un caso práctico, de la vida diaria, la fuente de carga sobre las placas del
condensador podría ser una fuente de voltaje alterno; lo mismo puede pensarse con la de
campo magnético en el lado derecho: corriente alterna que durante medio ciclo va hacia la
derecha por la placa inferior, hacia la izquierda en la superior, para luego hacerlo a la inversa.
El resultado para el primer caso se esquematiza en la figura II.9; no hemos dibujado las líneas
de campo magnético inducido: ellas son líneas circulares, siempre perpendiculares al campo
eléctrico, con centro en el centro de simetría de la figura, similares a las de la corriente de un
alambre muy largo, como el de la figura II.7b. De hecho, es como si la corriente hubiera
continuado dentro del condensador en la dirección de las líneas de campo eléctrico, en
sentido positivo si el campo eléctrico está aumentando, en sentido opuesto si está
disminuyendo con el transcurso del tiempo. Para el segundo caso (placas que llevan corriente,
alternando su sentido), surge un campo eléctrico inducido cuyas líneas de campo son
nuevamente perpendiculares, esta vez a las líneas del campo magnético que está oscilando en
el tiempo. Debe quedar claro que esos campos inducidos no tienen origen en cargas o
corrientes eléctricas: su origen es la variación en el tiempo de su contraparte, eléctrica o
magnética. A esos campos inducidos, no producidos por cargas o por corrientes eléctricas,
volveremos en breve.
4.9 Campos y ondas electromagnéticas
Esta última sección está destinada a examinar lo que ocurre cuando cargas y corrientes
cambian con el tiempo. Es lo que se conoce con el nombre de electrodinámica.
La historia de la electricidad y el magnetismo es muy rica e ilustrativa. No nos detendremos en
ella, por estar fuera del propósito de estas notas. Pero vale la pena rescatar los fenómenos
fundamentales que encierra y que pasaron desapercibidos durante muchos siglos. Uno de
ellos es el resultado del experimento de Rowland ya mencionado. Nos limitaremos a destacar
el hecho subrayado por Einstein e Infeld, a saber: del movimiento en trayectoria circular de la
carga surge un campo eléctrico variable en el tiempo que produce un campo magnético. Pero
lo contrario también ocurre: si se dispone de un campo magnético variable en el tiempo,
seguramente debe surgir un campo eléctrico. Históricamente las cosas ocurrieron a la inversa:
Faraday descubrió la ley que lleva su nombre, según la cual un imán o cualquier otra fuente de
campo magnético en movimiento puede generar, bajo condiciones adecuadas, una corriente
eléctrica, por ende, un campo eléctrico, responsable este último de la corriente generada. El
experimento más elemental seguramente es conocido por el lector: al acercar un imán a un
circuito como el que ilustra la figura II.9, no alimentado por ninguna fuente o batería, surge
una corriente en cierta dirección la cual se puede detectar mediante un galvanómetro; por el
contrario, al alejar el imán, aparece una corriente en dirección contraria. La dirección de la
corriente inducida sigue una regla denominada Ley de Lenz: el campo magnético producido
por esa corriente tiende a compensar la variación del campo magnético (en realidad del flujo,
pero ese concepto no lo hemos introducido).
Figura II.9 Inducción electromagnética. Al acercar un imán a un circuito (bobina) como el de la figura, se
genera una corriente en cierta dirección; al alejarlo, la corriente va en dirección contraria: es una
corriente inducida. Mientras no haya movimiento relativo entre el imán y la bobina, no habrá corriente
inducida. (Imagen tomada de http://www.rena.edu.ve/TerceraEtapa/Fisica/CorrientesInducidas.html)
La imagen inferior muestra con mayor detalle lo que se suele hacer en la práctica, utilizando un
solenoide.
Después de muchos experimentos similares, en los que Faraday acercaba el circuito al imán,
utilizaba un solenoide como el de la figura II.4, hacía variar la corriente que producía un campo
magnético, etcétera, llegó a la conclusión que resume su más importante contribución al
campo: cuando un campo magnético varía en el tiempo de alguna manera, da lugar a un
campo eléctrico inducido.
Figura II.10. Una fuente de corriente alterna produce entre las placas paralelas un campo oscilante. Ese
campo eléctrico variando en el tiempo, al igual que ocurre en el experimento de Rowland, produce un
campo magnético. No se ilustran las líneas de campo magnético, pero se puede entender fácilmente
que ellas son líneas circulares, siempre perpendiculares al campo eléctrico, con centro en el centro de
simetría de la figura, similares a las de la corriente de un alambre muy largo, como el de la figura 2.27b,
oscilantes para el caso. Obsérvese que alrededor de los segmentos rectos que llevan la carga (corriente)
de la fuente a las placas hay también líneas de campo cerradas, aproximadamente circulares cerca de
cada segmento.
A partir de las observaciones que siguieron al efecto descubierto por Faraday y en sus
esfuerzos por sintetizar las leyes del electromagnetismo, Maxwell se preguntó si un efecto
similar se observaría por variación de campos eléctricos. Su procedimiento experimental para
verificar su hipótesis se bosqueja en la figura II.10.
La predicción exacta de la forma en que varían espacial y temporalmente los campos eléctrico
y magnético en diversas geometrías bajo ciertas circunstancias y condiciones, su relación con
las cargas y las corrientes que los producen, la generación de nuevas corrientes y por ende la
nueva distribución de esas cargas dando lugar a nuevas formas de los campos, constituyen el
gran triunfo de la electrodinámica, como se conoce la teoría que sintetiza la descripción de
todos estos fenómenos electromagnéticos. Su enunciado son cuatro ecuaciones que llevan el
nombre de Maxwell, quien con su gran ingenio logró tan brillante síntesis. Combinándolas,
surge la maravillosa predicción a que hemos hecho referencia: los campos electromagnéticos
se propagan en el vacío a una velocidad que es precisamente la velocidad de la luz.
En palabras, se puede dar una somera idea de las consecuencias de aquella síntesis,
ejemplificada en lo que hemos dicho e ilustrado desde la sección anterior: 1) una forma de
generar campos eléctricos es mediante cargas; ellos obedecen a la ley del inverso del
cuadrado de la distancia en la forma que indica la ley de Coulomb; las líneas de campo se
originan en cargas positivas o parecen provenir del infinito; y se sumen en cargas negativas o
parecen proseguir al infinito; 2) otra forma de generar campos eléctricos es mediante campos
magnéticos que varían en el tiempo, bien sea moviendo imanes o mediante corrientes
alternas; las líneas de campo eléctrico así generadas son cerradas (a diferencia de las del
primer punto), lo que puede dar lugar a corrientes inducidas, si se colocan conductores allí
donde surgen esos campos; 3) a su vez, los campos magnéticos son producidos, en primera
instancia, por corrientes, es decir, cargas en movimiento; las líneas de campo magnético son
siempre cerradas; 4) pero al igual que los campos eléctricos inducidos mediante campos
magnéticos que varían en el tiempo, los campos eléctricos que varían en el tiempo dan lugar a
campos magnéticos inducidos.
A diferencia de los campos eléctricos inducidos, dando lugar a las corrientes inducidas que a
nivel experimental estudió tempranamente Faraday, los campos magnéticos inducidos por
campos eléctricos variables en el tiempo fueron predichos por Maxwell teóricamente y luego
verificados experimentalmente por él mismo y posteriormente por Rowland. Ése fue quizá el
mayor mérito experiimental del primero; fue, de paso, lo que le condujo a la unificación del
electromagnetismo y de la óptica, dos campos hasta entonces totalmente separados. Fue así
como apareció una constante fundamental que ha trascendido todos los campos: la velocidad
de la luz. Formado en la escuela newtoniana, Maxwell no tuvo más remedio que apelar a un
medio físico ya previsto por otros, el éter luminífero, para dar cabida a su constante: sus
ondas, incluida la luz visible, se moverían a velocidad c en ese tenue medio material; en
cualquier otro sistema, por ejemplo la Tierra, la cual para entonces era bien sabido que se
mueve alrededor del Sol, esas ondas se moverían con otra velocidad, resultado de la adición
de velocidades de la mecánica galileana y newtoniana; las ondas de luz y la Tierra misma se
moverían también en ese medio, el omnipresente éter. Las contradicciones no tardaron en
presentarse, pero aquí no se hará más que una mención circunstancial a esos problemas,
resultado del experimento negativo de Michelson y Morley.
Volvamos a los campos, campos en el vacío, para mayor facilidad. Cada vez que un campo
eléctrico cambia produce un campo magnético igualmente variable, el cual a su vez va a
generar un campo eléctrico cuya variación provocará un campo magnético y así
sucesivamente: esa es la razón para que se produzcan las ondas electromagnéticas: campos
entrelazados que se propagan, aún en el vacío, o mejor, sobre todo en el vacío, haciendo que
nos llegue valiosa información del interior de las estrellas, del confín del Universo. En la
materia, esos campos producen efectos sobre las cargas que hay en sus ingredientes
fundamentales y se generan nuevos campos que se superponen con los iniciales. Los campos
resultantes satisfacen las ecuaciones de Maxwell, cuya elegante formulación matemática el
lector puede consultar en los textos (por ejemplo en la sencilla presentación que de ellas hace
Sagan en El mundo y sus demonios, capítulo 23) y de cuya aplicación cotidiana está inundado
el mundo de las comunicaciones.
No valdría la pena el esfuerzo anterior hacia la visualización de los campos electromagnéticos
para lo que nos incumbe, el mundo microscópico, si no tuviéramos en cuenta la producción de
esos campos en el interior mismo de la materia, en los átomos y, por qué no, en los núcleos.
Ilustrémoslo con un ejemplo dinámico de singular trascendencia para el universo cuántico.
Surgirán de paso nuevas contradicciones del enfoque mecanicista de la física.
Figura II.11. Propagación de una onda electromagnética plana. Obsérvese que los tres vectores, a saber,
E, B y c, son perpendiculares entre sí. Se dice que esta onda tiene polarización lineal en dirección y.
Recuérdese que un movimiento circular, en un plano XY, puede verse como la suma o
superposición de dos movimientos oscilatorios, uno en dirección x, el otro en dirección y. En la
imagen clásica del átomo más sencillo, el de hidrógeno, el electrón estaría revoloteando
alrededor del protón, en un movimiento circular. Visto de canto, desde el eje Y o desde el eje
X, es como si el electrón estuviera oscilando, a lo largo de X o de Y respectivamente, con una
amplitud A igual al radio de la supuesta órbita. En esas condiciones, se tiene un dipolo
eléctrico que oscila, dando lugar así a ondas electromagnéticas.
Si los físicos hubieran adivinado más temprano que las corrientes son cargas eléctricas
(elementales) en movimiento y que el magnetismo es producido por el movimiento de esas
cargas, habrían podido dar un soporte fundamental a la hipótesis atómica. Fue el haber
pasado por alto esta hipótesis lo que hizo que llegaran la mayoría de los físicos más
prominentes del siglo XIX a los albores del siglo XX menospreciando la hipótesis atómica.
Seguramente esta reflexión sirva para elevar aún más la imagen del joven Einstein. De sus
cinco históricas contribuciones, publicadas todas ellas, a excepción de su tesis doctoral, en
1905, la que llamó más la atención inicialmente fue la que se refiere al tamaño de los átomos
y a su movimiento browniano. Pero volvamos a una imagen más reciente, a saber, la del
electrón circulando como se ilustra en la figura, una imagen prevista por el modelo de
Rutherford del átomo.
En términos clásicos, se diría que el electrón está radiando, generando campos que se
propagan, lo cual significa que estaría perdiendo energía. En condiciones estacionarias el
electrón no radia, lo que llevó a descartar el modelo de Rutherford. Que eso no sea lo que se
observe significa, de paso, el colapso del edificio clásico: los electrones no pueden estar
siempre radiando si no tienen una fuente que los esté alimentando permanentemente.
Figura II.12. Un punto de partida de toda teoría clásica. Una carga girando en círculo produce ondas
electromagnéticas. Estas ondas pueden visualizarse como el resultado de osciladores cruzados (vertical
y horizontal; véase el apéndice I).
Ese fue el derrumbe de la pieza más monumental de la teoría clásica, al tenerse que concluir
que la radiación atómica ocurre de otra manera, no predicha por el electromagnetismo de
Maxwell. De eso diremos algo en el capítulo cuarto y nos ocuparemos más a fondo en la
segunda parte.
Figura II.13. Campo variable de un dipolo eléctrico. A grandes distancias, las ondas electromagnéticas
forman ondas planas, como sugiere la figura I.6. (Tomado de Panofsky y Phillips: Classical Electricity and
Magnetism,Addisson Wesley 1958.)
Espectro Electromagnético
A pesar de lo anterior, una antena es la materialización de la oscilación dipolar, componente a
lo largo del eje X o del eje Y que acabamos de describir; para ese caso, las leyes de la
electrodinámica funcionan inequívocamente. Es así como se generaron ondas
electromagnéticas para la comunicación desde finales del siglo XIX, en esencia el mismo tipo
de ondas que nos llega de los átomos que constituyen la materia estelar. El tipo de ondas o
radiación electromagnética que se puede producir es muy amplio y cada vez estamos en
mejores condiciones para manipular y utilizar las ondas resultantes, desde muy bajas
frecuencias, por ende muy larga longitud de onda (ondas de radio y de TV), hasta la región de
muy altas frecuencias o altas energías, en la región del ultravioleta (UV). En la tabla adjunta se
muestran los rangos respectivos en longitud de onda, frecuencia y energía equivalente.